[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [InetBib] nestor Handbuch digitale Langzeitarchivierung



Die "Bedrohung" digitaler Objekte besteht doch eher in der Weiterentwicklung der Technik selbst: BTX und Gopher sind weg, praktisch nichts davon erhalten (und da gab es durchaus schon erhaltenswertes, zumindest bei Gopher bin ich da absolut sicher :-). Die technischen Plattformen zur "Wiedergabe" der Inhalte existieren schlicht nicht mehr (ok, Gopher-Server gibt es noch und könnte man auch ohne Probleme wieder einrichten, aber BTX?!?). Was würde es nutzen, wenn ich wichtige Inhalte in einem Format millionenfach redundant hätte, wenn ich dennoch keine technische Plattform zur Nutzung dieser Inhalte mehr hätte? Dann genügen ebensogut 3 oder 100 sicher aufbewahrte, redundante Abbilder des originalen Bitmusters, damit ich nichts sinnvolles mehr damit anfangen kann.
Alles was auf ASCII-Basis laeuft, nutzen wir seit etwa einem halben Jahrhundert problemlos. Jedenfalls sind die bibliothekarischen Digitalisate aus der Anfangszeit (MEDLINE, SCI, CA, BA...)
alle noch lesbar.
Darum haben die USA ja auch SGML und dann XML als grundsaetzliche digitale Archivsprache eingefuehrt, bei ISO-standardisiert und in den Bibliotheken (LC, NLM, etc.) ausgebaut. Die noch bestehenden Probleme sind ja bekannt, und gerade darum ist es so wichtig
die notwendige Redundanz abzuschaetzen.
Mit den wechselnden Betriebssystemen, Programmiersprachen, Ataris, BTX, etc. hat das wenig zu tun.

Ich halte es fuer aeusserst gefaehrlich, so zu tun, als wuerde in der digitalen Welt ein gut gesichertes Dokument in irgend einem Rechenzentrum, oder ausgedruckt in einer Bibliothek, ausreichen. Das mag fuer bestimmte geheime Dokumente gut sein, fuer Publikationen ist es das nicht. Und es ist auch nicht gleichgueltig ob es zufaellig 3, 100 oder ein paar Millionen sind.


MfG

W. Umstaetter



Listeninformationen unter http://www.inetbib.de.