Das dunkle Zeitalter

26. Februar 2009 13:10 Uhr  |  PC_admin  |  Permalink


Die echte Langzeitarchivierung elektronischer Information ist immer noch ein weitgehend ungelöstes Problem. Zwar gibt es reichlich Projekte, Initiativen für „migrationsfreie Archive“ und „vertrauenswürdige Archive“, Archivsubsysteme von Speichersystemanbietern und viele andere Ansätze.
Darüber wird aber immer wieder vergessen, dass es bei der Langzeitarchivierung, besonders im historischen Umfeld oder bei Informationsbjekten mit extrem langen Aufbewahrungsfristen nicht um Jahrzehnte sondern um Jahrhunderte geht. Viel Information ist schon verloren und zukünftige Historikergenerationen werden unsere Ära das „Dunkle Zeitalter der frühen Informationskultur“ nennen. Jedoch ist die Informationsflut noch lange nicht bei den historischen Archiven angekommen. Erste Vorboten konnte man bei der Übernahme der elektronischen Dokumente der Bush-Administration in den USA schon beobachten. Ungeachtet dessen, dass das Problem ständig durch das unktonrollierte Informationswachstum größer wird, stecken die Bemühungen für Verfahren der Langzeitarchivierung vielfach noch in den Kinderschuhen. Es wird über unterschiedliche Formate und deren Behandlung geforscht, es werden die Auswirkungen von Technology Obsolence, den Wegfall von technischen Komponenten wie Speichern oder Anwendungen, diskutiert. Diese Themen sind wichtig. Andere Themen werden aber immer noch unterschätzt: die sich über die Zeit verändernde Qualität der Informationen, zukünftige Anforderungen an die Erschließung und Nutzung, Verfahren zur Bewertung und Aussonderung von Information, Rechte an Inhalten und Schutz von Information im Verhältnis zur Offenlegung, etc. Wenn man also ein Langzeitarchiv konzipiert sind noch weitere und andere Faktoren zu berücksichtigen als bei einem Archiv für kaufmännische Unterlagen mit begrenzten Aufbewahrungspflichten.
Das Problem der Metadaten aufgreifend (als eines der weniger beachteten grundsätzlichen Probleme; siehe auch den Artikel von Christoph Jeggle zum Thema Metadaten in dieser Newsletterausgabe) für die Verwaltung von Records in einem Langzeitarchiv ist davon auszugehen, dass es nie den EINEN Metadaten-Standard für die Archivierung geben kann. Man muss sich angesichts der Langzeitarchivierungsanforderungen von mehreren hundert Jahren darauf einrichten, dass es verschiedene Standards für Metadaten und davon abhängige Formate und Strukturen über die Zeit geben wird. Zur Lösung kommt nur eine Strategie aus "Mapping" und "Continuous Migration" in Frage. Grundlage ist die sinnvolle Auftrennung der Architektur der Lösung. Hierzu sind die Komponenten "Vorverarbeitung in der Erfassung", "Schema-Datenbank", "Archivsystem nach ISO 17421 OAIS" und "Archivsystemspeicher" vorzusehen. Die Strategie sieht so aus, dass

  1. möglichst "fertige Objekte" aus den anliefernden Systemen kommen, d.h. mit Metadaten zu Inhalt, Kontext, Formaten etc., da eine manuelle, auch selbst eine teilautomatisierte Nachbearbeitung auf Grund der Menge der Informationen durch das Archivpersonal nicht möglich sein wird. Die Vorverarbeitung vor dem OAIS-Ingest muss die Prüfung und die Auswertung der Metadaten sicherstellen. Dieses Modul ist ständig zu pflegen und muss über Standardschnittstellen zu den wichtigsten ben den Zulieferern von Informationen gebräuchlichen Anwendungslösungen verfügen.
  2. eine Mapping-Datenbank-Anwendung ("Schema-Datenbank"), die alle vorhandenen Eingangs-Schemata und Archivierungsschemata für Metadaten verwaltet, versioniert und historisiert, die Kontrolle über die verwendeten Strukturen und Metadaten-Attribute sicherstellt. Über die Datenbank erfolgt beim Ingest das Mapping der angelieferten Objekt-Metadaten auf die aktuelle Version der Archivmetadaten. Bei Retrieval über Facetted Search aber auch über freie Suche (a la Google) erfolgt ein Mapping auf die verfügbaren Archiv-Schemata-Attribute und eine Weiterleitung auf das jeweilige Repository-System mit Bereitstellung der Informationsobjekte. Diese Mapping-Datenbank ist ein Zusatzmodul für das OAIS-konforme System und ist in der Regel in am Markt verfügbaren Archivsystemprodukten nicht enthalten. Eine Federated Search stellt so sicher, dass aus unterschiedlichen Beständen die passenden Objekte gefunden werden.
  3. Archivspeicher so auszulegen sind, dass sie über Standardschnittstellen (z.B. XAM oder besser eine verbesserte Folgeversion) ansprechbar sind sowie über eine separate Index-Datenbank verfügen, deren Struktur, Schema, Inhalte etc. in der Schema-Datenbank erschlossen sind. Der Speicher sollte möglichst "dumm" sein, da nur Speichersubsysteme ohne eigene Logik langfristig Bestand haben. Dies erlaubt auch die Nutzung ausgealterter Systeme (es wird nur noch gelesen, nicht mehr geschrieben), da eine Suche über verschiedene Repositories mittels der Steuerung durch die Schema-Datenbank sichergestellt wird. Dies kann auch die physische Migration unnötig, beziehungsweise unabhängig vom technologischen Wandel machen. Zu dem bietet diese Strategie die Möglichkeit, über die Zeit verschiedene Archivspeichersysteme gemeinsam zu nutzen.
  4. im Rahmen den "Continuous-Migration", also der ständig durchgeführten und unabhängig von Technology Obsolence geplanten Migration von Datenbanken und Speichersubsystemen, können Migrationen auch dafür genutzt werden um weitere Attribute dem migrierten System hinzuzufügen oder die Erschließungsstrukturen neuen Nutzungsmodellen anzupassen. So können z.B. Informationsobjekte in zusätzliche Anzeige-Renditionen konvertiert, die Inhalte durch automatische Klassifikation ausgelesen und im Index ergänzt werden, Header-Komponenten der Objekte vervollständigt oder neue geschrieben werden, und andere Operationen durchgeführt werden. Durch die Schema-Datenbank ist der alte Zustand weiterhin bekannt und auch ein Mapping der ursprünglichen Struktur auf die migrierte Struktur möglicht.

All diese Ansätze sind nicht neu und es gibt aus den zahlreichen Pilotprojekten von Archiven noch andere Alternativen. Jedoch stellt die selbstbeschreibende Funktionalität des Systems im Zusammenwirken mit Mapping-Strategien und der Continuous Migration derzeit den offenbar einziggangbaren Weg dar, Information dauerhaft verfügbar und nutzbar zu halten. 

PROJECT CONSULT Newsletter 20090226

Neuen Kommentar verfassen

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Ich stimme zu, dass die von mir eingegebenen Daten einschließlich der personenbezogenen Daten an PROJECT CONSULT übermittelt und dort zur Prüfung der Freischaltung meines Kommentars verwendet werden. Bei Veröffentlichung meines Kommentars wird mein Name, jedoch nicht meine E-Mail und meine Webseite, angezeigt. Die Anzeige des Namens ist notwendig, um eine individuelle persönliche Kommunikation zu meinem Beitrag zu ermöglichen. Anonyme oder mit falschen Angaben eingereichte Kommentare werden nicht veröffentlicht. Zu Nutzung, Speicherung und Löschung meiner Daten habe die Datenschutzerklärung zur Kenntnis genommen.

Ich versichere, alle gültigen Vorgaben des Urheberrechts beachtet zu haben. Dies betrifft besonders die Nicht-Verwendung von urheberrechtlich geschütztem Material und die Nicht-Verwendung von Inhalten und Links zu Inhalten, die dem Leistungsschutz unterliegen. Für den Inhalt meines Kommentars bin ich trotz Prüfung und Freischaltung durch PROJECT CONSLT ausschließlich selbst verantwortlich. Meine Rechte am Beitrag werden bei PROJECT CONSULT nur durch die CC Creative Commons Vorgaben gewahrt. Für die Verfolgung mißbräuchlicher Nutzung meiner Beiträge durch Dritte bin ich selbst verantwortlich.