DIE EWIGE AUFBEWAHRUNG DES INTERNETS

Weltweit versuchen Nationalbibliotheken und Archive, der Vergänglichkeit des Mediums Herr zu werden. TAGESSPIEGEL und ZEIT ONLINE. 23. August 2012

Ehre, wem Ehre gebührt: Wer von Internetarchivierung spricht, kommt an Brewster Kahle nicht vorbei. Schon 1996 hatte der amerikanische Informatiker die Idee eines vollständigen, globalen Internetarchivs. Seitdem gilt sein Internet Archive (www.archive.org) als erste Anlaufstelle für alle, die nach längst verschollenen Web-Welten suchen. Die Zeitreise hat allerdings ihre Haken: Inhalte, die älter als zehn Jahren sind, werden oft nicht richtig dargestellt oder bleiben unauffindbar. Von vielen Seiten existieren ohnehin nur zufällige, unregelmäßige Schnappschüsse. Auch die Suchfunktion der multimedialen Datenbank ist auch alles andere als ausgereift: Angela Merkel hat gerademal 80 Treffer.

Vielleicht ist der Anspruch des Internet Archive einfach zu hoch. In den Nationalbibliotheken, also den staatlichen Institutionen, die traditionell für die Sammlung aller Publikationen eines Landes zuständig sind, backt man jedenfalls kleinere Brötchen. „Wir konzentrieren uns im Moment auf eBooks, Online-Journale, wissenschaftliche Publikationen und digitale Ausgaben von Tageszeitungen“, erklärt Stephan Jockel, Pressesprecher der Deutschen Nationalbibliothek (DNB). Den dazugehörigen gesetzlichen Sammelauftrag hat die DNB seit 2006, seitdem sollen und müssen alle deutschsprachigen Netzpublikationen aus dem In- und Ausland archiviert werden. Eine Auswahl trifft die Bundesbehörde dabei nicht: Von der Doktorarbeit bis zum Roman aus dem Self-Publishing-Verlag gilt alles als bewahrenswert (http://d-nb.info/994853092/34).

Trotzdem ist die Beschränkung auf Formate wie EPUB oder PDF fragwürdig. Was ist mit Blogs, Foren, Nachrichtenseiten, was mit Wikipedia, Facebook oder Twitter? Die Grenzen zwischen Lesenden und Schreibenden, zwischen Sendern und Empfängern sind im Netz hinfällig geworden, letztlich ist alles eine Form der Publikation. Stephan Jockel bestreitet das gar nicht. „Der Sammelauftrag geht natürlich weiter, demnächst fangen wir deshalb auch an, Webseiten von Parteien, Bundesbehörden und gemeinnützigen Organisationen zu archivieren.“ Noch müsse man sich notgedrungen auf solche relativ statischen Inhalte beschränken. „Denn wir sollen ja nicht nur sammeln, sondern auch erschließen und zugänglich machen.“

Nur – wie soll das konkret funktionieren? Weltweit suchen Archivare nach Strategien und Richtlinien, wie sich das Internet, diese überbordende, hochdynamische Datenflut, sinnvoll sortieren, ablegen und aufbewahren lässt. Weil die Fragen drängend und die Antworten schwierig sind, hat man einen Dachverband gegründet, das International Internet Preservation Consortium (http://netpreserve.org/about/index.php). Regelmäßig treffen sich die Mitglieder auf Kongressen, vergeben Fördergelder, tauschen Erfahrungen aus.

Das ist bitter nötig, denn bislang gibt es noch keinen internationalen Standard in Sachen  Netzarchivierung. Während in Deutschland erst seit sechs Jahren massenhaft elektronische Publikationen gesammelt werden, hat in den USA die Library of Congress schon vor zwölf Jahren begonnen, thematische Sammlungen anzulegen. Mittlerweile stehen zu etlichen außen- und innenpolitischen Ereignissen, darunter die amerikanischen Präsidentschaftswahlen, die Anschläge des 11. September, der Irakkrieg und die Krise von Darfur umfassende Einzelarchive zur Verfügung (http://lcweb2.loc.gov/diglib/lcwa/html/lcwa-home.html).

In Großbritannien wiederum setzt man seit 2004 auf die kontinuierliche Speicherung einiger tausend repräsentativer Webseiten (http://www.webarchive.org.uk/ukwa/). „Bislang geschieht das manuell“, erklärt Helen Hockx-Yu, Leiterin der Abteilung Web Archiving der British Library. Das sei aber personell aufwändig und inhaltlich unzureichend. Ihr Team entwickelt deshalb gerade ein Tool, mit dem sich der Prozess in Zukunft teilautomatisieren lässt, Twittervane heißt das Programm (http://britishlibrary.typepad.co.uk/webarchive/2011/12/twittervane.html). „Damit werten wir über einen bestimmten Zeitraum die Tweets zu einem Ereignis aus, zum Beispiel zu den Olympischen Spielen.“ Das Programm ermittelt dabei die Links, auf die sich die Twitternutzer gegenseitig aufmerksam machen. „So  können wir erkennen, welche Inhalte besonders beliebt sind und die meistempfohlenen Webseiten bei unserer Archivierung berücksichtigen.“

Wie Methoden des Crowdsourcings die Arbeit der Archivare sinnvoll ergänzen können, ist nur eines von vielen Forschungsfeldern. „Die digitale Archivierung wirft kuratorische Fragen auf, aber auch juristische und technische“, so Hockx-Yu. Dazu gehört das umstrittene Thema Urheber- und Verwertungsrechte – denn die Archive müssen, um ihrem Auftrag nachzukommen, digitale Kopien erstellen und Inhalte wieder öffentlich zugänglich machen dürfen. Vor allem aber müssen sie gewährleisten, dass die kulturellen Schätze in den digitalen Archiven in Zukunft überhaupt noch lesbar sind. Auch wenn die Verfallszeiten von Dateiformaten und Endgeräten immer kürzen werden. „Wir archivieren ja nicht nur für ein paar Jahre“, sagt DNB-Sprecher Jockel. Nationalbibliotheken denken langfristiger, genauer gesagt: für die Ewigkeit.

Wie der Weg in die ewige Lesbarkeit aussehen kann, daran forscht Tabea Lurk an der Hochschule der Künste in Bern. „Grundsätzlich gibt es zwei Strategien für die digitalen Archivierung“, erklärt die Wissenschaftlerin, „die Migration und die Emulation.“ Bei der Migration werden die Daten immer wieder in neueren Versionen abgespeichert. „Das Problem ist, dass wir dabei Verluste hinnehmen müssen.“ Oft ändert sich die Darstellung oder die Navigation. Die Authentizität des Originals geht also verloren – für einen Archivar absolut inakzeptabel.

Mit gelegentlichen Aktualisierungen ist deshalb nicht getan. In den Metadaten des gesammelten Materials muss akribisch dokumentiert werden, welche Software, welches Betriebssystem, welche Hardware zur Wiederherstellung des ursprünglichen Zustands benötigt werden. Richtungsweisend für Archivare ist dabei noch immer ein informationstheoretisches Modell der NASA von 1969: das Open Archival Information System (OAIS) (http://nbn-resolving.de/urn/resolver.pl?urn=urn:nbn:de:0008-2012051101), das beschreibt, wie digitale Langzeitarchivierung systemisch angelegt sein muss.

„Bei komplexen digitalen Objekten setzen wir auf Emulation“, sagt Lurk, deren Hochschule ab 2013 einen Aufbaustudiengang für Restauratoren, Kuratoren und Künstler anbietet. Bei der Emulation wird die historische Abspielumgebung an neueren Geräten simuliert – ein kompliziertes Verfahren, zu dem auch Archive und Museen zukünftig in der Lage sein müssen. In Bern kooperiert man deshalb eng mit den Kollegen aus der Informatik. „Und natürlich mit der Spiele-Community“, sagt Lurk, „die ist da schon sehr weit.“

Dass noch viele solcher interdisziplinärer Projekte nötig sind, davon ist auch Helen Hockx-Yu überzeugt: „Das Netz beinhaltet so viele Informationen, dass es die Ressourcen einer einzigen Institution weit übersteigt, das alles zu archivieren.“ Es bedürfe einer gemeinsamen kulturellen Anstrengung, auch Unternehmen, Organisationen oder Privatpersonen müssten für die Sicherung des digitalen Erbes Verantwortung übernehmen. „Wir können den Job nicht alleine machen.“

Comments are closed.