Seit 150 Jahren modert in den Bibliotheken das "langsame Feuer": Bücher werden durch Säuren zersetzt. Mit neuen Verfahren zur Massenentsäuerung lässt sich der Zerfall stoppen. Das ist jedoch nur eine Notmassnahme. Als recht zuverlässig hat sich mittlerweile das Mikroverfilmen von Büchern erwiesen. Bei den elektronischen Datenträgern indes fehlt noch die Langzeiterfahrung bezüglich Dauerhaftigkeit. Entscheidender als die physikalische Lebensdauer ist bei diesen Datenträgern der Umstand, dass Geräte und Software sehr schnell veralten.
Aufmerksame Bibliothekare und Buchbenutzer hatten es schon lange geahnt, aber erst der Alarm aus den USA vor gut zehn Jahren machte es deutlich: Der Grossteil des in den Bibliotheken und Archiven weltweit gespeicherten geistigen Kulturgutes ist in seiner Existenz bedroht und wird innert weniger Jahrzehnte unrettbar verloren sein, falls nicht unverzüglich Rettungsmassnahmen ergriffen werden. Betroffen sind praktisch sämtliche ab etwa 1850 erschienenen Bücher und Druckschriften. In jenem Jahr hatte die Papierindustrie den Holzschliff entdeckt, das Verwenden stark zerkleinerter Holzmasse als Ersatz für den traditionellen, aus alten Lumpen gewonnenen Papierrohstoff. Damit konnte die enorm steigende Nachfrage problemlos befriedigt werden. Dass nun aber im Papier eine Zeitbombe tickte, merkte man erst viele Jahrzehnte später.
Das im Holz enthaltene Lignin bewirkt ein mehr oder weniger rasches Vergilben und produziert infolge oxidativen Abbaus im Papier organische Säuren, welche die Zellulosefasern sukzessive zersetzen und so das Papier brüchiger und brüchiger werden lassen. Schliesslich fällt das Papier förmlich auseinander - der Bibliothekar hat ein bejammernswertes "Bröselbuch" vor sich. Die Sache ist um so schlimmer, als man bereits Anfang des 19. Jahrhunderts mit der "Leimung" erstmals Säure ins Papier brachte (durch Beigabe von Harz und dem sauren Salz Aluminiumsulfat wurde die Oberfläche des maschinell hergestellten Papiers weniger saugkräftig und damit besser bedruckbar gemacht).
Seit anderthalb Jahrhunderten modert nun in den Bibliotheken das "langsame Feuer". Was diese kumulierte Säureattacke bisher anrichtete, zeigen einige Zahlen. Von den 300 Millionen Büchern in den Bibliotheken Nordamerikas sind ein Viertel bereits brüchig. Eine Untersuchung in Deutschlands Bibliotheken ergab einen ähnlich hohen Prozentsatz: 60 Millionen Bücher sind derart fragil, dass sie der Benutzung entzogen werden müssen. In den Schweizer Bibliotheken sieht die Sache nicht besser aus: Von den 20 Millionen Büchern aus den kritischen Jahren nach 1850 ist ein Fünftel bis ein Viertel bereits geschädigt. Die Diagnose ist rasch und einfach: Man knickt eine Blattecke mehrmals an der gleichen Stelle. Wenn das Papier schon nach zwei-, dreimaligem Falten bricht, ist das Buch "brüchig".
Die USA haben nicht nur als erstes Land das Büchersterben ernst genommen, sondern auch umgehend mit Sanierungsmassnahmen begonnen. Besonders engagiert sind die wissenschaftlichen Universitätsbibliotheken, denn ihre gespeicherten Informationen stammen naturgemäss vorwiegend aus der kritischen Zeit nach 1850. So hat eine Umfrage ergeben, dass in den USA 80 Prozent der Forschungsliteratur auf saurem Papier gedruckt ist und 30 Prozent dieser Bücher bereits derart brüchig sind, dass sie nicht mehr saniert werden können. Will man dieses gespeicherte Wissen retten, bleibt nur ein Übertragen auf ein beständigeres Medium.
Im Rahmen der amerikanischen "Commission on Preservation and Access", eine von den nationalen und privaten Bibliotheken und Archiven gegründete Hilfsorganisation, identifizierte man in den verschiedenen Forschungsbibliotheken, welcher Teil der beschädigten Bücher "einzigartig", also nicht lediglich Mehrfachexemplar des gleichen Werkes ist. Von den so etwa zehn Millionen Büchern wählte man die drei Millionen "wichtigsten" aus, die man jetzt in einem landesweiten Rettungsprogramm im Laufe von zwanzig Jahren auf Mikrofilm überträgt. Das Beschränken der Rettungsaktion auf einen Teil des Bestandes - und damit der Entscheid, einen Teil des gesammelten Wissens dem Vergessen auszuliefern - war allein schon aus finanziellen Gründen nötig, denn Mikroverfilmen kostet pro Buch zwischen 50 und 100 Dollar. Dass solches Selektionieren indes qualvoll und gezwungenermassen teilweise willkürlich sein muss, zeigten mittlerweile auch die Erfahrungen in anderen Ländern. Lassen sich in den technischen Wissenschaften allenfalls noch inhaltliche Prioritäten setzen, wird ein Bewerten und Gewichten in den Geisteswissenschaften bald einmal ausgesprochen subjektiv. Und selbst in den Naturwissenschaften kann morgen wertvolles Wissen sein, was heute noch als marginal oder überholt erscheinen mag.
Es ist nicht ohne Ironie, dass wir nun - trotz fast unbeschränkten Informationsmöglichkeiten - hilflos zusehen müssen, wie der Zahn der Zeit uns wertvolle Informationen wegfrisst. Dies passiert der Menschheit allerdings nicht zum ersten Mal. Im vierten Jahrhundert nach Christus mussten die Gelehrten mit ansehen, wie die gesamte klassische Literatur der Griechen und Römer in Auflösung begriffen war, weil die überlieferten Papyrusrollen unaufhaltsam zerfielen. In einer für die damaligen Verhältnisse schier unglaublichen Rettungsaktion liessen der römische Kaiser Konstantin der Grosse und sein Sohn 100000 klassische Werke auf das viel haltbarere Pergament kopieren und machten so das Wissen des Altertums in der kaiserlichen Bibliothek in Konstantinopel der Gelehrtenwelt wieder zugänglich. Und schon damals bestand die Notwendigkeit, aus einer umfangreichen Literatur das Wesentlichste auszuwählen. Themistios, griechischer Philosoph und Leiter des Kalligraphenteams, entschied sich für die Werke von Homer und anderer grosser Autoren und wollte das Schriftgut der "barbarischen" Römer gänzlich ignorieren. Es brauchte die Intervention des Kaisers, damit wenigstens die prominentesten lateinischen Werke ebenfalls kopiert und damit für die Nachwelt gerettet wurden.
Sind Bücher durch die Säure noch nicht stark geschädigt, lässt sich durch eine Entsäuerung das Papier alkalisch machen und damit die Lebensdauer des Werkes schätzungsweise auf mehrere hundert Jahre verlängern. Dies ist insbesondere dort sinnvoll, wo bibliographisch wertvolle Exemplare erhalten werden sollen oder Dokumente im Original archiviert werden müssen. So ist das Schweizerische Bundesarchiv verpflichtet, sämtliche Bundesverwaltungsakten seit der Gründung unseres Bundesstaates im Jahre 1848 in der Originalform aufzubewahren, was sich mittlerweile auf den Regalen zu 25 Laufkilometern zusammengeläppert hat. Durch Baden in künstlich gehärtetem Wasser lässt sich im Papier die Säure neutralisieren und eine schützende Kalkreserve deponieren. Weil dabei aber das Papier temporär quillt, ist die Behandlung nur blattweise möglich - das Buch muss auseinandergenommen und nachher neu gebunden werden. Es ist offensichtlich, dass für ein Sanieren der Millionen von Buchpatienten nur Verfahren in Frage kommen, die chargenweise ganze Stapel von Büchern in gebundener Form behandeln können.
An solchen Verfahren zur Massenentsäuerung wird seit Jahren intensiv gearbeitet. Versuchsanlagen in den USA, in Kanada und Frankreich haben bisher allerdings nicht überzeugt. Jetzt scheint Battelle in Frankfurt der Durchbruch gelungen. Für die Deutsche Bibliothek entwickelt und 1994 im neugegründeten Zentrum für Bucherhaltung in Leipzig installiert, entsäuert die Grossanlage 200000 Bücher pro Jahr und soll demnächst auf die doppelte Kapazität ausgebaut werden. Dabei werden Chargen zu 50 Büchern in einer Vakuumkammer behandelt. Erst wird die Luft aus den Poren des Papiers gesogen und das Material mit Hilfe von Mikrowellen vollständig getrocknet. Magnesium-Titan-Ethylat als Neutralisierchemikalie und leichtflüchtiges Silicon-Öl als Lösungsmittel entsäuern und stabilisieren dann das Papier. Der ganze Prozess dauert drei Stunden. Die Kosten sind mit 18 Mark pro Buch aber erheblich.
In der Schweiz evaluieren das Bundesarchiv und die Landesbibliothek seit Jahren die verschiedenen Entsäuerungsmöglichkeiten. Man hat sich jetzt ebenfalls für das Battelle-Verfahren entschieden, wobei die speziellen Schweizer Bedürfnisse eine modifizierte Lösung nötig machen. So darf bei der Behandlung die Stempelfarbe und die Tinte in den Dokumenten des Bundesarchivs keinen Schaden nehmen oder verursachen. Auch schliessen die Klammern und andere Metallteile in den Dokumenten die Verwendung von Mikrowellen beim Trocknungsprozess aus. Bern hofft, bereits ab 1997 die entsprechende Anlage betreiben zu können, wobei als Standort die Pulverfabrik Wimmis oder die Papierfabrik Landquart zur Diskussion stehen. Ungewiss ist allerdings noch die finanzielle Seite, denn mit den budgetierten zwei Millionen Franken pro Jahr lassen sich die für einen Zeitraum von zehn Jahren projektierten drei Millionen Kilogramm Dokumente und Bücher wohl kaum sanieren.
So wichtig Massenentsäuerung als Notmassnahme ist, langfristig drängen sich für die Bibliotheken doch dauerhaftere und praktikablere Strategien auf. Als sehr zuverlässig hat sich das Mikroverfilmen erwiesen. Die Haltbarkeit von gutem Filmmaterial wird auf 500 Jahre geschätzt. Auch beanspruchen Mikrofilme im Archiv viel weniger Platz als Bücher. Noch platzsparender sind Mikrofichen: auf postkartengrossen Filmfolien werden jeweils etwa 100 Buchseiten abgebildet. Solche Mikroformen lassen sich relativ kostengünstig kopieren, was jetzt zur internationalen Kooperation und zum Austausch verfilmter Werke unter den Bibliotheken führt. Die Schweiz ist beispielsweise dem "European Register of Microform Masters" angeschlossen und kommt so kostengünstig zu anderenorts bereits mikroverfilmten Publikationen. Wie wichtig Mikroformen geworden sind, zeigt auch die Tatsache, dass sie bereits einen Drittel der insgesamt sechs Millionen Dokumente der ETH-Bibliothek ausmachen.
So sinnvoll Mikroformen für das Archivieren und Bewahren von Information sind, für den Benutzer sind sie äusserst unbequem. Dies merkt vor allem, wer in Dokumenten nach Relevantem stöbern und sich rasch an einer grösseren Auswahl von Quellen einen Überblick verschaffen will. Hier ist nach wie vor das gedruckte Buch am benutzerfreundlichsten. Bibliothekare sind sich deshalb weitherum einig, dass das herkömmliche Buch seinen Platz behaupten wird. Um sich um die künftigen Bücher keine Sorgen machen zu müssen, haben die grossen Bibliotheken und Archive die Papierfabriken zur Produktion von säurefreiem Papier gedrängt. Dies kann sogar ohne Mehrkosten hergestellt werden. In den USA wie in der Schweiz regelt heute der Staat per Gesetz das Verwenden von alterungsbeständigem Papier für amtliche Publikationen. Und die amerikanischen Universitätsverlage veröffentlichen nur noch auf säurefreiem Papier. In den Schweizer Bibliotheken besteht mittlerweile knapp die Hälfte der Neueingänge aus Büchern mit alterungsbeständigem Papier.
Es stellt sich heute die Frage, ob man für das Verteilen von Informationen nicht auf Papier oder Mikrofilm verzichten und die Informationen in digitaler Form elektronisch speichern sollte. In der Tat wird dies vielerorts bereits in grossem Umfang praktiziert. So läuft an der amerikanischen Cornell University seit 1990 ein Projekt, tausend brüchige Bücher zu scannen und als digitale Bilder zu speichern. An Bildschirmplätzen kann der Bibliotheksbenützer die Dokumente durchsehen und bei Bedarf einzelne Seiten als Faksimile ausdrucken lassen. Die digitalisierten Buchseiten will man auch über Datennetze einem auswärtigen Benutzer zugänglich machen. An der Yale University ist sogar die Digitalisierung von 10000 Büchern im Gange, wobei hier als Sicherheitskopie erst ein Mikrofilm und erst von diesem die digitalisierten Versionen produziert werden. Und auch die französische Nationalbibliothek wie auch deutsche Bibliotheken transferieren gedruckte Informationen in digitale Formen.
Die Zukunftvision ist eine globale "virtuelle Bibliothek", ein weltweiter Verbund der wichtigsten Bibliotheken, die dank Internet und weiterer Datennetze miteinander kommunizieren können. Ein bestimmtes Buch müsste nur noch an einem Ort in digitaler Form gespeichert sein. Der Datenverbund würde dem einzelnen Benützer in sehr viel kürzerer Zeit ein enorm grösseres Literaturangebot zugänglich machen als die herkömmlichen Bibliotheksstrukturen. Um die Literatur optimal nutzen zu können (im Volltext nach bestimmten Stichworten suchen oder spezifische Querverbindungen erstellen), müsste allerdings von den digitalisierten Buchseiten erst mit einem Zeichenerkennungsprogramm eine alphanumerische Version (also ein Speichern des Inhaltes wie bei einem Textprogramm im PC) erstellt werden. Auf das Speichern der digitalisierten Vollversion kann indes nicht verzichtet werden, denn nur so sind auch Illustrationen und Handgeschriebenes speicherbar.
Und wie steht es mit der Dauerhaftigkeit der elektronischen Träger? Obschon die Langzeiterfahrungen noch ungenügend sind, kann für die CD-ROM (sie speichert Informationen ähnlich wie eine Musik-CD) eine Lebensdauer von vielleicht dreissig Jahren angenommen werden. Die moderne Bildplatte WORM (Write Once Read Many) - hier wird die digitale Information per Laser in eine Metallschicht gebrannt und diese dann mit Kunststoff oder Glas versiegelt, wobei auf einer 30 cm grossen Platte gegen 200 Bücher in Bildform Platz haben - dürfte ein Jahrhundert lang leben. Magnetische Speicher, von der Floppy disk bis zum DAT (Digital Audio Tape) oder den Magnetbändern und Festplatten der Computer, können Teile ihrer Informationen aber schon innert weniger Jahre verlieren.
Entscheidend bei den elektronischen Datenträgern ist jedoch nicht ihre physikalische Lebensdauer, sondern der Umstand, dass Abspielgeräte wie Software in rascher Folge veralten. So sind die Lochkarten der frühen Computer zwar noch tadellos erhalten. Ihre Informationen sind trotzdem verloren, denn weder die Lesegeräte noch die entsprechenden Programme sind heute verfügbar. Die Probleme beginnen schon bei nur wenige Jahre alten Produkten, etwa der 5,25-Zoll-Diskette. Will man elektronische Informationen also nicht nur kurzfristig nutzen, sondern auch der Nachwelt erhalten, ist man gezwungen, die Datensätze alle paar Jahre auf den modernsten Gerätetyp zu überspielen. Dabei kann man nur hoffen, dass für dieses Übertragen wenigstens die Software noch kompatibel ist. Wie rasch hier die Falle zuklappen kann, mussten 1970 die amerikanischen Archivisten erfahren, als sie merkten, dass für das Lesen der Daten der Volkszählung von 1960 weltweit nur noch zwei Computer existierten. In der Folge musste ein Teil der nur zehn Jahre alten Daten geopfert werden, während etwa die Daten der Volkszählung von 1860 nach wie vor vollständig zugänglich sind.
Tröstlich bei dieser Sisyphusarbeit des digitalen Updatings: Die Speicher werden laufend kompakter und die Kosten pro gespeichertes Buch kleiner. Die meisten Bibliothekfachleute sind sich jedoch einig, dass man das Bewahren des Wissensschatzes keinesfalls der launischen Elektronikbranche überlassen darf. Und schon gar nicht so unbeständigen Gesellen wie den internationalen Datenbanken oder dem digitalen Hans-Dampf-in-allen-Gassen "Internet". Denn hier zählt nur das Letzte und Neueste, und von einem Tag auf den andern ist gelöscht, was vielleicht noch interessiert hätte.
Es wird sich langfristig wohl eine Doppelstrategie etablieren. Bibliotheken und Archive bewahren (international koordiniert) von den Büchern und Dokumenten an gesichertem Ort entweder das Original in Papierform oder eine qualitativ hochstehende Mikroverfilmung. Daraus werden selektiv für den laufenden Gebrauch Papierfaksimiles, Mikrofilmkopien sowie digitale Formen hergestellt und letztere über Datennetze weltweit zugänglich gemacht. So kann inbesondere der Wissenschafter rasch und bequem das Nötige erfahren - und der auf das unverfälschte Original angewiesene Gelehrte hat immer noch die Möglichkeit, in den Schatzkammern der Bibliotheken genüsslich die alten Seiten zu blättern.
von Herbert Cerutti
Dr. Herbert Cerutti ist Wissenschaftsredaktor bei der "Neuen Zürcher Zeitung".