Geschichte 2070 – Another byte in the dust? (Teil 2)

Hatten wir uns im ersten Teil vor allem damit beschäftigt, wie digitale Informationen überhaupt dauerhaft und verwertbar gespeichert und weitergegeben werden können, soll es nun darum gehen, weshalb genuin digitale Quellen für die heutige und künftige Geschichtswissenschaft relevant sein können und wie sich dabei auch die methodische Herangehensweise anpassen muss.

Relevanz und Authentizität

In Hinblick auf die schier unüberschaubare Menge an digitalen Daten, die sekündlich produziert wird und deren Ausmaß in Zukunft höchstwahrscheinlich noch gewaltig zunehmen wird, stellt sich als weitere zentrale Frage die nach einer möglichen Auswahl der langfristig zu speichernden Informationen. Dies unterscheidet sich grundsätzlich zunächst nicht von der herkömmlichen Archivpraxis, bei der sich bereits ausgeklügelte Verfahren zur Bewertung der Relevanz von Archivalien herausgebildet haben. Trotzdem stellt man aber auch dabei immer wieder fest, dass die zur Beantwortung spezifischer Fragestellungen nötigen Dokumente schon lange der Kassation zum Opfer gefallen sind und keinerlei Abschriften oder Kopien mehr existieren. In der klassischen Archivstruktur ist eine Vorauswahl der aufzubewahrenden Materialien meist Kapazitätsgründen geschuldet, ein Problem, dass sich in Hinblick auf digitale Daten – wenn man die rapide technische Entwicklung von Speicherkapazität betrachtet – so vermutlich nicht mehr stellen wird. Hier fallen jedoch andere Faktoren ins Gewicht: Wie lassen sich bei einer Unzahl sich vielleicht sogar widersprechender Daten die relevanten Informationen extrahieren, wenn wirklich alles gespeichert wird und mehr oder minder gleichberechtigt nebeneinander steht? Wäre in diesem Zusammenhang eine wissenschaftliche Vorbewertung sinnvoll und nach welchen Kriterien und durch wen könnte dies geschehen?

Ein zentraler Aspekt bei der Bewertung digitaler Information ist zudem die Frage nach der Originalität der betrachteten Daten. Mit anderen Worten: Die Möglichkeiten der Fälschung und Manipulation von Digitalia sind in technischer Hinsicht fast unbegrenzt und durch klassische quellenkritische Methoden auch nur schwer aufzudecken. Allein die Frage nach der Urheberschaft digitaler Texte oder Bilder kann aufgrund der zum Teil vielfach vorhandenen verlustfreien Kopien nicht mehr eindeutig beantwortet werden. Die Option der Anonymisierung steht überdies in einem permanenten Gegensatz zu der überhand nehmenden personalisierten Verknüpfung in der digitalen Welt.

Als Beispiel dieser Ambivalenz – auch in Hinblick auf kommende Forschungsansätze – sei das so genannte webtracking genannt.[1] Dies ist bekanntlich eine vor allem von der Werbeindustrie goutierte Methode, über so genannte Cookies (also lokal gespeicherte Verknüpfungen, die einem bestimmten Nutzer zugeordnet werden können) Informationsmuster über individuelle Such- und Kommunikationsvorgänge zu erstellen, um dann darauf bezogen personalisierte Werbung anzubieten. Zwar verbessert dies sicherlich auch die Nutzerfreundlichkeit, jedoch lassen sich unter anderem durch Verknüpfung der Informationen verschiedener Geräte ohne weiteres Bewegungsprofile für aktive Netzbenutzer erstellen. Außer der wie immer grundsätzlichen Erwägung des Datenschutzes bleibt auch hier die Frage nach der Authentizität; die gesammelten Daten sind eben immer auf Geräte bezogen und nicht wirklich auf Personen, auch wenn diese im Normalfall sicherlich deckungsgleich sind. Interne und externe Manipulationsmöglichkeiten sind hierbei aber letztlich nie endgültig auszuschließen. Für künftige Geschichtsforscher könnten solche Datensammlungen jedoch eine unschätzbare Option bedeuten, sich über die konzeptionelle Entwicklung von Ideen oder die Entstehung bestimmter Gedankenstrukturen einer Person klar zu werden.

All diese Gesichtspunkte lassen digitale Quellen als zwar potentiell unglaublich aufschlussreich, praktisch jedoch mit (noch) viel zu vielen Fragezeichen versehen erscheinen. Nichtsdestotrotz ist es für die Geschichtswissenschaft aber unumgänglich, sich perspektivisch damit gründlich auseinanderzusetzen, da sich tatsächlich das Gleichgewicht zwischen klassischen und neuen Quellenarten bereits verschoben hat. Digitalia haben nicht nur an Relevanz gewonnen, sondern althergebrachte Medien zum Teil schon fast vollständig ersetzt. Private Korrespondenz in Briefform hat beispielsweise Seltenheitswert und Tagebücher werden zunehmend durch Blogs oder Online-Pinnwände (die ja sogar als persönliche Chronik tituliert werden) ersetzt. Interessanterweise zeigt sich inzwischen sogar die Tendenz, eines der ersten revolutionären „neuen“ Kommunikationsmedien nach und nach auszubooten. Anstatt den Kommunikationspartner einfach mal kurz anzurufen, wird lieber per Instant Messenger gechattet (wobei hier offenbar dann oftmals trotzdem noch telefoniert werden muss, um die im Chat aufgelaufenen Unklarheiten und Missverständnisse zu beseitigen). Vorausgesetzt, diese Chatkommunikation würde in irgendeiner Form gespeichert, wäre dies aus Historikersicht aber natürlich sogar aufschlussreicher, als die kaum mehr nachvollziehbare Kommunikation per Telefon.

Methoden und Perspektiven

Auch künftige Geschichtswissenschaftler werden höchstwahrscheinlich mit ähnlichen Erkenntnisperspektiven an historische Ereignisse herantreten, wie die heutigen. So kann man davon ausgehen, dass sowohl biographische oder personenzentrierte Forschung als auch strukturell angelegte Untersuchungsansätze vorhanden sein werden. Für beide Varianten halten die digitalen Quellen großes Potential bereit, vorausgesetzt, die Methodik wird dahingehend angepasst.

Digitale historische Arbeit ist ohne die Anwendung von Computern grundsätzlich nicht vorstellbar. Die Historikerin der Zukunft ist also ganz selbstverständlich auf die Hilfe von Rechenmaschinen angewiesen, um ihr Material zu suchen, es wieder aufrufen und lesbar zu machen (vgl. Teil 1), es zu analysieren und Querverbindungen herzustellen. Allein durch die elektronische Suche findet aber dann bereits eine Vorbewertung relevanter Quellen statt, die je nach Algorithmus der Suchfunktion eine mehr oder weniger große Verengung der Perspektive nach sich ziehen kann. Einfacher gesagt, und das ist eine Auffassung, die sich auch heutzutage bereits verbreitet beobachten lässt: Was der Computer nicht finden kann, existiert dann auch nicht. Der Rechner fungiert also quasi als pseudo-objektive, über allem stehende Bewertungsinstanz. Diese Problematik lässt sich aus genannten Gründen nicht umgehen, jedoch sollte sich der Digitalhistoriker ihrer immer bewusst bleiben.

Noch ein letzter grundlegender Gedanke: Unüberschaubare und unregelmäßig verknüpfte Datenmengen sind sicherlich das Paradebeispiel für ein hochkomplexes System. Um mit solchen Strukturen in größeren Zusammenhängen überhaupt vernünftig arbeiten zu können, muss eine (computergestützte) Komplexitätsreduktion, also eine auf konkreten und nachweisbaren Gesetzmäßigkeiten beruhende Vereinfachung bzw. Verallgemeinerung stattfinden.[2] Dies könnte durch Verknüpfung von mathematischen und geschichtswissenschaftlichen Ansätzen geschehen, was zum Beispiel im Bereich der so genannten cliodynamics (http://escholarship.org/uc/irows_cliodynamics) bereits heute praktiziert und vermutlich noch für überraschende Erkenntnisse sorgen wird. Die Anwendung von Elementen der System- oder Chaostheorie, mit Einschränkung vielleicht auch der Spieltheorie, werden in diesem Zusammenhang sicherlich für fruchtbare Anregungen sorgen.

[1] Vgl. zum Beispiel: http://irights.info/artikel/was-ist-und-wie-funktioniert-webtracking/23386

[2] Das Problem des Umgangs mit hochkomplexen Zusammenhängen in der Geschichte ist natürlich nicht neu, vgl. hierzu zum Beispiel Ludolf Herbst: Komplexität und Chaos. Grundzüge einer Theorie der Geschichte, München 2004. Auch wenn Verfahren zur Komplexitätsreduktion gerne theoretisch diskutiert und angeregt werden, stellt sich in der praktischen historischen Forschung bis dato aber eher noch das gegenteilige Problem: Unter anderem aufgrund von Überlieferungslücken lässt sich oftmals ein größerer zusammenhängender Quellenkorpus überhaupt nicht mehr rekonstruieren, das heißt, in diesen Fällen wäre also eigentlich eine Erhöhung der Komplexität das Mittel der Wahl. Ob und wie sich dies überhaupt bewerkstelligen ließe, hoffe ich bei Gelegenheit an anderer Stelle skizzieren zu können.

Werbeanzeigen

Hinterlasse einen Kommentar

Eingeordnet unter Allgemeines

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s