Heiß diskutiert wurde in den letzten Wochen der Absturz der Germanwings-Maschine in den französischen Alpen. Besonders kontrovers war die Frage, was wir wissen können und wie wir mit dem Fehlen von Informationen umgehen. Die Ereignisse werfen neues Licht auf die Risiken von Big Data.
Die Debatte hat viele auf dem falschen Fuß erwischt. Wir sind es gewohnt, viel zu wissen. Flugdaten sind schnell verfügbar. Livecams erfassen große Bereiche der Welt. Hochtechnologische Geräte wie zum Beispiel Flugzeuge gehen routinemäßig mit riesigen Datenmengen um.
Werfen wir einen Blick auf einen anderen Absturz. Die „Ananke“ stürzte auf dem Mars ab, die Ursache blieb lange unklar. Irgendwann stellte sich heraus: Der Bordcomputer des Raumfahrzeugs forderte während der Landung so viele Informationen an und spielte so viele Szenarien durch, dass das System irgendwann überlastet war und schließlich zusammenbrach. Die „Ananke“ stürzte ab, weil sie ihren Absturz mit allen Mitteln vermeiden wollte. Obwohl gar kein konkretes Risiko bestand. Das Bedürfnis nach Daten führte dazu, dass die entscheidenden Daten nicht mehr wahrgenommen wurden. Vor lauter Daten konnte niemand mehr die richtige Entscheidung treffen.
Der Fall ist interessant, auch wenn er fiktiv ist. Er stammt aus der Feder von Stanislaw Lem. Dessen berühmtester Roman Solaris wurde mehrfach verfilmt, zuletzt von Steven Sonderbergh.
Die Erzählung „Ananke“ macht uns heute im Umfeld eines neuen Absturzes einiges deutlich: zunächst natürlich, dass Menschen ohne Informationen nicht sein können. Ohne Instrumente und Bordcomputer kann ein hochkomplexes Gerät nicht fliegen. Aber dann auch: Daten an sich lösen nicht alle Probleme. Auch Menschen lösen nicht alle Probleme, aber wer in Fragen von Leben oder Tod die letzte Steuerungsgewalt abgibt, geht größere Risiken ein, als er vermeidet. Sind die Risiken von Big Data also größer als die Risiken ohne Big Data?
Damit sind wir wieder beim Germanwings-Fall. Medien und Öffentlichkeit diskutieren erstens das psychologische Profil des Co-Piloten, der allem Anschein nach für den Absturz verantwortlich ist. Es geht zweitens um Informationen über einen Menschen. Und es geht darum, wie die Informations- und Sicherheitsarchitektur des Flugzeugs mit Informationen über die Situation an Bord umging.
Die vor dem Katastrophenflug über den Co-Piloten verfügbaren Informationen legten den Schluss nahe, dass er flugtauglich ist. Der Arbeitgeber wusste etwas über seinen Angestellten und fragte daher irgendwann nicht mehr, was er diesem Angestellten zutraute. Dieser Schritt wäre über die Daten hinausgegangen. Keine Information der Welt hätte diese Frage beantworten können. Aus dem Bedürfnis nach Objektivität heraus unterblieb die menschliche Einschätzung – die menschliche Entscheidung. Das Bedürfnis nach Objektivität hat sich als schwache Grundlage erwiesen.
Risiken von Big Data werden sichtbar
Hinsichtlich der Situation an Bord gilt dasselbe: Die Informationsarchitektur konnte nicht erkennen, dass das Flugzeug entführt wurde, weil eben der Fall, dass ein Pilot selbst zum Entführer werden kann, nicht vorgesehen war. Der ausgesperrte Pilot sah bald, was vor sich ging. Er traute dem Co-Piloten den aggressiven Selbstmord zu. Das Informationssystem an Bord war so programmiert, dass die menschliche Einschätzung sich gegen die objektiven Daten nicht durchsetzen konnte.
Daten werden zu vordefinierten Parametern gesammelt. Die Situation an Bord der Germanwings-Maschine lag außerhalb dieser Parameter (selbst wenn sie nicht einzigartig war). Auf Basis seiner Mischung von Information und Erfahrung hätte der Pilot wohl noch eingreifen können. Der Weg von der Information zur Entscheidung war aber versperrt. Der Fehler liegt im System.