25.04.2024

Preußische Allgemeine Zeitung Zeitung für Deutschland · Das Ostpreußenblatt · Pommersche Zeitung

Suchen und finden
Folge 43-22 vom 28. Oktober 2022 / Forschung / Warum Computermodelle so oft danebenliegen / Rechnergestützte Prognosen vermitteln das Gefühl höchster Objektivität. In Wahrheit erweisen sie sich aber oft als Ausgangspunkt für schwere Fehlentscheidungen – Und das hat plausible Gründe

© Preußische Allgemeine Zeitung / Folge 43-22 vom 28. Oktober 2022

Forschung
Warum Computermodelle so oft danebenliegen
Rechnergestützte Prognosen vermitteln das Gefühl höchster Objektivität. In Wahrheit erweisen sie sich aber oft als Ausgangspunkt für schwere Fehlentscheidungen – Und das hat plausible Gründe
Wolfgang Kaufmann

Im Jahre 1916 versuchte der britische Meteorologe und spätere Friedensforscher Lewis Fry Richardson als Erster, die Veränderungen des Wetters innerhalb der nächsten Stunden und Tage mit mathematischen Methoden zu prognostizieren. Dabei kam er freilich zu grotesk falschen Ergebnissen. Dies erklärte Richardson mit seiner geringen eigenen Rechenleistung und schlug deshalb vor, dass 64.000 Computer – womit damals noch Menschen gemeint waren – gemeinsam das weltweite Wetter vorhersagen sollten. Knapp dreieinhalb Jahrzehnte später gab dann der mit Elektronenröhren bestückte US-amerikanische Großrechner ENIAC die erste echte computerbasierte Wetterprognose ab. Hiermit schlug die Geburtsstunde der Computermodelle und -simulationen, welche heute allerorten zum Einsatz kommen, wenn es um komplexe Vorgänge oder zukünftige Entwicklungen geht.

So basieren nicht nur die einen kurzen Zeitraum abdeckenden Wetterberichte der Meteorologen auf mathematischen Modellen, sondern auch die Warnungen von Klimaforschern vor der angeblich drohenden Erderwärmung. Ein anderes Beispiel sind die Kassandrarufe betreffs der zu erwartenden Sterblichkeit infolge der Ausbreitung des Krankheitserregers SARS-CoV-2, mit denen Datenanalysten vor allem zu Beginn der Corona-Pandemie Angst und Schrecken verbreiteten.

Wie zumindest das letztere Beispiel beweist, können die Computermodelle und -simulationen zu stark fehlerhaften Resultaten führen, auch wenn die Rechenleistung der verwendeten Apparaturen mittlerweile beeindruckend hoch ist. Und das hat mehrere Gründe. So liefern all jene Modellrechnungen, welche bereits auf Vorannahmen über künftige Entwicklungen basieren, gar keine echten Prognosen über mögliche Verläufe. Vielmehr werden konstruierte Szenarien durchgespielt, an deren Ende dann nur allzu oft das erwünschte Ergebnis steht.

Die Natur ist zu vielgestaltig

Zudem ist die Zahl der einbezogenen Faktoren fast immer zu niedrig, weil die Rechner sonst an ihre Grenzen stoßen. So sind die heutigen Klimamodelle außerstande, den Einfluss kurzfristig auftretender Phänomene wie abrupter Temperaturschwankungen durch Vulkanausbrüche oder Veränderungen der Sonnenaktivität angemessen zu berücksichtigen. Anders ausgedrückt: Die Vielgestaltigkeit der Natur, aber auch der Gesellschaft, kann mit den Mitteln der Mathematik nicht hinreichend erfasst werden. 

Die US-amerikanischen Geologen Linda Pilkey-Jarvis und Orrin Pilkey, welche sich beide mit dem Problem der Küstenerosion befassen, erklären das am Beispiel der Sandverluste an den Stränden. Diese hingen von mindestens 50 Faktoren ab, aber selbst die besten Computermodelle könnten maximal acht davon berücksichtigen.

Schließlich drohen sogar dann, wenn alle relevanten Faktoren in die Berechnung einfließen, ernsthafte Probleme. Das liegt an dem Umstand, dass die physikalischen Grundlagen vieler Prozesse nach wie vor ungeklärt oder umstritten sind. Dies gilt unter anderem für die Dynamik von Eisschilden sowie die Rolle von Wolken und Aerosolen. Weil hierzu noch entscheidende Erkenntnisse fehlen, mangelt es den bislang verwendeten Klimamodellen an Aussagekraft.

Aus den letzten beiden Gründen werden die Formeln oder Basiszahlen, die im Zuge der Computermodellierung zum Einsatz kommen, immer wieder „angepasst“, wenn die Simulation offensichtlich von der Realität abweicht. Diese „Flusskorrekturen“ öffnen natürlich Tür und Tor für Manipulationen.

Mittlerweile existieren zahlreiche Beispiele für Fehlprognosen aufgrund der Verwendung von Computermodellen und -simulationen. So wurde 1972 vorhergesagt, die Menschheit werde bis zum Jahre 2000 alle wichtigen Rohstoffe auf der Erde verbrauchen. Ein gegensätzlicher Fall ist das abrupte Ende der Fischindustrie auf Neufundland. Hier orakelten die Computer lange Zeit, es gebe genügend Kabeljaue vor der Küste, weshalb diese auch ausgiebig gefangen werden dürften – bis die Fischgründe dann plötzlich fast vollkommen leer waren.

Feigenblatt für die Politik

Angesichts dessen warnte Pilkey bereits 2007 im Interview mit dem „Stern“: „Der Glaube, Computermodelle könnten die Zukunft akkurat vorhersagen, ist gefährlich und schädigt die Gesellschaft. Die Modelle verleiten zu schlechten politischen Entscheidungen – weil sie auf einem schlechten Verständnis der Natur gründen.“ Gleichzeitig nutzen viele Politiker das, was die Rechner prognostiziert haben, als Feigenblatt, wenn es um Entscheidungen geht, welche der Bevölkerung nur schwer oder gar nicht zu vermitteln sind. Das war in Kanada so, als man die Fangmengen trotz aller Warnungen erst viel zu spät begrenzte, und das passierte auch in jüngerer Vergangenheit während der Corona-Pandemie. 

Der Ehrlichkeit halber sollten Politik und Wissenschaft aufhören, Modelle als „Black Boxes“ zu behandeln, und dazu übergehen, sämtliche Annahmen und Vereinfachungen in einem Modell klar und verständlich offenzulegen. Dann könnten auch Laien beurteilen, inwieweit die Prognosen der Rechenmaschinen etwas mit der Realität zu tun haben und inwieweit nicht. Und es würde schnell zutage treten, wann Entscheidungen, welche auf Modellrechnungen beruhen, tatsächlich wissenschaftlich fundiert und somit berechtigt sind.

Darüber hinaus empfiehlt sich die flächendeckende Anwendung der Methode des sogenannten Hindcasting. Das ist ein Rückberechnungsverfahren, bei dem die Simulation von realen Werten in der Vergangenheit ausgeht, auf deren Basis die Entwicklung bis in die Gegenwart ohne jegliche Eingriffe oder „Anpassungen“ dargestellt werden muss. Entspricht das Ergebnis dann tatsächlich den aktuellen Verhältnissen, gilt das als ein starkes Indiz für die Brauchbarkeit des Verfahrens zur Modellierung zukünftiger Abläufe. 

Allerdings bleibt hier trotzdem noch das Risiko, dass niemand genau weiß, warum das Hindcasting funktioniert hat und ob das Modell somit tatsächlich dazu taugt, auch das Kommende präzise vorherzusagen. Vorsicht ist diesbezüglich besonders dann angebracht, wenn Fehlprognosen zu fatalen wirtschaftlichen, sozialen, ökologischen oder gesundheitlichen Folgen führen könnten – also eigentlich fast immer.