Schattenblick →INFOPOOL →BUCH → SACHBUCH

REZENSION/084: K. Balzer, W. Enke, W. Wehry - Wettervorhersage (SB)


K. Balzer, W. Enke, W. Wehry


Wettervorhersage



Das im November 1998 im Springer-Verlag erschienene Sachbuch zum Thema Wettervorhersage präsentiert den aktuellsten Kenntnisstand in der Wetter- und Klimaprognose. Einen Schwerpunkt legen die Autoren dabei auf die Probleme der zunehmenden Technisierung in diesem Bereich:

Zur Beobachtung der Atmosphäre hat die Weltorganisation für Meteorologie (WMO) ein weltumspannendes Netz von Satellitenverbindungen, Wetterstationen und Radarnetzen aufgebaut. Alle Meßdaten werden nach einem internationalen Code verschlüsselt und über ein Datenleitungsnetz an Rechenzentren in der ganzen Welt übermittelt. Modernste Computer und ständig verbesserte physikalische Modelle simulieren dann die Wetterabläufe mit dem Ziel größerer Detailgenauigkeit und längerfristiger Vorhersage bis hin zur wahrscheinlichen Entwicklung unseres Klimasystems.

Aber trotz immer besserer Prognosemodelle bedarf es für die Wettervorhersage der Interpretation durch Meteorologen, denn die Rechenmodelle können die Vorgänge in der Atmosphäre nur unvollständig beschreiben. Die Erfahrung des Meteorologen ist bei der Erstellung der Vorhersage noch von großer Bedeutung, er entscheidet, wo das Modell möglicherweise fehlerhafte Resultate produziert hat. Die Sicherheit für seine Entscheidungen entwickelt er erst durch langjähriges Arbeiten mit diesem Modell.

"Ein Wetterberater muß immer direkt "am Wetter" sein. Er darf nicht nur die durch das Monitoring bereitgestellten Daten berücksichtigen, er muß auch aus dem Fenster schauen, um die allerneuesten Entwicklungen selbst beurteilen zu können." (S. 28)

In der Meteorologie-Forschung werden Klimaprognosen zunehmend sorgfältiger ausgearbeitet. In einem kurzen letzten Teil dieses Wetter-Sachbuchs widmen sich die Autoren neben der Darstellung der Komponenten unseres Klimasystems den verschiedenen Eiszeittheorien und befassen sich mit den Folgen einer möglichen Klimaänderung. Unterschiedliche Modelle und kontroverse Thesen werden kritisch diskutiert.

Im folgenden wird allerdings im wesentlichen auf die Teile des Buchs eingegangen, die sich mit der Vorhersage befassen.


Das Autorenteam besteht aus namhaften, in Theorie und Praxis erfahrenen Meteorologen:

* Konrad Balzer, Jahrgang 1936 (Dresden), in Praxis und Forschung des Meteorologischen Dienstes in Potsdam tätig; spezialisiert auf Verbesserung und Automatisierung der praktisch verwertbaren Wettervorhersage und deren ständige Gütekontrolle.

* Wolfgang Enke, Jahrgang 1945, Mitarbeiter der Forschungsabteilung des Meteorologischen Dienstes in Berlin und Potsdam im Bereich der statistischen Wettervorhersage. Ab 1993 freiberufliche Auftragsforschung zu Klima- und Umweltthemen.

* Werner Wehry, Jahrgang 1939, bis 1993 im Wettervorhersage-Schichtdienst des FU- Instituts für Meteorologie für den Bereich Berlin. Seit 1970 Vorlesungen in Berlin über Wetterprognose-Methoden, 1986 Ernennung zum Honorarprofessor für Flugmeteorologie am Institut für Luft- und Raumfahrt der TU Berlin. Forschungsschwerpunkt im Bereich Wettervorhersage und Öffentlichkeitsinformation.


Die Wettervorhersage beruht im wesentlichen auf zwei wissenschaftlichen Prinzipien, zum einen dem der Beobachtung und Datensammlung und zum anderen der Datenauswertung zwecks Hochrechnung anhand mathematischer Modelle. Um die Probleme mit der Wettervorhersage darstellen zu können, die teilweise auch in diesem Buch angesprochen werden, folgt eine sehr verkürzte und vereinfachte Wiedergabe der Teile des Buches, die die Datensammlung und ihre Auswertungsmethode betreffen.

Zusammengefaßt geht es mit Hilfe der verschiedenen wissenschaftlichen Untersuchungen immer wieder um die Beantwortung einer einzigen Frage: Warum liegen die Meteorologen trotz immer besserer Prognosemodelle so oft daneben? Warum sind die Wettervorhersagen zwar schon präziser, aber nicht optimal?

Hinter dem oft nur zweiminütigen Wetterbericht in den Medien steht ein immenser technischer Aufwand zur Beobachtung des Wetters:

Über 10.000 feste Bodenbeobachtungs-Stationen, 7000 Stationen auf Schiffen und Bohrinseln und auf den Meeren schwimmende automatische Wetterbojen messen stündlich Luftdruck, Temperatur, Windstärke und Regenmenge, zur besseren Vergleichbarkeit überall zur selben Uhrzeit. Zusätzlich steigen zweimal täglich an etwa 800 Orten der Erde Wetterballons auf, um die vertikale Änderung der Wetterparameter bis in 30 Kilometer Höhe zu messen. Dazu kommen mehrere tausend Verkehrsflugzeuge, die weitere Daten aus der Atmosphäre liefern. Radarantennen spüren im Umkreis von etwa 100 Kilometern jede Regenwolke auf und messen die Intensität des Niederschlags. Blitzortungsgeräte registrieren die Orte von Blitzeinschlägen auf 100 Meter genau. Und nicht zu vergessen: Fünf geostationäre Wettersatelliten stehen in rund 36.000 Kilometer Höhe über dem Äquator, die rund um die Uhr die Entstehung und Bewegung der Wolken verfolgen und alle 30 Minuten ein aktuelles Wetterbild von Europa, Afrika und dem Atlantik zur Erde funken (Meteosat). Vier weitere Satelliten umkreisen auf polaren Bahnen alle zwei Stunden die Erde. Sie liefern besonders detaillierte Aufnahmen von Wolken und Nebelfeldern und messen die Temperaturverteilung in der Atmosphäre.

Bevor ein Wetterdienst nun mit der Vorhersage beginnen kann, müssen alle eintreffenden Daten entschlüsselt werden. Diese sogenannten "Rohdaten" sind räumlich sehr unregelmäßig verteilt und müssen deshalb mit Hilfe der numerischen Wetteranalyse zuerst an ein regelmäßig angeordnetes Gitter angepaßt werden, das aus Hunderttausenden fiktiver Punkte besteht, die in zahlreichen Höhenschichten übereinanderliegen. Durch numerisches Lösen mehrerer miteinander gekoppelter mathematischer Gleichungen berechnet der Wettercomputer nun die voraussichtliche Änderung der Verteilung von Druck, Temperatur oder Feuchtigkeit. Je enger das Modellgitter geknüpft ist (insgesamt 356.430 Gitterpunkte für Deutschland), desto kleinräumigere Details lassen sich vorhersagen. Lückenlos kann man den aktuellen Wetterzustand aber auch mit dem besten Computer nicht erfassen, da die Datenmengen zu groß würden. Und je enger das Modellgitter ist, um so kürzer ist der Vorhersagezeitraum, den der Rechner bewältigen kann. Beim Deutschen Wetterdienst arbeitet man mit drei Modellen:

a. Das globale Modell spannt ein Gitter von 200 Kilometer Maschenweite über den gesamten Globus. Es ermöglicht Vorhersagen bis zu sieben Tage im voraus. b. Das Europamodell verwendet 55 Kilometer Maschenweite und erfaßt Europa, den Mittelmeerraum, Nordafrika und den Nordatlantik. Es liefert Vorhersagen für drei Tage. c. Das Deutschlandmodell beschränkt sich auf Deutschland und die Nachbarländer. Seine horizontale Maschenweite entspricht etwa 14 km, und die 30 übereinanderliegenden Rechenflächen haben einen vertikalen Abstand von einigen hundert Metern. Die Vorhersagen reichen bis zu 48 Stunden in die Zukunft.

Entsprechend fehlerhaft fallen die Prognosen aus. Während die Vorhersage für den nächsten Tag noch mit über 90 Prozent eintrifft, sinkt die Verläßlichkeit nach fünf Tagen auf 65 Prozent. Die Autoren vertreten den Standpunkt, daß die Wettervorhersagen ernster genommen und besser eingeschätzt werden könnten, wenn ein offenerer Umgang mit Fehlern und die Information über Schwierigkeiten gewährleistet wären.

Dieses Buch schildert verständlich und präzise die Grenze der bisherigen Herangehensweise:

Das gegenwärtige Wissen über die begrenzte Vorhersagbarkeit des Wetters enthält neben zeitbedingten und daher künftig noch veränderbaren Komponenten auch prinzipielle, unüberwindbare Hemmnisse. Letztere sind vor allem der turbulenten (instabilen, nichtlinearen) Natur atmosphärischer Prozesse zuzuschreiben. Es wird immer eine Grenze geben, wo nicht mehr jedes Detail beliebig weit im voraus bestimmt werden kann. (S. 76)
Solange einzelne Forschungsrichtungen des riesigen, komplexen Systems der Wettervorhersage sich unterschiedlich schnell entwickeln, so daß andere - und wenn es nur eine ist - zurückbleiben, wird sich der Gesamterfolg wohl nicht wie gewünscht einstellen. Immer feinerskalige Modelle, die auf immer schnelleren und größeren Computern rechnen, benötigen zeitlich und räumlich feinerskalige Anfangswerte. Diese erkennbare Modellentwicklung erfordert daher eine unerhörte Steigerung der Qualität und Quantität meteorologischer Beobachtungsdaten - die Herausforderung an künftige Beobachtungssysteme und Datenassimilationstechniken. (S. 123)

Aber es gibt auch noch andere Grenzen als die des unberechenbaren Zufalls in der Natur oder der lückenhaften und fehlerhaften Beobachtung und Technik:

"Nicht genug damit, daß es ganz normale, meßtechnisch begründete Beobachtungsfehler oder Fehler bei der Kodierung, Übermittlung, Dekodierung usw. gibt, plagen die Meteorologen zusätzliche Fehler ganz anderer, prinzipiellerer Art. Zu verschmerzen ist wohl gerade noch, daß die Luft eigentlich nicht - wie in der Gasgleichung - als ideales Gas behandelt werden darf, da sie u.a. Wasserdampf enthält, der in allen 3 Aggregatzuständen auftreten kann, also auch in fester und flüssiger Form. Gravierender ist die mit ziemlich großen Fehlern behaftete Kenntnis über Niederschlag und Verdunstung an der Erdoberfläche. Aus der Atmosphäre liegen überhaupt keine direkten Meßdaten vor. Es wird jedoch viel unternommen, um das Niederschlagswasser wenigstens indirekt mittels Wettersatelliten zu bestimmen. Eine echte Schwierigkeit bei der Festlegung des Anfangszustandes ergibt sich jedoch bei der vertikalen Windkomponente. [...] Auch andere wichtige Zustandsgrößen können überhaupt noch nicht gemessen werden, wenn man an die notwendige weltweite Routine im real-time-(Echtzeitdatenverarbeitungs-)Regime denkt. Luftelektrische und -chemische Angaben gehören z.B. hierher. Eine ganz andere Fehlerquelle [...] liegt in der Unsicherheit von Beobachtungen hinsichtlich ihrer Raum- zeitlichen Repräsentativität. [...] Es wird klar, daß es immer Unsicherheiten in der momentanen "wahren" Kenntnis der Atmosphäre geben wird. Diese Unsicherheit ist unabwendbar, auch wenn sie noch durch bessere Meßtechnik vermindert werden kann."

Zusammenfassend kann man sagen, daß die weitreichenden Probleme, unbekannte Faktoren berechenbar machen zu müssen, nur die Spitze des Eisbergs unlösbarer Widersprüche sind, mit denen sich Meteorologen arrangieren.

Die Gittermethode oder numerische Methode der Vorhersage ist ohne leistungsfähige Großrechner nicht anwendbar. Um mit dem Dilemma der Fehlprognosen fertig zu werden und in der Hoffnung, die Ergebnisse präzisieren zu können, fordern die Forscher leistungsfähigere Arbeitsgrundlagen, d.h. ein dichteres Datennetz, schnellere Computer, überarbeitete Programme und Rechenmodelle, kurz: mehr Quantität und Qualität. Es stellt sich allerdings die Frage, ob in ihren Lösungsversuchen und Korrekturvorschlägen nicht ein logischer Bruch enthalten ist. Abgesehen von den nicht in Zahlen umsetzbaren atmosphärischen Entwicklungen, die eine andere wissenschaftliche Herangehensweise nahezu einfordern als das Kategorisieren und Systematisieren, das kein Weiterkommen gewährleistet, liegt ein weiteres Problem in der Hochrechnung bekannter Daten auf zukünftige Wetterereignisse. An einem Beispiel einmal stark vereinfacht bedeutet dies: Am 22.2.99 um 7.15 Uhr wird irgendwo in Norddeutschland eine Bodentemperatur von zwei Grad gemessen. Daraus schließt dann ein kompliziertes Rechenverfahren (das lange nicht alle Umstände miteinbeziehen kann), daß am 24.2.99 fünf Grad an derselben Stelle zur selben Zeit herrschen werden. Äußerst umständlich, aufwendig, distanziert, dem Wetter und dem Menschen entfremdet und auf der Basis vergangener Ereignisse, die mit der Zukunft nichts zu tun haben müssen, zieht man keinen anderen Schluß als diesen: Heute haben wir 2 Grad, also haben wir morgen 5 Grad? Kein Wunder, daß sich das Wetter nicht an die Vorhersage hält!

Und noch weitere Probleme kann man zwischen den Zeilen lesen: Ein Meteorologe befindet sich ständig im Kreuzfeuer der verschiedensten wirtschaftlichen Interessengruppen. Es allen recht zu machen, ist beinahe unmöglich, woran die Autoren mehrfach erinnern. Meteorologen sollen u.a. durch ihre Arbeit Leben retten und Schäden vermeiden helfen und dürfen sich nicht beeinflussen lassen. Daß es auch in diesem Buch bei den Rechtfertigungen für Fehlvorhersagen nicht zuletzt darum geht, die Unentbehrlichkeit und Wichtigkeit des Berufsstandes zu betonen, ist bei dem unbestrittenen Fachwissen der Autoren eher überflüssig und störend.


Gerade aufgrund der Offenlegung von Fehlern und Grenzen der Vorhersage ist das Buch zu empfehlen. Darüber hinaus ist es für den Laien verständlich, wird durch den Zusatz von Tabellen und Bildern anschaulich, und der Leser erfährt auch einiges zur Geschichte der Wettervorhersage. Auf jeden Fall regt es zu weiterer Beschäftigung mit der Materie an. Man kann mehr über Wetterprognosen und ihre Herkunft erfahren als der immer wieder neu vermarktete Hundertjährige Kalender oder Bauernregeln bieten können und lernt, die Sprache der Vorhersagen in den Medien genauer zu deuten. Vielleicht stellen sich auch weiterreichende Fragen, denn physikalische Begriffe wie Druck, Temperatur, Masse, Geschwindigkeit, Dichte und Feuchtigkeit, die zu den Grundlagen für die Rechenoperationen gemacht werden, stellen sich bei näherem Hinsehen als recht ungeklärt heraus.


Konrad Balzer, Wolfgang Enke, Werner Wehry
Wettervorhersage
Mensch und Computer - Daten und Modelle
Springer-Verlag, Heidelberg 1998
208 Seiten, 92 Abb., 16 Tabellen
DM 48,-; ÖS 351,-; sFr 44,50
ISBN 3-540-64186-6