NEWS 23

🔒
❌
Stats
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.

☐ ☆ ✇ EIKE

Warum Wettervorhersage-Modelle richtig gut geworden sind – Klimavorhersage-Modelle aber nicht

veröffentlicht.
Vorschau ansehen

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Großartiges Video von Peter Ridd:

 

Hier das mit KI formatierte Transskript:

Computermodelle zur Vorhersage von Wetter und Klima ähneln sich eigentlich ziemlich stark. Sie basieren auf grundlegenden physikalischen Prinzipien – den Bewegungsgesetzen, Newton’schen Bewegungsgesetzen, Thermodynamik, Strahlungstransport – und benötigen einen sehr leistungsstarken Computer.

Und der Wettermann bekommt oft viel Kritik für Vorhersagen, die nicht immer zutreffen. Das ist meiner Meinung nach sehr unfair, denn die Modelle sind eigentlich hervorragend, und es besteht kein Zweifel daran, dass sie sich in den letzten Jahrzehnten enorm verbessert haben.

[Siehe hierzu meine Anmerkung am Ende. A. d. Übers.]

Aber Klimamodelle? Nicht so sehr.

Nun lebe ich in einer Gegend, in der wir jedes Jahr ein paar Zyklone meistern müssen, und ich finde es unglaublich, wie gut zum Beispiel der Wetterdienst die zukünftigen Zugbahnen dieser Zyklone vorhersagt. Beim tropischen Zyklon Narelle haben sie zum Beispiel hervorragende Arbeit geleistet. Sie sagten voraus, er würde über die Kap-York-Halbinsel hinweg ins Northern Territory ziehen. Und genau das ist auch passiert. Ich erinnere mich an eine Zeit, als diese Vorhersagen so gut wie nutzlos waren – wenn es einen Zyklon im Korallenmeer gab, lauteten die Vorhersagen im Grunde genommen, dass er überall hinziehen könnte.

Schauen wir uns also einmal an, warum die Wettervorhersagen in den letzten Jahrzehnten so viel besser geworden sind. Es gibt vier Gründe, und wir werden uns nur auf einen konzentrieren.

Erstens haben wir die physikalischen Vorgänge in der Atmosphäre besser im Griff. Es ist nicht viel besser, und eigentlich ist es auch keine große Sache. Der zweite Punkt ist, dass wir viel leistungsfähigere Computer haben, und das macht einen Unterschied. Der dritte Grund, und der wird jetzt langsam wichtig ist, dass wir heute riesige Datenmengen aus der jüngeren Vergangenheit haben und fortschrittliche statistische Verfahren nutzen können – KI, wenn man so will –, um die Vorhersagen zu unterstützen. Genauso wie ChatGPT auf alles trainiert wird, was jemals im Internet geschrieben worden ist, um eine Antwort auf eine Frage zu geben, die einigermaßen plausibel klingt, lässt sich das Gleiche auch beim Wetter tun. Man nutzt die Daten aus der Vergangenheit, um herauszufinden, was passieren würde, wenn die Bedingungen damals mehr oder weniger denen von heute ähnelten.

Der vierte Grund ist jedoch sehr, sehr wichtig, und darauf werden wir uns heute konzentrieren. Und es ist etwas, das nicht allgemein bekannt ist: Wir können die Atmosphäre mittlerweile viel genauer messen, manchmal sogar auf überraschende Weise.

Es hat sich herausgestellt, dass es für eine Wettervorhersage für morgen sehr hilfreich ist, wenn man – überall – genau weiß, wie das Wetter heute ist.

Um das zu verstehen, müssen wir uns nun genauer ansehen, wie Wetter- und Klimamodelle funktionieren, inwiefern sie sich ähneln und worin sie sich unterscheiden.

Die großen physikalischen Berechnungen stützen sich also auf die Gesetze der Thermodynamik – darüber, wie sich Luft ausdehnt, erwärmt, abkühlt und wie sich Wasserdampf bildet – und dafür gibt es jede Menge wirklich schöne mathematische Gleichungen. Einige sind sehr genau. Andere, etwa die zu Wolken, sind eigentlich ziemlich kompliziert – im Grunde nur fundierte Vermutungen. Dann gibt es noch die Physik der gesamten Strahlung: die einfallende Sonnenstrahlung, die Infrarotstrahlung, die vom Boden, von den Wolken und sogar von der Luft selbst ausgeht.

Diese basieren auf einem großen Modell, das Newtons Bewegungsgesetze nutzt – der gute alte Newton –, um zu berechnen, wie sich die Luft bewegt: der Wind, die vertikalen Bewegungen und was diese Luft mit sich führt – die Luftfeuchtigkeit, ihren Impuls, ihre kinetische Energie. Mit Newtons zweitem Gesetz lässt sich berechnen, wie diese Luft beschleunigt. Das ist das A in F = MA – im Grunde genommen, wie sie ihre Geschwindigkeit oder Richtung ändert.

Aber wir müssen die Masse der Luft kennen, und das ist nicht allzu schwer. Wir teilen einfach die gesamte Atmosphäre in viele kleine Abschnitte auf, die jeweils einige Kilometer breit und etwa einen Kilometer hoch sind. Dann müssen wir F kennen, also die Kraft, die auf die Luft wirkt. Viele Faktoren tragen dazu bei: der Luftdruck, die Erdrotation, die Luftdichte. Anschließend berechnen wir die Beschleunigung, also die Änderung der Geschwindigkeit oder Richtung, über einen bestimmten Zeitraum.

Wir können das mit den Berechnungen für ein beschleunigendes Auto vergleichen. Man hat einen Motor, der die Kraft erzeugt, und nehmen wir an, das Auto beschleunigt um 20 km/h pro Sekunde – oder zumindest wird es jede Sekunde um 20 km/h schneller. So können wir berechnen, wie schnell es beispielsweise in fünf Sekunden fahren wird. Fünf mal 20 ist 100 – wir werden 100 km/h schneller fahren als zu Beginn.

Aber hier ist der entscheidende Punkt: Um zu wissen, wie schnell wir in fünf Sekunden fahren werden, muss man wissen, wie schnell man zu Beginn gefahren ist. Wenn wir an der Ampel stillstanden, fahren wir in fünf Sekunden 100 km/h. Wenn wir jedoch bereits 60 km/h fuhren, als wir das Gaspedal durchdrückten, fahren wir nun 60 plus 100 – also 160 km/h – in fünf Sekunden.

Man muss die Anfangsbedingungen kennen, um herauszufinden, wie schnell man am Ende sein wird. Die Anfangsbedingung ist der Fachbegriff aus der Differentialgleichung, auf der das alles basiert, und das gilt auch für das Wetter. Man kann die Windgeschwindigkeit oder -richtung von morgen nicht berechnen, wenn man nicht weiß, wie hoch die Windgeschwindigkeit und -richtung heute sind. Und es geht nicht nur um den Wind – es geht auch um den Luftdruck und die Luftfeuchtigkeit.

Nun, beim Wetter ist es wie bei vielen anderen Systemen auch: Wenn man die Anfangsbedingungen falsch angibt, kann das Endergebnis völlig anders ausfallen, selbst wenn man sich bei der Anfangsbedingung nur um ein winziges bisschen irrt. Diese hier herumrollenden Kugeln beispielsweise starteten aus einer nur ganz leicht unterschiedlichen Position, und nach kurzer Zeit befinden sie sich an einer völlig anderen Stelle. Das ist ein klassisches Beispiel für ein zusammengesetztes Pendel – die beiden Pendel starteten an ganz leicht unterschiedlichen Positionen, aber wenn man die Zeit voranschreitet, sind sie schließlich nicht mehr annähernd an derselben Position. Und genau so ist es auch mit dem Wetter. Wenn man die Anfangsbedingungen falsch einschätzt, kann man in ein, zwei oder drei Wochen unmöglich eine genaue Wettervorhersage haben.

Wie hat sich also unsere Fähigkeit, das Wetter zu messen, so sehr verbessert?

Erstens können Satelliten zwar Wolken erkennen, aber das ist erst der Anfang. Sie können tatsächlich die von der Luft selbst ausgehende Mikrowellen- und Infrarotstrahlung überwachen und messen, um ein Profil der Lufttemperatur und der Luftfeuchtigkeit von der Obergrenze der Atmosphäre bis hinunter zur Erdoberfläche zu erstellen. Zwar wird nach wie vor das alte Verfahren angewendet, bei dem Ballons mit Feuchtigkeits- und Temperatursensoren aufsteigen gelassen werden, doch ist dies nur an wenigen Orten möglich. Wenn das Amt dies also tut, wie Sie auf dieser Karte sehen können, sind es nicht sehr viele Orte, und mitten auf dem Ozean ist dies nicht möglich.

Aber hier ist etwas, das ich sehr interessant fand – eine Messmethode, die wir tatsächlich nutzen können: das GPS-System – das gleiche, das ihr mit eurem Handy nutzt, um euren Standort zu bestimmen. Es stellt sich heraus, dass es zur Überwachung der Luftfeuchtigkeit eingesetzt werden kann. Beim GPS-System werden Signale vom Satelliten zu Bodenstationen gesendet, und anhand der Zeit, die diese Signale benötigen, wird euer Standort ermittelt. Die Laufzeit dieser Signale hängt jedoch von der Luftfeuchtigkeit ab. So lassen sich ziemlich raffinierte Berechnungen anstellen und die Atmosphäre tatsächlich mit dem GPS-Signal untersuchen.

Was Sie hier also gerade sehen, ist nichts Geringeres als eine Revolution in der Art und Weise, wie wir das Wetter messen können. Wenn man das Wetter von heute kennt, kann man viel genauer vorhersagen, wie das Wetter morgen sein wird.

Schauen wir uns nun die Klimamodelle an. In vielerlei Hinsicht ähneln sie sich, aber das Klima ist gewissermaßen ein Durchschnitt der Wetterbedingungen, und diesen Durchschnitt bilden wir oft über einen Zeitraum von beispielsweise 30 Jahren. In einem Wettermodell berechnen wir die Veränderungen des Wetters und addieren oder subtrahieren diese von den heutigen Bedingungen. Bei Klimamodellen versuchen wir, anstatt Veränderungen im Laufe der Zeit zu berechnen, die durchschnittlichen Bedingungen über einen langen Zeitraum zu ermitteln.

Und es ist tatsächlich ziemlich interessant, dass selbst hier die aktuellen Klimamodelle oft von den großen, berühmten Klimamodellen falsch vorhergesagt werden – sie weichen also um bis zu einige Grad voneinander ab. Ich habe dazu ein Video gedreht.

Nun, vielleicht spielt das keine allzu große Rolle, denn was wir wirklich wissen wollen ist, wie sich das Klima verändern wird, wenn man beispielsweise die Kohlendioxidmenge oder einen anderen Parameter verdoppelt. So führen Modellierer oft interessante Simulationen durch, bei denen sie die Sonneneinstrahlung reduzieren oder sogar die Position der Kontinente und Ozeane verändern, um vergangene Klimata zu simulieren.

Das ist also ein wichtiger Unterschied: Wettermodelle berechnen die Wetterveränderung ausgehend vom heutigen Wetter und simulieren so das Wetter für morgen. Klimamodelle gehen in der Regel von einem groben Klimazustand aus und berechnen die Klimaveränderungen, wenn wir einen wichtigen Parameter verändern, wie zum Beispiel die Kohlendioxidkonzentration.

Verdopplung der Klimamodelle – Klimamodelle benötigen keine hochgenauen Messungen des heutigen Klimas, um die Veränderungen zu berechnen, wenn man beispielsweise die Kohlendioxidkonzentration verdoppelt. Wettermodelle hingegen benötigen sehr genaue Messungen des heutigen Wetters, um das Wetter in einer Woche oder einem Tag in der Zukunft zu berechnen.

Das bedeutet also, dass die Wettermodelle massiv von all den zusätzlichen Messungen profitiert haben, die Klimamodelle jedoch nicht – die zusätzlichen Daten, die wir für das heutige Wetter haben, helfen uns nicht dabei, das Wetter in 100 Jahren zu berechnen. Klimamodelle profitieren also nicht von dieser Revolution.

Was ist also die Moral der Geschichte? Man sollte den Wettermann nicht ständig kritisieren. Er leistet tatsächlich unglaublich gute Arbeit. Und dasselbe gilt für all die Techniker, die die Satellitenüberwachungssysteme, die GPS-Systeme und die statistischen Verfahren entwickelt haben – sie haben eine Revolution ausgelöst.

Was nun die Klimamodelle angeht – nun, sind sie tatsächlich besser bei der Vorhersage als eine einfache Überschlagsrechnung? Man kann eine sehr einfache Berechnung durchführen und erhält am Ende eine Zahl, die den Ergebnissen dieser riesigen Supercomputer sehr ähnlich ist. Und sagen die Modelle wirklich eine Katastrophe voraus? Und weisen die Modelle Diskrepanzen untereinander auf – große Diskrepanzen? Und haben wir ein grundlegendes Problem, dass wir erst 2050 oder 2100 sagen können, ob sie richtig oder falsch liegen, wenn es dann vielleicht schon viel zu spät ist, weil wir den Bogen überspannt haben – oder vielleicht erkennen wir, dass sie alle falsch lagen?

Meine Güte, sehen Sie mal auf die Uhr. Das müssen wir an einem anderen Tag machen.

Link: https://wattsupwiththat.com/2026/04/04/why-weather-prediction-got-brilliant-but-not-climate-predictions/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Bei den WETTER-Vorhersagemodellen (72 bis max, 168 Std. im Voraus, danach zeigen sie mehr oder weniger nur noch statistisches Rauschen) muss man unterscheiden zwischen den Basisfeldern und der Modell-eigenen Interpretation. Basisfelder sind die Verteilung von Druck, Feuchtigkeit und Temperatur in allen Schichten der Atmosphäre, so wie von Ridd beschrieben. Die Modell-eigene Interpretation interpretiert dann das Wetter, welches aus der Anordnung dieser Basisfelder folgt, also z. B. Niederschlagsmenge und -zeit, Sonnenscheindauer, Höchst- und Tiefsttemperaturen usw. Nichts Anderes machen auch die sog. „Wetter-Apps“. Die Erfahrung des Prognostikers dazu: Die Simulation der Basisfelder ist für 72 Stunden im Voraus fast perfekt, wie auch der Vergleich verschiedener Modellläufe (GFS, EZMW usw.) zeigt. Die Modell-eigene Interpretation ist es jedoch nicht, und hier kann ein erfahrener Prognostiker durchaus noch Verbesserungen des Modells erreichen. Es kommt nämlich immer wieder vor, dass verschiedene Modelle bei fast identisch simulierten Basisfeldern nach 72 Std. z. B. völlig unterschiedliche Niederschlagsmengen simulieren.

Nichts dergleichen gilt für Klima-Modelle.

Der Beitrag Warum Wettervorhersage-Modelle richtig gut geworden sind – Klimavorhersage-Modelle aber nicht erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Klimamodelle entdecken eine weitere Wirkung von CO₂

veröffentlicht.
Vorschau ansehen

Charles Rotter

Eine neue Studie macht die Runde, und auf den ersten Blick scheint sie eine weitere Wendung in der Klimadebatte zu bieten: Kohlendioxid, das Molekül, das üblicherweise als Hauptverursacher der Erwärmung dargestellt wird, kann offenbar eine Abkühlung bewirken – zumindest über Indien, zumindest im Sommer und zumindest innerhalb eines bestimmten Modellierungsrahmens.

Das allein sollte jedem zu denken geben, dem bisher gesagt wurde, die „Wissenschaft sei sich einig“.

Die betreffende Studie formuliert ihre zentrale These klar und deutlich:

„Steigende CO₂-Konzentrationen in der Atmosphäre können auch zu einer Abkühlung im Sommer über Indien führen.“

Dies wird als „bisher unterschätzter Effekt“ dargestellt, bei dem der Treibhauseffekt die atmosphärische Zirkulation so verändert, dass sich die Bewölkung verdichtet, die Sonneneinstrahlung an der Erdoberfläche abnimmt und die Temperaturen lokal sinken.

Abstract

Als Reaktion auf anthropogene Einflüsse erwärmt sich die Erdoberfläche im Allgemeinen, da Treibhausgase die abgehende langwellige Strahlung zurückhalten. Entgegen der Intuition weisen einige Regionen vor dem Hintergrund dieser globalen Erwärmung jedoch eine Abkühlung der Oberfläche auf – ein Phänomen, das als „Warming Hole“ bekannt ist. Über die gut dokumentierten „Warming Holes“ über dem Nordatlantik und dem Südosten der Vereinigten Staaten hinaus zeigen wir hier, dass steigende CO₂-Konzentrationen in der Atmosphäre auch eine Abkühlung im Sommer über Indien bewirken können. Aufgrund des direkten Strahlungseffekts von CO₂ werden die Erwärmung des eurasischen Kontinents im Vergleich zu den umgebenden Ozeanen, der Feuchtigkeitstransport in den unteren Schichten und die vertikale Bewegung über Indien verstärkt. In Kombination mit der reichlich vorhandenen Feuchtigkeit des Sommermonsuns und den topografischen Blockierungseffekten des Himalaya und des Hindukusch führen diese Zirkulationsänderungen zu einer Zunahme der Wolkendecke. Die daraus resultierende verstärkte Bewölkung reduziert die einfallende Sonnenstrahlung an der Oberfläche und führt zu der beobachteten regionalen Abkühlung. Diese Ergebnisse zeigen einen bisher unterschätzten Prozess auf, durch den der Treibhauseffekt paradoxerweise über atmosphärische dynamische Wege eine regionale Abkühlung bewirken kann.Mehr hier.

Die Autoren räumen sogar ein, dass das Ergebnis kontraintuitiv ist:

„Diese Ergebnisse zeigen einen bisher unterschätzten Prozess auf, durch den der Treibhauseffekt paradoxerweise zu einer regionalen Abkühlung führen kann …“

Das Wort „paradoxerweise“ spielt hier eine wichtige Rolle.

Denn wenn ein Effekt je nach Modellkonfiguration sowohl Erwärmung als auch Abkühlung bewirken kann, was genau wird dann vorhergesagt – und mit welchem Grad an Sicherheit?

Die Untersuchung stützt sich in hohem Maße auf CMIP6-Modell-Ensembles, darunter sowohl reine Atmosphärensimulationen als auch gekoppelte Modelle. In einem Szenario wird der CO₂-Gehalt vervierfacht, während die Meerestemperaturen konstant gehalten werden. Das ist keine Beschreibung der realen Welt, sondern ein kontrolliertes numerisches Experiment, das darauf abzielt, bestimmte Prozesse zu isolieren. Die Autoren machen dies ausdrücklich deutlich:

„Wenn die Meerestemperatur auf dem Niveau des heutigen Klimas fixiert und die atmosphärische CO₂-Konzentration vervierfacht wird …“

Dieser Satz – „die Meerestemperatur wird konstant gehalten“ – ist es wert, näher betrachtet zu werden. Ozeane sind keine optionalen Komponenten des Klimasystems der Erde. Sie dominieren die Wärmekapazität, den Transport und die Variabilität. Ihre Rückkopplungen zu entfernen, um einen Effekt zu isolieren, mag für die Theorie nützlich sein, schafft aber auch ein Szenario, das keine direkte physikalische Entsprechung hat.

Man könnte genauso gut die Bewölkung, die Windverhältnisse oder die Luftfeuchtigkeit festlegen und beobachten, was passiert. Die Frage ist, ob solche Übungen aussagekräftige Erkenntnisse für die Erwartungen in der realen Welt liefern – oder lediglich zeigen, was ein Modell unter ausreichenden Einschränkungen hervorbringen kann.

Und was liefern diese Modelle? Eine auffallend große Bandbreite an Ergebnissen:

„Die maximale Abkühlung reicht in den Modellen von −2,55 bis −0,68 K … wobei die maximale Abkühlung in den Modellen von −9,93 bis −0,20 K reicht.“

Eine Streuung von etwa −0,2 K bis fast −10 K ist keine geringfügige Unsicherheit. Es handelt sich um eine Variabilität in der Größenordnung. Allein dieser Bereich wirft Fragen zur Robustheit auf. Wenn der gleiche Antrieb in den verschiedenen Modellen radikal unterschiedliche Größenordnungen erzeugt, dann ist der Prozess hochgradig empfindlich gegenüber internen Annahmen – Parametrisierungen von Wolken, Konvektion, Feuchtigkeitstransport und so weiter.

Dennoch beschreibt die Arbeit das Signal weiterhin als „robust“.

Dies ist ein wiederkehrendes Merkmal der Literatur zur Klimamodellierung: Übereinstimmung hinsichtlich der Richtung wird oft als ausreichend angesehen, selbst wenn die Größenordnung stark variiert. Für politische Zwecke ist jedoch die Größenordnung entscheidend. Eine Abkühlung um −0,2 K ist kaum wahrnehmbar; −10 K wären katastrophal. Diese Ergebnisse unter einem einzigen konzeptionellen Oberbegriff zusammenzufassen, dehnt die Bedeutung des Begriffs „robust“ über das Maß des Sinnvollen hinaus.

Der Prozess selbst ist eine Kette modellierter Wechselwirkungen. Der CO₂-Gehalt steigt, Eurasien erwärmt sich stärker als die umliegenden Ozeane, Druckgradienten verschieben sich, Winde verstärken sich, der Feuchtigkeitstransport nimmt zu, Wolken bilden sich und die einfallende Sonnenstrahlung nimmt ab:

„Die Verringerung der nach unten gerichteten Sonnenstrahlung ist der dominierende Faktor für die Abkühlung der Erdoberfläche … verbunden mit einer verstärkten Wolkendecke.“

Dies ist ein klassisches Beispiel für eine Rückkopplungs-Kaskade. Jeder Schritt hängt von Parametrisierungen ab, die bekanntermaßen zu den unsichersten Elementen in Klimamodellen zählen – insbesondere Wolken.

Wolken sind seit langem die Achillesferse der Klimamodellierung. Geringfügige Änderungen in der Wolken-Mikrophysik oder -verteilung können die Ergebnisse von einer Erwärmung zu einer Abkühlung umkehren. Die Autoren veranschaulichen diese Empfindlichkeit eindrucksvoll: Verändert man die Zirkulation geringfügig, nimmt die Wolkendecke so stark zu, dass sie den Strahlungsantrieb lokal ausgleicht.

Mit anderen Worten: Das System ist in hohem Maße nichtlinear, und kleine Modellierungsentscheidungen können qualitativ unterschiedliche Ergebnisse hervorbringen. Dies ist eine Beobachtung über das System selbst und erschwert die Vorstellung, dass Modelle regionale Ergebnisse für die nächsten Jahrzehnte zuverlässig vorhersagen können.

Der Artikel weist zudem auf saisonale und geografische Besonderheiten hin, die die Anwendbarkeit des Ergebnisses weiter einschränken. Die Abkühlung scheint…

„…vor allem auf den borealen Sommer beschränkt zu sein … und fällt mit dem indischen Sommermonsun zusammen.“

Außerhalb dieser Monate erwärmt sich die gleiche Region.

Nun lautet die Geschichte also: CO₂ verursacht weltweit eine Erwärmung, außer dort, wo es eine Abkühlung bewirkt, außer wenn es dies nicht tut, abhängig von Jahreszeit, Topografie, Feuchtigkeitsverfügbarkeit und Zirkulationsmustern.

Das mag als Beschreibung des Modellverhaltens zutreffend sein. Als Grundlage für weitreichende politische Entscheidungen führt es jedoch eine Komplexität ein, die der Öffentlichkeit selten vermittelt wird.

Die Autoren gehen noch weiter und ziehen politische Schlussfolgerungen, die an Ironie grenzen:

„Der prognostizierte Rückgang der CO₂-Konzentration … könnte – entgegen der Intuition – zur Erwärmung in Indien beitragen.“

Eine Reduzierung von CO₂ könnte also zu einer Erwärmung führen – zumindest regional, zumindest in diesem Rahmen.

An dieser Stelle könnte man sich fragen, ob die Variable, auf die die Politik abzielt, überhaupt der dominierende Faktor für lokale Klimaentwicklungen ist. Wenn ein Anstieg des CO₂-Gehalts eine Region abkühlen und ein Rückgang sie erwärmen kann, dann ist der Zusammenhang zwischen Emissionen und regionalen Temperaturen alles andere als eindeutig.

Zu ihrer Ehre betonen die Autoren die Komplexität:

„Die Ergebnisse verdeutlichen die Komplexität regionaler Klimareaktionen …“

Das ist wahrscheinlich die am ehesten vertretbare Aussage in der gesamten Arbeit.

Der Punkt, an dem diese Analyse mit der Skepsis zusammentrifft, liegt nicht darin zu leugnen, dass solche Prozesse in Modellen existieren könnten. Er liegt vielmehr darin zu hinterfragen, was diese Untersuchungen belegen – und was nicht.

Sie zeigen, dass Modelle unter unterschiedlichen Annahmen eine Vielzahl von Ergebnissen hervorbringen können. Sie zeigen, dass Rückkopplungen je nach Konfiguration angepasst, verstärkt oder unterdrückt werden können. Sie zeigen, dass neue „Mechanismen“ identifiziert werden können, sobald die Aufmerksamkeit auf einen bestimmten Bereich oder eine bestimmte Variable gerichtet wird.

Was sie nicht zeigen, ist, dass diese Prozesse in der realen Welt mit der gleichen Stärke, Konsistenz oder Vorhersagbarkeit ablaufen.

Das Vertrauen in Multi-Modell-Ensembles wird oft als Stärke dargestellt. Zwölf Modelle hier, achtundvierzig dort. Aber wenn diese Modelle strukturelle Ähnlichkeiten aufweisen – und das tun sie –, ist das Ensemble keine Sammlung unabhängiger Experimente. Es ist eine Familie verwandter Hypothesen.

Übereinstimmung innerhalb dieser Familie bedeutet nicht zwangsläufig Übereinstimmung mit der Realität.

Die Studie versucht eine Validierung, indem sie Modellausgaben mit Beobachtungsdaten vergleicht:

„Die meisten Modelle weisen einen angemessen zentrierten quadratischen Mittelwertfehler auf … und bieten damit eine solide Grundlage für nachfolgende Analysen.“

„Angemessen zentriert“ ist ein dehnbarer Begriff. Modelle können zwar allgemeine räumliche Muster abbilden, sich jedoch in Bezug auf Dynamik, Rückkopplungen und Empfindlichkeiten erheblich unterscheiden. Die Übereinstimmung mit einer Klimatologie garantiert keine genaue Reaktion auf Störungen.

Fairerweise muss man sagen, dass die Autoren keine Vorhersagesicherheit beanspruchen. Sie identifizieren einen Prozess innerhalb eines Modellierungsrahmens. Das ist eine legitime wissenschaftliche Vorgehensweise.

Doch die allgemeinere Erzählung, die solche Ergebnisse oft begleitet – dass die Klimawissenschaft einen Punkt erreicht hat, an dem Politik mit hoher Sicherheit diktiert werden kann –, passt nur schwer zu Ergebnissen wie diesen.

Falls CO₂ auf dem einen Weg zu einer Abkühlung und auf einem anderen zu einer Erwärmung führen kann, falls regionale Auswirkungen von fein ausbalancierten Rückkopplungen abhängen und falls die Modellprognosen eine ganze Größenordnung umfassen, dann bleibt das System von großer Unsicherheit geprägt.

Dies stellt die Klimawissenschaft eindeutig in den Bereich der laufenden, spekulativen Forschung, in dem Hypothesen getestet, überarbeitet und manchmal widerlegt werden.

Aus politischer Sicht wird dies zu einer Frage der Verhältnismäßigkeit. Wie viel Sicherheit ist erforderlich, bevor groß angelegte Eingriffe in Energiesysteme, Landwirtschaft und Wirtschaftsstrukturen vorgenommen werden?

Wenn die zugrunde liegende Wissenschaft weiterhin neue Prozesse, neue Empfindlichkeiten und neue Unsicherheiten aufdeckt, scheint Vorsicht geboten.

Es gibt zudem ein Muster, das Beachtung verdient. In jedem Jahrzehnt scheinen neue „bisher unterschätzte Prozesse“ aufzutauchen: Veränderungen in der Ozeanzirkulation, Aerosoleffekte, Landnutzungsänderungen, Auswirkungen der Bewässerung und nun auch CO₂-bedingte Wolkenrückkopplungen, die zu einer Abkühlung führen.

Man könnte dies als Fortschritt interpretieren – als einen Prozess, in dem die Wissenschaft immer feinere Details eines komplexen Systems aufdeckt. Das ist sicherlich eine mögliche Interpretation.

Eine andere Interpretation lautet, dass das System so komplex und die Modelle so empfindlich sind, dass immer neue Erklärungen gefunden werden können, um Diskrepanzen zwischen Erwartungen und Beobachtungen in Einklang zu bringen.

Die Arbeit ist nicht sinnlos. Sie erweitert den Katalog möglicher Wechselwirkungen innerhalb des Klimasystems. Aber sie unterstreicht auch, wie weit das Fachgebiet noch von einem einheitlichen, stabilen Verständnis der regionalen Klimadynamik entfernt ist.

Und vielleicht ist das die wichtigste Erkenntnis.

Nicht, dass CO₂ unter bestimmten Modellbedingungen im Sommer eine Abkühlung über Indien bewirken würde. Sondern dass sich das Klimasystem weiterhin einer einfachen Charakterisierung entzieht und dass jeder neue „Mechanismus“ den ohnehin schon komplexen Prognosen eine weitere Ebene von Bedingungen hinzufügt.

Für diejenigen, die auf der Grundlage von Modellausgaben weitreichende, irreversible politische Veränderungen befürworten, stellt diese wachsende Komplexität eine Herausforderung dar.

Für diejenigen, die zur Skepsis neigen, bekräftigt sie ein Grundprinzip: Urteile zurückhalten, Annahmen hinterfragen und der Versuchung widerstehen, sich weiterentwickelnde Modelle als feststehende Tatsachen zu behandeln.

Die Modelle können eine Erwärmung ergeben. Sie können eine Abkühlung ergeben. Sie können beides gleichzeitig ergeben, je nachdem, wo und wann man hinschaut.

Die Frage ist, wie sicher diese Ergebnisse in Erwartungen für die reale Welt übersetzt werden können – und ob diese Sicherheit das Ausmaß der politischen Maßnahmen rechtfertigt, die in ihrem Namen vorgeschlagen werden.

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2026/03/26/climate-models-discover-yet-another-thing-CO₂-can-do/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Klimamodelle entdecken eine weitere Wirkung von CO₂ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ NachDenkSeiten

Sind wirklich „deutsche Schiffe“ im Persischen Golf gefangen?

·  veröffentlicht.
Vorschau ansehen

Es kommt ja selten vor, dass die deutsche Regierung in außen- und sicherheitspolitischen Fragen mal etwas Vernünftiges sagt – aber die klare Absage an Donald Trump, die Straße von Hormus durch deutsche Marineeinheiten abzusichern, war ein solcher Fall. Wie zu befürchten, gab es jedoch sogleich Kritik an dieser Entscheidung. Vorgetragen hat sie der „Verband Deutscher Reeder“, der beklagt, dass „44 deutsche Schiffe“ von der Blockade der Straße von Hormus betroffen und nun im Persischen Golf gefangen seien. Von welchen „deutschen“ Schiffen ist da eigentlich die Rede? Eine Spurensuche von Jens Berger.

Dieser Beitrag ist auch als Audio-Podcast verfügbar.

Dieser Artikel liegt auch als gestaltetes PDF vor. Wenn Sie ihn ausdrucken oder weitergeben wollen, nutzen Sie bitte diese Möglichkeit. Weitere Artikel in dieser Form finden Sie hier.

Konkrete Angaben, welche Schiffe von der Blockade betroffen sind, sind Mangelware. Recherchiert man ein wenig auf den einschlägigen Schifffahrtsportalen, findet man kein einziges deutsches Schiff in dieser Region. Doch dazu später mehr. Dank einer Pressemeldung wird man jedoch fündig. In dieser Meldung ist von dem Containerschiff Source Blessing die Rede, das auch nur deshalb namentlich erwähnt wurde, weil es offenbar durch die Kriegshandlungen beschädigt wurde. Deutsch ist die Source Blessing freilich nicht. Der NDR spricht von „einem Schiff der Hamburger Reederei Hapag-Lloyd“, das an die dänische Reederei Maersk verchartert sei. Ok, gehen wir der Sache doch mal auf den Grund.

Die Source Blessing wurde 2003 in Kaohsiung/Taiwan von der China Shipbuilding Corp. gebaut und unter dem Namen Lykes Flyer von der amerikanischen Reederei Lykes Lines unter zunächst britischer Flagge in Betrieb genommen. Lykes Lines gehörte damals der kanadischen Reederei CP Ships, die ihrerseits 2005 von der damaligen deutschen TUI übernommen und in deren Tochter Hapag Lloyd integriert wurde. Über die Jahre wechselte das Schiff mehrfach den Namen und die Flagge. Seit 2021 fährt es unter liberianischer Flagge, seit 2024 heißt es Source Blessing. Ist die Source Blessing also ein liberianisches Schiff? Seerechtlich, ja. Aber die Flagge sagt nichts über die Besitzverhältnisse aus.

Wem gehört eigentlich das Schiff? Laut Schiffsdatenbank gehört das Schiff einem Unternehmen namens Well Wonder 1 LTD im chinesischen Fujian – einer Briefkastenfirma, der nur dieses eine Schiff gehört und die offenbar von der Mascot Ocean Ltd., ebenfalls aus Fujian, betrieben wird. Ist die Source Blessing also ein chinesisches Schiff? Von den Besitzverhältnissen, ja. Well Wonder hat das Schiff jedoch an das deutsche Unternehmen Hapag Lloyd verchartert, die es wiederum an die dänische Reederei Maersk unterverchartert haben, und für diese Reederei ist es im Golf im Linieneinsatz. Nun will das Schiff den Golf verlassen und gibt im elektronischen Identifiktationssystem vor, ein chinesisches Schiff zu sein – das ist offenbar in den letzten Tagen bei Schiffen von chinesischen Eignern gängige Praxis, um die Gefahr eines Angriffs durch den Iran zu reduzieren.

Rekapitulieren wir also: Wir haben hier ein Schiff, das einer chinesischen Firma gehört, unter liberianischer Flagge fährt, von einem deutschen Unternehmen gechartert und an ein dänisches Unternehmen weiterverchartert wurde. Wie kommen die deutschen Reeder hier auf die Idee, dass es sich um ein „deutsches“ Schiff handelt?

Die „deutsche Handelsflotte“ umfasst zurzeit 1.836 Schiffe, von denen jedoch nur 416 auch wirklich unter deutscher Flagge fahren. 1.420 Schiffe deutscher Reeder fahren unter fremder Flagge. Besonders beliebt sind die Flaggen Antiguas und Liberias, die 424 bzw. 309 Schiffe deutscher Reeder schmücken. In Antigua oder Liberia muss übrigens kein deutscher Reeder vorstellig werden, um seine Schiffe auszuflaggen. Das Schifffahrtsregister Antiguas ist im niedersächsischen Oldenburg beheimatet, das liberianische Schifffahrtsregister residiert in Reston, im US-Staat Virginia. In Zeiten des Internets und global agierender Anwaltskanzleien gehört das Ausflaggen zum tagtäglichen Geschäft großer Reedereien.

Der Hauptgrund für die Ausflaggung ist die im Seehandel oft komplizierte Ermittlung und Zuordnung der wirtschaftlichen Gewinne. Schiffe sind qua Gesetz Territorium des Staates, unter deren Flagge sie fahren, und müssten zumindest theoretisch auch in diesem Staat Steuern auf die erzielten Gewinne abführen. In der Praxis verhinderten jedoch die deutschen Finanzämter lange diese „Scheingeschäfte“. Der Startschuss für das große Ausflaggen deutscher Handelsschiffe fiel im Jahre 1999. Damals gab die rot-grüne Bundesregierung den Lobbyforderungen der Reeder nach, indem sie die Tonnagesteuer einführte. Bei der Tonnagesteuer entfällt die Besteuerung auf die tatsächlichen Gewinne aus dem Reedereigeschäft und wird durch eine – lächerlich geringe – Pauschalsteuer ersetzt, die sich auf die Tonnage der Schiffe bezieht. De facto stellt dies eine massive Steuersubvention für die Reeder und vor allem für die vermögenden Investoren dar, die sich über geschlossene Fonds an Schiffen beteiligen, und deren Gewinne dank der rot-grünen Steuerreform nahezu steuerfrei sind.

Neben der weitestgehenden Steuerbefreiung ist das Unterlaufen deutscher oder europäischer Sicherheits- und Arbeitsstandards ein Hauptmotiv für die Ausflaggung. Das fängt bei der Rentenversicherung und der Krankenversicherung an, geht beim Urlaubsanspruch und den Sozialleistungen weiter und endet bei berufsgenossenschaftlichen und arbeitsrechtlichen Regelungen. Für einen Seemann auf einem deutschen Schiff unter liberianischer Flagge gelten die Gesetze und Vorschriften Liberias.

Völkerrechtlich ist die in Deutschland so populäre Ausflaggung jedoch ein einziger Graubereich. Auch wenn die Ausflaggung deutscher Schiffe gängige Praxis ist, so heißt dies nicht, dass sie damit auch legal ist. Das Seerechtsübereinkommen der Vereinten Nationen sieht vor, dass jedes Schiff in dem Staat registriert sein muss, von dessen Hoheitsgebiet aus es betrieben wird. Um die offensichtliche Verletzung des Seevölkerrechts zu umgehen, nutzen die Reeder mit tatkräftiger Unterstützung des Bundesverkehrsministeriums eine „Gesetzeslücke“, die aus Zeiten stammt, in denen es den deutschen Reedern tatsächlich nicht gut ging. Paragraph 7 des Flaggenrechtsgesetzes gestattet eine auf maximal zwei Jahre befristete Ausflaggung, wenn das Schiff an einen ausländischen Betreiber verliehen wird.

Diese „Bareboat-Charter“ war jedoch als Ausnahmeregelung für wirtschaftlich angeschlagene Reedereien gedacht. Aus der Ausnahme wurde jedoch die Regel – obgleich es den deutschen Reedereien wirtschaftlich prächtig geht, wurde in den letzten Jahren kein einziger diesbezüglicher Antrag abgelehnt. Interessanterweise interpretieren die deutschen Finanzämter die „Bareboat-Charter“ bei der Einkommensteuererklärung deutscher Seeleute gänzlich anders. Die sind nämlich nicht in Antigua oder Liberia, sondern in Deutschland steuerpflichtig, da die Finanzbehörden hier die „Bareboat-Charter“ als „offensichtliches Scheingeschäft“ einordnen. Man kennt es ja: quod licet Iovi, non licet bovi.

Und wer sind die Profiteure dieser Steuerumgehung? Kommen wir auf Hapag Lloyd zurück. Neben Saudi-Arabien und Katar ist die Firma Kühne + Nagel der Hauptanteilseigner an der Reederei. Kühne + Nagel ist übrigens eines der größten Familienunternehmen der Welt und gehört Klaus-Michael Kühne, dem Hamburger Mäzen, der einschlägigen Listen zufolge mit einem Vermögen von fast 40 Milliarden Euro der zweitreichste Deutsche ist. „Erstaunlicherweise“ hat Kühne + Nagel seinen Hauptsitz jedoch nicht in Hamburg, sondern in der Schweiz. Mit Steueroptimierung kennen die Herren Reeder sich nun einmal ganz hervorragend aus.

Fassen wir die gesamte Recherche also zusammen: Wir haben (siehe oben) ein Schiff, das man je nach Perspektive als chinesisches oder liberianisches Schiff bezeichnen kann, bei dem jedoch der zweitreichste Mann Deutschlands an irgendeiner Stelle der komplexen Betreiberstruktur steueroptimiert als Charterer auftaucht. Und darum ist das Schiff nun ein deutsches Schiff? Das ist schon sehr abenteuerlich. Und die Source Blessing ist kein Einzelfall. Fast alle vermeintlich deutschen Schiffe im Golf weisen derartige Strukturen auf – Besitzer sind irgendwelche Briefkastenfirmen in Steueroasen oder China, sie fahren unter der Flagge irgendwelcher Bananenrepubliken, die keine Steuern erheben und keine Arbeitsschutzregelungen für die Seeleute vorschreiben. An irgendeiner Stelle der komplexen Betreiberstruktur tauchen dann aber deutsche Reedereien auf.

Wer sich durch Ausflaggung der Steuerpflicht entzieht und noch nicht einmal die arbeitsrechtlichen Vorschriften Deutschlands einhält, sollte aber bitteschön auch ganz leise sein, wenn es darum geht, dass Deutschland „seinen Besitz“ in welcher Form auch immer militärisch absichern soll. Es ist schon schlimm genug, dass junge Soldaten überhaupt in solche riskanten Situationen geschickt werden sollen – wenn dies vor allem für die grenzenlose Gier einiger weniger Superreicher geschehen soll, ist das nur noch unanständig und asozial. Die Reeder sollten sich schämen.

Wer derweil komplett in Vergessenheit geriet, sind die Seeleute, die auf diesen Schiffen ihren Dienst tun – meist Filipinos, Chinesen und Ukrainer; arme Schweine, die ausbeutet werden, um den Reichtum einiger weniger zu mehren. 4.000 dieser Seeleute sitzen offenbar zurzeit im Golf fest. Während deutsche Kreuzfahrttouristen – auch dank des heiligen Zorns von BILD und Co. – bereits wenige Tage nach Kriegsbeginn auf Steuerzahlerkosten aus der Region ausgeflogen wurden, kümmert sich niemand um die zurückgebliebenen Seeleute. Und auch bei der gesamten Debatte um die Öffnung der Straße von Hormus und die Sicherung der Handelsrouten spielen diese „Wegwerfmenschen“ an keiner Stelle eine Rolle; sie werden nicht einmal erwähnt, natürlich auch nicht von den Reedern.

Titelbild: Aleksandr Medvedkov/shutterstock.com

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Wetter und Klima: Modelle, Modelle über alles in der Welt!

veröffentlicht.
Vorschau ansehen

Dipl.-Met. Christian Freuer

In einer Welt der Klima-Propaganda, in der Möchtegern-Gurus, Links-Chaoten und Erwärmungs-Fetischisten immer irgendwelche Modelle heranziehen, um ihre Glaubenssätze zu belegen, ist es vielleicht angebracht, mal ein ganz konkretes Beispiel für die Qualität derartiger Modelle aufzuzeigen.

Ich bin ganz zufällig darauf gestoßen bei meinem üblichen morgendlichen Vergleich verschiedener Wettervorhersage-Modelle. Ob man sich da Wetter- oder Klimamodelle anschaut, ist zweitrangig, denn das Prinzip ist in beiden das Gleiche: Man erfasst die aktuelle Lage, bringt sie in eine Computer-lesbare Form und lässt es dann laufen.

Modelle müssen zu 100% programmiert werden, und falls Wunschdenken der Programmierer auch nur ansatzweise zum Tragen kommt, fließt das unweigerlich in die Modelle ein, das muss nicht einmal böse oder ideologische Absicht sein. In meiner über 40-jährigen Zeit als Prognostiker war es gar nicht so einfach, irgendwelches Wunschdenken aus der Formulierung von Wetterprognosen herauszuhalten.

Aber genug der Vorrede. Wie gesagt sind die folgenden Tage rein zufällig ausgewählt worden. Besonders eklatant erschienen mir nämlich die Unterschiede der Wetter-Modellsimulationen vom 22. Februar 2026 für den 9. März 2026 zu sein (360 Stunden ≅ 15 Tage).

In den folgenden Darstellungen stehen in der oberen Zeile die Simulationen von Geopotential und Bodendruck der 500-hPa-Fläche, darunter jeweils (als Ausschnitt) Temperatur und Geopotential der 850-hPa-Fläche. Verglichen werden die Modelle GFS, EZMW und AIFS. Was sich dahinter verbirgt, kann man gut bei wetterzentrale.de nachlesen.

Hier also zunächst die Simulationen vom 22. Februar für den 9. März 2026:

Es sollen hier keine langatmigen Interpretationen folgen, denn es geht ja ausschließlich um die Unterschiede der Simulationen. In diesem Fall ist den Simulationen zufolge von 20°C bis 20 cm Schnee alles möglich. Was man dabei nicht aus dem Auge verlieren darf: Alle Lösungen sind gleich wahrscheinlich!

Nun wäre zu erwarten, dass sich die Unterschiede umso mehr verringern, je näher man dem Vorhersagetag kommt. Wie sehen die Modelle die Entwicklung für 240 ≅ 10 Tage im Voraus?

Nun, wie man sieht, sind die Unterschiede tatsächlich schon deutlich geringer. Vor allem GFS (links in den Graphiken) und EZMW (in der Mitte) sehen plötzlich ziemlich gleich aus. Jedenfalls ist nichts mehr von dem Kaltluftvorstoß des AIFS-Modells zu sehen, obwohl dieses Modell den immer noch zeigt, nur viel weiter östlich.

Kommen wir nun dem Vorhersagetermin noch näher und betrachten die Simulationen 168 Stunden ≅ eine Woche im Voraus.

Allzu große Unterschiede zeigen sich jetzt nicht mehr. Zumindest kann man ziemlich sicher sagen, was NICHT kommen wird, nämlich ein Wintereinbruch, wie ihn das AIFS-Modell 15 Tage im Voraus noch simuliert hatte.

Und wie ist nun die aktuell eingetretene Lage am 9. März 2026? So:

Da kann man nun alles hinein interpretieren, was man möchte. Mir geht es um etwas ganz anderes, nämlich um das

Fazit: Wie in aller Welt kann man bei den aufgezeigten Unterschieden schon nach 15 Tagen behaupten, dass ähnliche Modellsimulationen für 80 JAHRE im Voraus so genau sind, dass damit die Zerschlagung einer ganzen Industrienation gerechtfertigt wird?!

Dies ist nur als weiterer kleiner Baustein gedacht zusätzlich zu der Fülle der Argumente und Belege gegen CO als Ursache allen Übels.

Der Beitrag Wetter und Klima: Modelle, Modelle über alles in der Welt! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ The Expose

Sam Altman Just Said Training Human Children Uses More Energy Than AI

veröffentlicht.
Vorschau ansehen

OpenAI’s Sam Altman sparked a firestorm of criticism at the India AI Impact Summit 2026 when he responded to concerns over artificial intelligence’s growing environmental footprint by comparing it to the lifetime […]

The post Sam Altman Just Said Training Human Children Uses More Energy Than AI first appeared on The Expose.

(Auszug von RSS-Feed)
❌