NEWS 23

🔒
❌
Stats
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Heute — 15. April 2026

Auf der Heartland-Klimakonferenz: „Welche Beweise?“ – Ausgabe Energie-Ungleichgewicht

15. April 2026 um 13:00

Vorschau ansehen

Francis Menton, THE MANHATTAN CONTRARIAN

In seiner Rede auf der Heartland Climate Conference am 9. April widmete der Physiker John Clauser das erste Viertel seiner Redezeit dem Thema extreme Wetterereignisse und den Rest dem sogenannten „Earth’s Energy Imbalance“ (EEI). Am 10. April habe ich den Teil des Vortrags, der sich auf extreme Wetterereignisse bezog, in meinem vorherigen Beitrag hier zusammengefasst [in deutscher Übersetzung hier]. Heute werde ich auf Clausers Vortrag zum EEI eingehen.

Bevor ich Clausers Vortrag hörte, hatte ich zwar schon von der EEI-Kennzahl gehört, mich aber noch nicht eingehend damit befasst. Mir war auch nicht bewusst, in welchem Maße der IPCC und die Klima-Clique diese Kennzahl als bevorzugten Beweis für eine bevorstehende gefährliche globale Erwärmung herangezogen haben.

Die Kennzahl, die bisher am häufigsten als angeblicher Beweis für eine gefährliche Erwärmung der Atmosphäre herangezogen worden ist, ist allgemein unter dem Namen „Global Average Surface Temperature“ (GAST) bekannt. Mehrere Institutionen veröffentlichen unterschiedliche Versionen von GAST. Die drei großen Institutionen, die GAST-Daten melden, sind die NOAA und die NASA in den USA sowie das Hadley Centre in UK. Um eine Version der GAST zu berechnen, ermitteln diese Organisationen eine Reihe von Messstationen mit Thermometern auf der ganzen Welt und erfassen täglich die Messwerte jeder dieser Stationen. In der Regel bilden sie den Durchschnitt aus den Höchst- und Tiefsttemperaturen jeder Station, um einen Tagesdurchschnitt für diese Station zu erhalten, und mitteln dann alle Tagesdurchschnitte, um einen Monatsdurchschnitt für jede Station zu erhalten. Anschließend mitteln sie die Monatsdurchschnitte aller Stationen, um einen weltweiten Durchschnitt für jeden Monat zu erhalten. Der Wert wird in der Regel nicht als absolute Temperatur angegeben, sondern als „Anomalie“, d. h. als Abweichung von einer bestimmten Basislinie. Jede der berichtenden Stellen verfügt über eine andere Auswahl an Stationen und ein anderes Verfahren zur Berechnung der Basislinie.

Die GAST-Methode ist die Grundlage, auf der die NASA und die NOAA ihre monatlichen Diagramme erstellen, die einen stark ansteigenden globalen Temperaturtrend zeigen. Dies ist das Verfahren, das Mann et al. verwendeten, um den steil ansteigenden „Ausläufer“ ihres berühmten Hockeystick-Diagramms zu erstellen. Und es ist eine der drei „Beweislinien“, anhand derer die EPA in ihrem „Endangerment Finding“ von 2009 (das kürzlich von der Trump-Regierung aufgehoben worden ist) behauptete, CO2 und andere „Treibhausgase“ stellten eine „Gefahr für die menschliche Gesundheit und das Wohlergehen“ dar.

Aber beweisen die GAST-Diagramme wirklich, dass eine Art „Durchschnittstemperatur“ der Erde steigt, geschweige denn, dass sie auch in Zukunft weiter steigen wird? Die Verwendung von GAST als Maß für die globale Durchschnittstemperatur wirft große Probleme auf, von denen Clauser viele aufgezeigt hat:

• Die Temperatur ist ein sogenannter „intensiver“ Parameter, der nicht sinnvoll addiert werden kann und daher nicht gemittelt werden darf.

• Viele der Boden-Thermometer in den GAST-Netzwerken befinden sich in der Nähe von Gebäuden, Parkplätzen, Flughäfen und ähnlichen Orten, was ihre Messwerte durch den „städtischen Wärmeinseleffekt“ verfälschen kann.

• Viele Standorte in den GAST-Netzwerken wurden im Laufe der Jahre aufgegeben, was dazu geführt hat, dass fehlende Daten durch Algorithmen ergänzt werden.

• Es gibt bei weitem nicht genug Thermometer in den GAST-Netzwerken, um eine für statistische Zwecke ausreichende Stichprobe zu bilden.

• Für weite Teile der Welt liegen für große Abschnitte der Aufzeichnungen keine oder fast keine Daten vor, z. B. für die Ozeane der südlichen Hemisphäre, und auch hier wurden Daten (anstatt gemessen) erstellt und durch Algorithmen ergänzt.

• Die Methoden zur Bestimmung der Basiswerte für die „Anomalien“ sind schlecht definiert und zwischen den berichtenden Stellen uneinheitlich.

Die Mängel in den GAST-Daten und insbesondere die Ergänzung (Erfindung) fehlender Daten bildeten eine wesentliche Grundlage für den Antrag auf Überprüfung der Gefährdungsfeststellung, den ich gemeinsam mit Kollegen während der Amtszeiten von Trump und Biden vorgebracht habe.

Clauser beschrieb einen Prozess, durch den sich der IPCC allmählich davon entfernt hat, sich auf GAST als Beweis für die globale Erwärmung zu stützen. Die Veränderung erfolgte zwischen dem Fünften Sachstandsbericht (2013) und dem Sechsten Sachstandsbericht (2021) des IPCC. Aus Clausers Folien:

Der Fünfte Sachstandsbericht (AR5) des IPCC (2013) enthält eine zeitliche Darstellung der „Temperaturanomalie“. Der Sechste Sachstandsbericht (AR6) des IPCC (2021) stützt sich nun auf Werte für das Energieungleichgewicht der Erde (EEI).

Zuletzt, am 23. März 2026, erklärte UN-Generalsekretär Antonio Guterres einen „weltweiten Klimanotstand“. Als angebliche Grundlage für den „Notstand“ wurde die EEI genannt, wie sie in einem Bericht der Weltorganisation für Meteorologie (WMO) dargestellt wird:

Der [WMO]-Bericht bestätigt, dass das Energieungleichgewicht der Erde – die Differenz zwischen aufgenommener und abgegebener Wärme – so hoch ist wie nie zuvor. Mit anderen Worten: Unser Planet speichert Wärme schneller, als er sie abgeben kann.

Zugegeben, die EEI-Kennzahl bietet, sofern sie mit ausreichender Genauigkeit gemessen werden kann, als Indikator für die globale Erwärmung (sofern diese tatsächlich stattfindet) enorme Vorteile gegenüber GAST. Sie umgeht das Problem der Mittelwertbildung bei Daten, die sich nicht mitteln lassen; sie vermeidet die Kosten für Tausende von Messstationen (und Bojen im Ozean) rund um den Globus; sie vermeidet Probleme hinsichtlich der Kontinuität der Messstationen, des Wechsels von Messgeräten und der Standortverlagerung. Theoretisch könnte sie einfach durch einige Satelliten gemessen werden. Und wenn Satellitenmessungen eine Wärmeansammlung in der Atmosphäre nachweisen können, könnte dies eine Grundlage für die Vorhersage der fortschreitenden Erwärmung bieten.

Es schien eine so großartige Idee zu sein. Leider zeigt Clauser sehr detailliert auf, warum das gesamte Projekt ein Reinfall war. Die Satelliten wurden unter erheblichem finanziellen Aufwand ins All gebracht, ursprünglich im Jahr 1985. Eine zweite Generation, bekannt als die Terra- und Aqua-Satelliten, wurde 1999 und 2002 gestartet. Leider hat sich herausgestellt, dass die Satelliten eine unzureichende Genauigkeit und Lücken in ihren Messfähigkeiten aufweisen, die es unmöglich machen festzustellen, ob überhaupt ein „Energieungleichgewicht“ vorliegt und wenn ja, in welchem Umfang.

Das grundlegende Problem besteht darin, dass die Energiemengen, die von der Sonne einströmen und dann wieder ins All zurückfließen, groß sind; die Differenz (falls vorhanden) zwischen beiden, die eine mögliche Energieansammlung in der Atmosphäre oder den Ozeanen darstellt, ist jedoch gering. Der IPCC gibt für die von der Sonne einfallende Strahlung einen Wert von 340 Watt/Quadratmeter an. Der angegebene EEI beträgt 0,7 Watt/Quadratmeter, was nur etwa 0,2 % des gesamten Energieflusses entspricht. Diese Zahl, die auf Clausers Folie 27 erscheint, stammt aus dem Sechsten Sachstandsbericht des IPCC:

Die Zahlen oben zeigen die einfallende Sonnenstrahlung von 340 W/m² sowie die ausgehende Strahlung von 100 W/m² kurzwelliger reflektierter Sonnenstrahlung und 239 W/m² Infrarotstrahlung. Die Summe dieser beiden Werte beträgt 339. Wenn Sie in die untere linke Ecke schauen, sehen Sie einen Wert von 0,7 W/m² als „Ungleichgewicht“. Das ist nicht genau die Differenz zwischen 340 und 339, aber anscheinend hält man es für in Ordnung, einige Zahlen willkürlich zu runden, andere jedoch nicht.

Aus Clausers Folie 34:

Eingangs- und Ausgangsleistung sind beides sehr große Zahlen, und … der Unterschied zwischen ihnen ist winzig – etwa 0,2 % der Eingangsleistung. Dieser winzige Unterschied ist das Netto-Ungleichgewicht, das sowohl experimentell als auch theoretisch angestrebt wird. Eine zweite Schwierigkeit tritt auf, wenn sowohl die Eingangsleistung als auch die Ausgangsleistung sowohl zeitlich als auch räumlich in scheinbar zufälliger und völlig nicht reproduzierbarer Weise stark schwanken. Mess- und Rechenfehler (einschließlich Rundungsfehler) bei einer der drei großen Leistungskomponenten überlagern leicht den resultierenden Fehler der sehr geringen Leistungsdifferenz. Daher ist eine extrem hohe absolute Messgenauigkeit erforderlich.

Aber sind die Satelliten tatsächlich in der Lage, die ein- und ausgehende Strahlung an der Obergrenze der Atmosphäre (TOA) mit ausreichender Genauigkeit zu messen, um sicher sein zu können, dass dieser geringe Unterschied von 0,7 W/m² tatsächlich besteht? Clauser führt mehrere Zitate aus der Fachliteratur an, in denen eingeräumt wird, dass die Messgenauigkeit bei weitem nicht ausreicht. Hier sind zwei Zitate aus Clausers Folie 33:

Loeb et al. (2012, S. 111) geben zu: „… Eine Einschränkung der Satellitendaten besteht darin, dass sie keine absolute Messung des Netto-Strahlungsungleichgewichts an der TOA mit der erforderlichen Genauigkeit liefern können. …“ Stephens et al. (2012) geben zu: „… Die kombinierte Unsicherheit des aus CERES bestimmten Netto-TOA-Flusses beträgt ± 4 W/m² (95 % Konfidenz), was größtenteils auf Kalibrierungsfehler der Instrumente zurückzuführen ist. …“

Wenn Ihre Fehlermarge bei +/- 4 W/m² liegt und Sie eine „Abweichung“ von 0,7 W/m² gemessen haben, dann unterscheidet sich diese Abweichung offensichtlich nicht wesentlich von Null. Ehrliche Wissenschaftler würden das zugeben. Leider ist das nicht die Vorgehensweise der „Klimawissenschaft“.

Clausers Folien gehen sehr detailliert auf die Natur des Problems ein. Offenbar wird der aus reflektierter Sonnenstrahlung bestehende Teil der ausgehenden Strahlung stark gestreut und kommt aus vielen zufälligen Richtungen; und die Satelliteninstrumente reichen nicht aus, um all dies zu erfassen. Aus Clausers Folie 37:

Das Sichtfeld [der Satelliteninstrumente] ist keineswegs panoramisch. Infolgedessen wird gestreute und/oder reflektierte [ausgehende] Energie, die aus Winkelrichtungen oberhalb und unterhalb des schmalen Winkelempfangsstreifens eintraf, nicht erfasst. . . . Das Ergebnis war ein zu niedriger gemeldeter Wert [für die ausgehende reflektierte Sonnenenergie] und ein entsprechend viel zu hoher gemeldeter EEI-Wert (6,5 W/m²).

Der tatsächlich von den Satelliten gemessene EEI betrug also 6,5 W/m², doch alle waren sich bewusst, dass dieser Wert unmöglich war und eine weitaus stärkere Erwärmung implizieren würde, als beobachtet wurde. Wie sollte man mit diesem Problem umgehen? Clauser zitiert eine Veröffentlichung aus dem Jahr 2011 des berühmten James Hansen von der NASA:

Da dieses Ergebnis unplausibel ist, wurden Kalibrierungsfaktoren für die Messgeräte eingeführt, um die Diskrepanz auf den von Klimamodellen nahegelegten Wert von 0,85 W/m² zu reduzieren (Loeb et al. 2009). …

Wenn die Daten eindeutig falsch sind, verwendet man einfach sein Lieblingsmodell, um die Daten so lange zu modifizieren, bis sie zur bevorzugten Theorie passen. Und damit bin ich erst bei Folie 39 von Clausers 124 Folien angelangt.

Die Geschichte geht von da an weiter und weiter. Die „klimawissenschaftliche“ Gemeinschaft war nicht bereit zuzugeben, dass sie über keine Mittel verfügte, den EEI zu messen, um eine Wärmeansammlung in der Atmosphäre und den Ozeanen nachzuweisen. Hansen und andere schlugen vor, separat gemessene Veränderungen des Ozeanwärmeinhalts (OHC) zu nutzen, um die Lücken in den Satellitendaten zu schließen, und es wurden umfangreiche Anstrengungen unternommen, dies zu tun. Doch die OHC-Messungen sind mit eigenen Problemen behaftet, von denen viele mit den Problemen bei der Messung der durchschnittlichen Lufttemperatur mittels GAST vergleichbar sind: Die Messung erfolgt durch Bojen im Ozean und nicht durch Satelliten an der TOA; es gibt bei weitem nicht genug Bojen; sie messen keine Wärme an der TOA und sind daher nicht mit den Satellitenmessungen des Energieflusses vergleichbar; die Bojen sinken ab und steigen wieder auf, aber ihr Standort ist nur bekannt, wenn sie an die Oberfläche kommen; der Prozess der Umwandlung von Temperaturmessungen in Wärmeinhalt ist zweifelhaft; es gibt überhaupt keine Abdeckung der Polarregionen; und so weiter und so fort.

Clauser geht ausführlich darauf ein, wie eine Kombination aus äußerst fehlerhaften Satellitendaten und äußerst fehlerhaften OHC-Daten rückentwickelt wird, um zu einem vorab festgelegten Wert von etwa 0,7 oder 0,8 W/m² als EEI zu gelangen. Er bringt mehrere Vorwürfe wissenschaftlichen Fehlverhaltens vor und verwendet den Begriff „Betrug“ großzügig.

Der Kernpunkt ist jedoch, dass die Genauigkeit der Messungen nicht ausreicht, um einen EEI zu behaupten, der sich signifikant von Null unterscheidet. Was den EEI betrifft, lautet die Antwort auf die Frage „Was ist der Beweis?“: Es gibt keinen Beweis!

Link: https://wattsupwiththat.com/2026/04/13/at-the-heartland-climate-conference-what-is-the-proof-earths-energy-imbalance-edition/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Auf der Heartland-Klimakonferenz: „Welche Beweise?“ – Ausgabe Energie-Ungleichgewicht erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)
❌