NEWS 23

🔒
❌
Stats
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.

☐ ☆ ✇ EIKE

Indien hilft den USA bei der Beseitigung der „grünen“ Trümmer

veröffentlicht.
Vorschau ansehen

Vijay Jayaraj

Zum ersten Mal seit einem halben Jahrhundert wird in den Vereinigten Staaten eine brandneue Ölraffinerie gebaut. Diese Anlage im Hafen von Brownsville verspricht, die heimischen Märkte anzukurbeln, die nationale Sicherheit zu gewährleisten und ein lokales Wirtschaftswachstum in Milliardenhöhe auszulösen.

Präsident Donald Trumps Raffinerie-Meisterstück mit Indiens Reliance Industries ist mehr als nur ein Handelsabkommen; es ist eine politische und moralische Zurechtweisung des Krieges des Klima-Industriekomplexes gegen bezahlbare Energie. Und es war möglich, weil asiatische Energieriesen sich weigerten, sich dem Klimaalarmismus zu beugen, als politische Eliten bei den Vereinten Nationen und anderswo versuchten, ihre Geschäfte zu unterbinden.

Warum eine Raffinerie jetzt?

Um zu verstehen, warum Amerika einen indischen Mischkonzern braucht, um seine erste Raffinerie seit 50 Jahren zu bauen, muss man sich den desolaten Zustand der Energie-Infrastruktur im Westen vor Augen führen.

[Hervorhebung vom Übersetzer]

In den Vereinigten Staaten sind etwa 132 Raffinerien in Betrieb, die täglich 18 Millionen Barrel verarbeiten können. Das Problem liegt in ihrer Konstruktion. Ingenieure bauten diese Anlagen vor Jahrzehnten, um schweres, saures Rohöl zu verarbeiten, importiert aus Ländern wie Venezuela oder Kanada. Sie sind völlig ungeeignet für die riesigen Mengen an leichtem, süßem Rohöl, die derzeit aus amerikanischen Schieferformationen sprudeln.

Die Fracking-Revolution verschaffte den Vereinigten Staaten eine mächtige geopolitische Waffe: unerschöpfliche Vorkommen an leichtem Schieferöl. Doch Umweltklagen und Klima-Panikmache verhinderten den Bau der für dessen Verarbeitung erforderlichen Anlagen. Das Brownsville-Projekt beseitigt diesen Engpass.

Trey Griggs von America First Refining bezeichnet es als „eines der wichtigsten Energieinfrastrukturprojekte im heutigen Amerika“. Die Planer gehen davon aus, dass an diesem Standort 1,2 Milliarden Barrel Leichtöl aus Schiefergestein im Wert von 125 Milliarden Dollar verarbeitet werden. Mit einer Jahreskapazität von 60 Millionen Barrel wird die Anlage einen Tiefwasserhafen nutzen, um den weltweiten Exportvertrieb zu dominieren.

Warum gerade dieses Unternehmen?

Die Wahl von Reliance Industries für diese historische Aufgabe ist die klügste Entscheidung, welche die Regierung treffen konnte. Reliance hat sich den Forderungen der Vereinten Nationen nach einem Ausstieg aus fossilen Brennstoffen nicht gebeugt. Das Unternehmen hat die Panikmache ignoriert. Stattdessen hat es sich dafür entschieden, eine fortschrittliche Energieinfrastruktur aufzubauen.

Reliance betreibt den Raffineriekomplex Jamnagar in Gujarat an der Westküste Indiens. Jamnagar ist ein Super-Standort, der an einem einzigen Standort bis zu 1,4 Millionen Barrel Rohöl pro Tag verarbeitet, und damit das größte Raffineriezentrum der Welt an einem einzigen Standort.

Der Nelson-Komplexitätsindex von Jamnagar – ein Maß für die Fähigkeit, Rohöl minderer Qualität in hochwertige Produkte umzuwandeln – stuft die Raffinerie weit höher als die meisten hochmodernen Anlagen in Nordamerika und Europa ein.

In der Praxis bedeutet dies, dass Reliance über 200 verschiedene Rohölsorten beziehen kann, darunter auch minderwertige Sorten, die viele westliche Anlagen nicht verarbeiten können, und diese in schwefelarmes Benzin, Diesel, Düsentreibstoff und petrochemische Ausgangsstoffe umwandeln kann.

Wenn Trump also sagt, die Anlage in Brownsville werde die „sauberste Raffinerie der Welt“ sein und sowohl den weltweiten Export als auch den heimischen Markt versorgen, stützt er sich dabei auf eine jahrzehntelange Erfolgsbilanz der indischen Küstenraffinerien.

Die US-Regierung importiert keine abstrakte „Kapazität“ aus Indien, sondern jahrzehntelanges Know-how, das in einer politischen Kultur entstanden ist, in der Kohlenwasserstoffe nicht verteufelt wurden.

Für ein Kohlenwasserstoff-Ökosystem

Während ein Großteil Westeuropas fossile Brennstoffe als ein Übel der Übergangsphase betrachtet, das so schnell wie möglich eingeschränkt werden muss, geht die Partnerschaft zwischen den USA und Indien in die entgegengesetzte Richtung. Sowohl Indien als auch die derzeitige US-Regierung haben sich für eine Politik entschieden, die als energie- und bevölkerungsfreundlich bezeichnet werden kann, anstatt Interessengruppen nachzugeben, die Kohlenwasserstoffe als moralischen Makel betrachten.

Präsident Trump hat seine Agenda als „America First“-Energiedominanz formuliert und verbindet Steuer- und Genehmigungsreformen mit ausdrücklicher politischer Unterstützung für Öl, Gas und Kohle – von der Bohrung über Pipelines bis hin zu Raffinerien.

Die indische Regierung hat ihrerseits verbindliche Zeitpläne für die Netto-Null-Emissionsziele abgelehnt und räumt zuverlässigen Energiequellen, industriellem Wachstum und der Schaffung von Arbeitsplätzen weiterhin Vorrang vor symbolischen Emissionszielen ein. Premierminister Narendra Modi feierte kürzlich einen bedeutenden nationalen Meilenstein und bezeichnete die Förderung von 1 Milliarde Tonnen Kohle als einen Moment, auf den das Land zutiefst stolz sein könne. Analysten gehen davon aus, dass Indiens jährliche Kohleförderung um 6 bis 7 % steigen wird.

Dieses offene Ökosystem – in dem Öl- und Gasprojekte vorangetrieben werden können und Kohle weiterhin Teil des Energiemix‘ bleibt – hat es regionalen Marktführern wie Reliance ermöglicht, ihre Kompetenzen in den Bereichen komplexe Raffinerietechnik, Logistik und die Umsetzung groß angelegter Projekte zu verfeinern.

Da Asien sich weigert, der Klimapanikmache nachzugeben, können westliche Länder nun Partnerschaften mit asiatischen Unternehmen eingehen, um ihre Energie- und Produktionskraft wieder aufzubauen, die durch eine Politik untergraben wurde, die den tatsächlichen Gegebenheiten nicht gerecht wird.

This commentary was first published at PJ Media on 31 March 2026.

Vijay Jayaraj

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India. He served as a research associate with the Changing Oceans Research Unit at University of British Columbia, Canada.

Link: https://clintel.org/india-helps-us-repair-green-wreckage/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Indien hilft den USA bei der Beseitigung der „grünen“ Trümmer erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Bixonimania: Wie KI eine Scherzdiagnose in „begutachtete“ Medizin verwandelte

veröffentlicht.
Vorschau ansehen

Schwedische Forscher erfanden eine fiktive Augenkrankheit, um zu testen, ob KI-Chatbots diese so wiedergeben würden, als wäre sie echt. Die Ergebnisse waren alles andere als lustig.

Geposted von Leslie Eastman, Legal Insurrection

Im Folgenden geht es zwar um Medizin und Gesundheit, aber es könnte stellvertretend für das stehen, was bei den Themen Klima und Energie gemacht wird.  – Hier noch einmal deutlicher das Eingangsbild. A. d. Übers.

Ende letzten Jahres habe ich vor dem erschreckenden Ausmaß an ungehemmtem wissenschaftlichem Betrug gewarnt, der über „Paper Mills“ und Scheinjournalen veröffentlicht wird.

Dieser Trend ist besonders besorgniserregend, da die Einhaltung wissenschaftlicher Theorien und strenger, reproduzierbarer Forschungsmethoden es der Menschheit ermöglicht, Fortschritte in entscheidenden Bereichen zu erzielen, die für ein zivilisiertes Leben unerlässlich sind (z. B. Medizin, Energie, öffentliche Gesundheit und nationale Sicherheit). Wenn wir den Daten nicht mehr vertrauen können, wird unsere Fähigkeit erheblich beeinträchtigt, Verbesserungen und Innovationen zu erzielen.

Das Vertrauen der Öffentlichkeit in die wissenschaftliche Forschung schwindet bereits, und falsche, als „vertrauenswürdig“ präsentierte Erkenntnisse haben die Politikgestaltung bereits auf kostspielige und schädliche Weise beeinflusst.

Nein, die rasante Verbreitung künstlicher Intelligenz fügt der zunehmenden Verzerrung der „Wissenschaft“ einen weiteren beunruhigenden Aspekt hinzu.

Bereits im Jahr 2024 erfanden Forscher eine fiktive Augenkrankheit namens „Bixonimanie“, um zu testen, ob KI-Chatbots diese so wiedergeben würden, als wäre sie real.

Sie verfassten offensichtlich gefälschte Forschungsarbeiten über diese erfundene Erkrankung und stellten sie online, wobei sie Hinweise wie einen falschen Autor und Anmerkungen einfügten, aus denen hervorging, dass es sich um eine Erfindung handelte. Innerhalb weniger Wochen begannen große Chatbots, Bixonimanie als echte Diagnose zu beschreiben und gaben den Nutzern sogar Ratschläge dazu, wenn diese nach Augensymptomen fragten.

Es handelt sich um eine Erfindung eines Teams unter der Leitung von Almira Osmanovic Thunström, einer medizinischen Forscherin an der Universität Göteborg in Schweden, die sich diese Hauterkrankung ausgedacht und Anfang 2024 zwei gefälschte Studien dazu auf einen Preprint-Server hochgeladen hat. Osmanovic Thunström führte dieses ungewöhnliche Experiment durch, um zu testen, ob große Sprachmodelle (LLMs) die Falschinformationen schlucken und sie anschließend als seriöse Gesundheitsempfehlungen wieder ausspucken würden. „Ich wollte sehen, ob ich eine Krankheit erfinden kann, die in der Datenbank nicht existiert“, sagt sie.

Das Problem war, dass das Experiment nur zu gut funktionierte. Nur wenige Wochen, nachdem sie Informationen über die Krankheit hochgeladen hatte, die sie einem fiktiven Autor zugeschrieben hatte, begannen große KI-Systeme, die erfundene Krankheit so zu wiederholen, als wäre sie real.

Noch beunruhigender ist laut anderen Forschern, dass die gefälschten Artikel anschließend in begutachteten Fachpublikationen zitiert wurden. Osmanovic Thunström sagt, dies deute darauf hin, dass sich manche Forscher auf von KI generierte Literaturangaben verlassen, ohne die zugrunde liegenden Artikel zu lesen.

Die Vorabdrucke enthielten einen Verweis auf die nicht existierende Asteria Horizon University in „Nova City, Kalifornien“. Außerdem wurde die „Starfleet Academy“ erwähnt (wobei ein zusätzlicher Verweis auf Dr. Leonard McCoy eine nette Geste gewesen wäre).

Der KI-Chatbot antwortet, dass die autoritative Beschreibung der Bixonimanie echt war.

Am 13. April 2024 erklärte Microsoft Bings Copilot, dass „Bixonimanie in der Tat eine faszinierende und relativ seltene Erkrankung ist“, und am gleichen Tag informierte Googles Gemini die Nutzer darüber, dass „Bixonimanie eine Erkrankung ist, die durch übermäßige Blaulichtbelastung verursacht wird“, und riet den Menschen, einen Augenarzt aufzusuchen.

Am 27. April 2024 gab Perplexity KI die Prävalenz an – einer von 90.000 Menschen sei betroffen – und im selben Monat teilte OpenAIs ChatGPT den Nutzern mit, ob ihre Symptome auf Bixonimanie hindeuteten. Einige dieser Antworten wurden durch Fragen nach Bixonimanie ausgelöst, andere waren Antworten auf Fragen zur Hyperpigmentierung der Augenlider durch Blaulichtbelastung.

Ein Forscher erfand eine fiktive Augenerkrankung namens Bixonimanie, lud zwei offensichtlich gefälschte Artikel darüber auf einen akademischen Server hoch und beobachtete, wie große KI-Systeme diese innerhalb weniger Wochen als echte Medizin präsentierten.

Die gefälschten Artikel bedankten sich bei der Starfleet Academy und verwiesen auf eine Finanzierung durch die…

— Hedgie (@HedgieMarkets) April 10, 2026

Thunströms Experiment macht deutlich, wie wenig Sorgfalt in die „Wissenschaft“ fließt, der wir eigentlich vertrauen sollen, denn ihre eingereichten Beiträge waren voller Warnsignale, die jedem sofort aufgefallen wären, der den Text tatsächlich gelesen hätte. Verweise auf die gefälschte Forschung fanden schließlich ihren Weg in eine „peer-reviewte“ Publikation.

• Drei Forscher des Maharishi Markandeshwar Institute of Medical Sciences and Research in Indien veröffentlichten einen Artikel in „Cureus“, einer von Springer Nature herausgegebenen Fachzeitschrift mit Peer-Review, in dem die „Bixonimania“-Preprints als seriöse Quellen zitiert worden waren.

• Dieser Artikel wurde später zurückgezogen, nachdem der Schwindel aufgedeckt worden war.

Das Problem geht weit über eine einzige erfundene Krankheit hinaus. Der „Health Technology Hazard Report 2026“ des ECRI stellte fest, dass Chatbots bei der Beantwortung medizinischer Fragen falsche Diagnosen gestellt, unnötige Tests empfohlen, minderwertige medizinische Produkte beworben und sogar nicht existierende anatomische Strukturen erfunden haben. All dies geschieht in dem selbstbewussten, autoritären Ton, der KI-Antworten so überzeugend macht.

Das Ausmaß des Risikos ist enorm. Laut einer Analyse von OpenAI nutzen täglich mehr als 40 Millionen Menschen ChatGPT, um sich über Gesundheitsthemen zu informieren. Da steigende Gesundheitskosten und die Schließung von Praxen den Zugang zur medizinischen Versorgung einschränken, werden wahrscheinlich noch mehr Patienten Chatbots als Ersatz für professionelle medizinische Beratung nutzen.

Wenn sich eine scherzhafte Diagnose in „peer-reviewte“ Forschung verwandelt, wird deutlich, dass die Krise der wissenschaftlichen Glaubwürdigkeit sich nicht mehr auf schlampige Forschung oder korrupte Fachzeitschriften beschränkt, sondern sich mittlerweile auch auf die Algorithmen ausweitet, auf die sich viele Menschen heute verlassen, um Antworten auf ernste Gesundheitsfragen zu erhalten.

Falsche Informationen und schlechte Daten können und werden von der KI zurückgespielt werden und die Grundlage für noch nutzlosere und potenziell schädliche „Wissenschaft“ bilden. Diese Situation ist alles andere als lustig.

Ich befürchte, dass es noch eine ganze Weile dauern wird, bis wir Betrugsforschung und die Nutzung gefälschter Informationen durch KI in den Griff bekommen.

Link: https://wattsupwiththat.com/2026/04/13/bixonimania-how-ai-turned-a-joke-diagnosis-into-peer-reviewed-medicine/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Bixonimania: Wie KI eine Scherzdiagnose in „begutachtete“ Medizin verwandelte erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Spannungen in der Straße von Hormus zwingen uns dazu, die materiellen Vorteile fossiler Brennstoffe zu neu zu bewerten

veröffentlicht.
Vorschau ansehen

Ronald Stein und Yoshihiro Muronaka

Die „Realität“ im Energiebereich zeigt uns, dass wir Raffinerien brauchen, um Rohöl in nutzbare Kraftstoffe und Produkte für den Verkehr umzuwandeln.

Die jüngsten Forderungen nach einer realistischeren Verlagerung von „Dekarbonisierung“ hin zu „kohlenstoffarm“ deuten darauf hin, dass sich in der öffentlichen Debatte endlich Unbehagen gegenüber einer ideologisch geprägten Klimapolitik bemerkbar macht. Seit Jahren werden Klimadiskussionen in vielen Ländern von abstrakten Zielen, Slogans und numerischen Verpflichtungen dominiert. Doch hinter diesen hehren Idealen verbirgt sich eine tiefgreifendere und praktischere Frage: Haben wir Energie viel zu eng gefasst? Die Spannungen in der Straße von Hormus Anfang 2026 haben diese Frage in den Vordergrund geschoben.

Heutzutage wird Energie unter dem Stichwort „Dekarbonisierung“ oft so behandelt, als sei sie gleichbedeutend mit Strom. Die öffentliche Diskussion konzentriert sich meist darauf, wie Strom ohne CO₂-Emissionen erzeugt werden kann, wie schnell Elektrofahrzeuge herkömmliche Autos ersetzen können oder inwieweit sich erneuerbarer Strom aus Windkraftanlagen und Solaranlagen ausweiten lässt. Das sind wichtige Fragen, aber sie geben nicht das ganze Bild wieder. Aus der Sicht eines Chemieingenieurs bedeutet die Reduzierung der Energiedebatte auf Strom allein, nur die Hälfte der Zivilisation zu sehen.

Fossile Brennstoffe sind nicht nur Vorleistungen für die Stromerzeugung. Sie sind auch unverzichtbare Rohstoffe für die moderne Industriewelt. Neben der Unterstützung von Verkehrssystemen verdanken mehr als 6.000 Produkte, die das tägliche Leben sichern – darunter Kleidung, medizinische Geräte, Düngemittel, Kunststoffe, synthetische Fasern, Baumaterialien, Reinigungsmittel, Verpackungen und unzählige Industriekomponenten – ihre Existenz den materiellen Vorteilen fossiler Brennstoffe. Erdöl und Erdgas werden nicht einfach verbrannt; sie werden in Rohstoffe umgewandelt, aus denen das moderne Leben aufgebaut ist.

Diese Differenzierung ist entscheidend. Wenn Politiker und Aktivisten so tun, als könne das Problem einfach dadurch gelöst werden, dass die Stromerzeugung aus fossilen Brennstoffen durch erneuerbare Energien ersetzt wird, übersehen sie die materielle Grundlage der modernen Zivilisation. Strom allein kann die petrochemischen Ketten nicht ersetzen, die Medizin, Sanitärversorgung, Erzeugung von Lebensmitteln, Logistik, Kommunikationsgeräte, Verkehr und Wohnungsbau stützen. Selbst eine Gesellschaft, der es gelingt, einen Großteil ihres Verkehrs- und Energiesystems zu elektrifizieren, stünde weiterhin vor der Frage, wie sie die immense Bandbreite an Materialien sichern kann, die derzeit aus fossilen Ressourcen gewonnen werden.

Aus diesem Grund verdient die petrochemische Industrie weitaus mehr Aufmerksamkeit als ihr in Klimadiskussionen üblicherweise zuteilwird. Aus fossilen Brennstoffen gewonnene Rohstoffe werden zu petrochemischen Grundstoffen wie Ethylen und Propylen verarbeitet, aus denen wiederum Tausende von Folgeprodukten entstehen. Dieses riesige Netzwerk von Verarbeitungsprozessen stützt nicht nur die Bereiche Bekleidung, Ernährung, Verkehr und Wohnen, sondern auch das medizinische und sanitäre System, von dem die öffentliche Gesundheit abhängt. Es ist in jeder Hinsicht ein fester Bestandteil des Gefüges der modernen Zivilisation.

Sobald wir dies verstanden haben wird klar, dass eine Unterbrechung der Versorgung mit fossilen Brennstoffen weit mehr bedeuten würde als nur höhere Benzinpreise oder vorübergehenden Druck auf die Stromerzeugung. Würden die Lieferungen ernsthaft unterbrochen, würden die Folgen fast jeden Bereich des täglichen Lebens betreffen. Die Kleidung, die wir tragen, die Medikamente, die wir einnehmen, die Smartphones, die wir nutzen, die Düngemittel, welche die Landwirtschaft am Leben erhalten, und sogar die Behälter und Verpackungen, in denen Lebensmittel und medizinische Güter transportiert werden – all dies wäre von Rohstoffengpässen betroffen. Die moderne Welt wird nicht nur von fossilen Brennstoffen angetrieben; sie ist materiell durch sie strukturiert.

Aus diesem Grund sind die jüngsten Spannungen in der Straße von Hormus von so großer Tragweite. Das Problem beschränkt sich nicht auf Geopolitik, den Tankerverkehr oder Schwankungen der Energiepreise. Die Straße von Hormus ist einer der wichtigsten Engpässe im globalen Energiesystem, und die dort herrschende Instabilität macht deutlich, wie verwundbar moderne Gesellschaften nach wie vor sind. Wenn Versorgungswege bedroht sind, steht nicht nur die Energiesicherheit im engeren Sinne auf dem Spiel, sondern auch die Aufrechterhaltung der materiellen Systeme, die das alltägliche Leben sichern.

Im Frühjahr 2026 wurde die Kluft zwischen Ideologie und Realität auf einen Schlag sichtbar. Die Spannungen in der Straße von Hormus sowie die schmerzhafte Erinnerung daran, dass einige Länder wie beispielsweise Japan auf endliche, in Tagen gemessene Vorräte an importierten fossilen Brennstoffen angewiesen sind, waren nicht bloß Statistik.

Sie waren eine Warnung vor der Fragilität des Alltags selbst. Zahlen wie diese mögen trocken und technisch anmuten, doch dahinter verbirgt sich eine einfache Wahrheit: Wenn Lieferketten lange genug unter Druck stehen, werden die Auswirkungen nicht nur auf den Kraftstoffmärkten spürbar sein, sondern auf die gesamte Bandbreite an Gütern, von denen die moderne Gesellschaft abhängt.

Was lange Zeit unter der Rhetorik der Dekarbonisierung verborgen geblieben war, wurde durch die Krise plötzlich ans Licht gebracht. Die „Dichte der Zivilisation“ wurde wieder sichtbar. Damit meine ich das dichte, vernetzte und oft unsichtbare materielle Netzwerk, das das menschliche Wohlergehen stützt: Industriechemie, Fertigung, Transport, Abwasserentsorgung, Kommunikation, Gesundheitswesen, Landwirtschaft und Bauwesen. Dies sind keine nebensächlichen oder optionalen Merkmale des modernen Lebens. Sie sind dessen Substanz. Und diese Krise hat gezeigt, dass mehr als 6.000 für das tägliche Leben unverzichtbare Produkte gleichzeitig gefährdet sein könnten.

Das bedeutet keineswegs, dass Umweltprobleme ignoriert werden sollten oder dass Gesellschaften ihre Bemühungen zur Abfallvermeidung, Effizienzsteigerung und Förderung sauberer Technologien aufgeben sollten. Es bedeutet jedoch, dass die Energiepolitik von einem ehrlicheren Verständnis der Realität ausgehen muss. Eine Zivilisation lässt sich nicht mit Schlagworten aufrechterhalten. Ebenso wenig können politische Entscheidungsträger verantwortungsvoll die Zukunft gestalten, wenn sie so tun, als seien fossile Brennstoffe nichts weiter als ein schmutziges Erbe, das man einfach entsorgen kann. Sie sind auch Teil der materiellen Infrastruktur des Lebens, wie wir es kennen.

Die eigentliche Herausforderung besteht daher nicht darin, diese Abhängigkeit zu leugnen, sondern sie klug zu bewältigen. Eine ausgereifte Energiepolitik sollte nicht auf vereinfachende moralische Reinheit abzielen, sondern auf Widerstandsfähigkeit, Umsicht und Realismus. Sie sollte der Frage nachgehen, wie Gesellschaften ihre Lebensqualität bewahren, stabile Lieferketten aufrechterhalten, unnötigen Abfall reduzieren und begrenzte Ressourcen intelligent nutzen können. Sie sollte auch anerkennen, dass der technologische Wandel Zeit braucht und dass das Erzwingen von Veränderungen ohne Rücksicht auf die materiellen Gegebenheiten zu Engpässen, Instabilität und unnötigem Schaden führen kann.

Sich der Realität zu stellen, ist kein Akt der Resignation. Im Gegenteil, es ist die aufrichtigste und zukunftsorientierteste Vorgehensweise. Es bedeutet, die Spannung zwischen Idealen und praktischer Notwendigkeit anzuerkennen und gleichzeitig weiterhin stetige und verantwortungsvolle Schritte zu unternehmen. Von diesem Ausgangspunkt aus können wir beginnen, die Energiepolitik so neu zu gestalten, dass sie sowohl nachhaltig als auch menschlich ist – eine Politik, welche die Umwelt respektiert ohne die materiellen Grundlagen der Zivilisation selbst zu vergessen.

Please share this information with teachers, students, and friends to encourage Energy Literacy conversations at the family dinner table.

Ronald Stein, P.E., is an engineer, columnist on energy literacy at America Out Loud NEWS, and advisor on energy literacy for the Heartland Institute and CFACT, and co-author of the Pulitzer Prize-nominated book “Clean Energy Exploitations.” He is also the recipient of an unsolicited Tribute to Ronald Stein from Stephen Heins.

Yoshihiro Muronaka, P.E. Jp is a chemical engineer who currently focuses on evaluating net-zero and decarbonization policies, advocating alternative energy concepts such as “carbon symbiosis,” and promoting balanced international energy cooperation.

Published April 13, 2026, in America Out Loud News

Link: https://wattsupwiththat.com/2026/04/15/tensions-in-the-strait-of-hormuz-force-us-to-reconsider-the-material-benefits-of-fossil-fuels/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Spannungen in der Straße von Hormus zwingen uns dazu, die materiellen Vorteile fossiler Brennstoffe zu neu zu bewerten erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Brief von Happer, Lindzen, Koonin an das Federal Judicial Center

veröffentlicht.
Vorschau ansehen

Richard Lindzen, Ph. D.
Professor of Earth, Atmospheric, and Planetary Sciences, Emeritus Professor of Physics
Massachusetts Institute of Technology

William Happer, Ph. D.
Emeritus Professor of Physics, Princeton University

Steven Koonin, Ph. D.
Edward Teller Senior Fellow Hoover Institution, Stanford University

Datum: 1. April 2026:

The Honorable John G. Roberts
Chair, Federal Judicial Center
Chief Justice, United States Supreme Court
One First Street, NE
Washington, DC 20543

cc: Federal Judicial Center Board and Director

Re: “How Science Works” Chapter in the Reference Manual on Scientific Evidence: 4th Edition

[Betreff: Kapitel „Wie Wissenschaft funktioniert“ im Referenzhandbuch zu wissenschaftlichen Beweisen: 4. Auflage]

Sehr geehrter Chief Justice Roberts:

Das „Reference Manual on Scientific Evidence“ wird von der [US-]Bundes- und der einzelstaatlichen Justiz seit langem wegen seiner Neutralität, Klarheit und Zurückhaltung geschätzt. Es wird von mehr als 3.000 Bundesrichtern und zahlreichen einzelstaatlichen Richtern genutzt und wurde in über 1.700 Gerichtsurteilen zitiert. Sein Zweck bestand stets darin, Gerichte bei der Bewertung wissenschaftlicher Beweise zu unterstützen – und nicht darin, bestimmte wissenschaftliche, politische oder strategische Ziele voranzutreiben.

Wir schreiben Ihnen, um unsere ernsthafte Besorgnis über die vor einigen Monaten erschienene vierte Auflage des Handbuchs zum Ausdruck zu bringen. Mehrere Kapitel weichen deutlich von der langjährigen Tradition der Neutralität des Handbuchs ab.

1.  Das gestrichene Kapitel zur Klimawissenschaft deckte strukturelle Probleme auf

Das auffälligste Beispiel war der „Leitfaden zur Klimawissenschaft“, der zurückgezogen wurde, nachdem ein Schreiben von 28 Generalstaatsanwälten tiefgreifende Interessenkonflikte und zahlreiche unbegründete Behauptungen dokumentiert hatte, die als gesicherte Tatsachen dargestellt worden waren.

Als Berufsphysiker mit jahrzehntelanger Erfahrung in den Bereichen Atmosphärendynamik, Strahlungstransport und Modellierung komplexer Systeme wie dem Klima – und mit insgesamt mehr als 600 begutachteten Veröffentlichungen – waren wir besonders besorgt über die wissenschaftlichen und verfahrenstechnischen Mängel dieses Kapitels. (Unsere Lebensläufe sind beigefügt.)

2.  Das verbleibende Kapitel „Wie Wissenschaft funktioniert“ weist ähnliche Mängel auf.

Obwohl das Kapitel zum Thema Klima entfernt worden ist, bleibt das Kapitel, auf dem es beruhte – „How Science Works“ – erhalten. Dieses 65 Seiten umfassende Kapitel ersetzt die wesentlich kürzere und weithin anerkannte 18-seitige Fassung, die David Goodstein, ehemaliger Vizerektor des Caltech, für frühere Ausgaben verfasst hatte. Das neue Kapitel nimmt keinen Bezug auf die frühere Fassung und ähnelt ihr weder inhaltlich noch im Ton.

Der Hauptautor des neuen Kapitels Professor Michael Weisberg ist ein Philosoph, der auch als Klimadiplomat und Berater mehrerer nationaler Delegationen bei den Verhandlungen der Konferenz der Vertragsparteien der UN-Klimarahmenkonvention (COP) tätig ist. In seiner öffentlichen Biografie wird seine Arbeit bei der Entwicklung von Strategien zur Sicherung klimabezogener Finanztransfers für kleine Inselstaaten hervorgehoben. Diese Rollen disqualifizieren ihn an sich nicht. Sie erwecken jedoch eindeutig den Anschein eines Interessenkonflikts, wenn es darum geht, ein Kapitel zu verfassen, das Richtern als Leitfaden dienen soll, was legitime wissenschaftliche Beweise ausmacht – insbesondere in Rechtsstreitigkeiten, in denen möglicherweise Billionen von Dollar auf dem Spiel stehen.

3.  Das neue Kapitel stützt sich auf einen konzeptionellen und nicht auf einen wissenschaftlichen Ansatz.

Im allerersten Absatz wird behauptet, dass „PR-Kampagnen die Öffentlichkeit über den tatsächlichen Stand des wissenschaftlichen Konsenses in die Irre geführt haben“, wobei auf das Buch „Merchants of Doubt“ von Naomi Oreskes und Erik Conway verwiesen wird. Dieses Buch – und der darauf basierende Film – argumentieren ausdrücklich, dass es unter „echten Wissenschaftlern“ „keinerlei Meinungsverschiedenheiten“ hinsichtlich des katastrophalen Klimawandels gebe.

Diese Darstellung ist für einen juristischen Referenztext unangemessen. Sie präsentiert umstrittene Behauptungen als feststehende Tatsachen und impliziert, dass abweichende Wissenschaftler – darunter Tausende von anerkannten Forschern – keine „echten Wissenschaftler“ seien. Das ist keine neutrale Beschreibung wissenschaftlicher Praxis; es ist eine Position, die eine bestimmte Sichtweise vertritt.

4.  Der Goldstandard der Wissenschaft ist die Vorhersage, die an der Realität gemessen wird.

Als Wissenschaftler stimmen wir dem Obersten Gerichtshof in der Rechtssache Daubert voll und ganz zu, wonach wissenschaftliche Erkenntnisse nach der wissenschaftlichen Methode gewonnen werden müssen:

„Damit eine Schlussfolgerung oder Behauptung als ‚wissenschaftliche Erkenntnis‘ gelten kann, muss sie nach der wissenschaftlichen Methode gewonnen worden sein. *** ‚Die wissenschaftliche Methodik basiert heute darauf, Hypothesen aufzustellen und diese zu überprüfen … diese Methodik ist es, die die Wissenschaft von anderen Bereichen menschlichen Forschens unterscheidet.‘“ Daubert gegen Merrell Dow Pharmaceuticals, Inc., 509 U.S. 579, 590, 593 (1993) (Zitate weggelassen).

Prof. Richard Feynman, Nobelpreisträger für Physik, erklärte die wissenschaftliche Methode prägnant wie folgt:

„Wir vergleichen das Ergebnis der Berechnung [einer Theorie] mit der Natur, … vergleichen es direkt mit Beobachtungen, um zu sehen, ob es funktioniert. Wenn es mit dem Experiment nicht übereinstimmt, ist es falsch. In dieser einfachen Aussage liegt der Schlüssel zur Wissenschaft.“ The Character of Physical Law (1965), S. 150.

Seit Jahrhunderten beruht der wissenschaftliche Fortschritt auf der Fähigkeit, gewagte Vorhersagen zu treffen – Vorhersagen, die sich leicht als falsch erweisen könnten – und diese dann anhand von Experimenten oder Beobachtungen zu überprüfen. Dieser empirische Zyklus ist der Goldstandard wissenschaftlichen Verständnisses. Er hat es der Menschheit ermöglicht, die Gesetze der Bewegung, des Elektromagnetismus, der Thermodynamik, der Quantenmechanik, der Genetik und unzähliger anderer Säulen des modernen Wissens zu entdecken.

Historisch gesehen war die wissenschaftliche Methode eine neue Denkweise, welche die wissenschaftliche Revolution auslöste. Sie unterscheidet sich von anderen gängigen Denkweisen dadurch, dass sie Theorien anhand von Beobachtungen überprüft, wobei die Fakten maßgeblich sind:

Die wissenschaftliche Methode „ist ein vehementes und leidenschaftliches Interesse am Verhältnis allgemeiner Prinzipien zu irreduziblen und hartnäckigen Tatsachen. Überall auf der Welt und zu allen Zeiten gab es praktische Menschen, die sich mit ‚irreduziblen und hartnäckigen Tatsachen‘ beschäftigten; überall auf der Welt und zu allen Zeiten gab es Menschen mit philosophischem Temperament, die sich mit der Ausarbeitung allgemeiner Prinzipien beschäftigten. Es ist diese Verbindung aus leidenschaftlichem Interesse an den detaillierten Fakten mit gleicher Hingabe an abstrakte Verallgemeinerungen, die das Neue in unserer heutigen Gesellschaft ausmacht.“ Alfred North Whitehead, Science and the Modern World (1925) 3.

Das neue Kapitel ignoriert die oben vom Obersten Gerichtshof erläuterte wissenschaftliche Methode und behauptet fälschlicherweise, es sei ein „Mythos“, dass es eine einzige wissenschaftliche Methode gebe, und erklärt stattdessen, es handele sich um einen unverständlichen Prozess:

„Mythos: Es gibt eine einzige wissenschaftliche Methode, der alle Wissenschaftler folgen.

„Fakt: Der wissenschaftliche Prozess ist nichtlinear und dynamisch.“ Ebenda, S. 102.

Wie oben dargelegt, ist die Behauptung im neuen Kapitel „Wie Wissenschaft funktioniert“, es sei ein „Mythos“, dass es eine einzige wissenschaftliche Methode gebe, wissenschaftlich grundlegend falsch. Die wissenschaftliche Methode ist seit der wissenschaftlichen Revolution die Grundlage der modernen Wissenschaft.

Im Gegensatz zu dem neuen Kapitel erklärte Prof. David Goodstein in seinem Kapitel „How Science Works“ in früheren Ausgaben des Reference Manual, dass wissenschaftliches Wissen durch die wissenschaftliche Methode gewonnen wird:

„Kurz gesagt, das Wesen der Wissenschaft ist die wissenschaftliche Methode.“ Referenzhandbuch, 3. Auflage, S. 39.

Er erläuterte die wissenschaftliche Methode im Wesentlichen genauso wie der Oberste Gerichtshof und Prof. Feynman:

„Was von einer Theorie in der Wissenschaft verlangt wird ist, dass sie neue Vorhersagen trifft, die durch neue Experimente oder Beobachtungen überprüft und widerlegt oder bestätigt werden können.“ Ebenda, S. 51.

Er betonte, dass „Daten das A und O der Wissenschaft sind und stets mit Ehrfurcht behandelt werden müssen.“ Ebenda, S. 47.

Unter Berufung auf Galileo bemerkte er: „In wissenschaftlichen Fragen ist die Autorität von Tausenden nicht so viel wert wie die bescheidene Argumentation einer einzigen Person.“ Ebenda, S. 47. Das heißt, Konsens ist in der Wissenschaft kein Maßstab.

Er merkte auch an, dass die wissenschaftliche Methode und die juristische Methode im Grunde genommen identisch sind, was für Richter und Anwälte ohne wissenschaftliche Ausbildung hilfreich und beruhigend sein dürfte:

„Wissenschaft und Recht verfolgen auf der tiefsten Ebene die gleichen Ziele und wenden viele der gleichen Methoden an … indem sie sich auf empirische Belege stützen, um zu rationalen Schlussfolgerungen zu gelangen.“ Ebenda, S. 52.

5.  Konsens ist nicht die Grundlage von Wissenschaft.

Das neue Kapitel hebt wiederholt den „wissenschaftlichen Konsens“ und die „breite Akzeptanz“ als bestimmendes Merkmal wissenschaftlicher Validität hervor. In einem Abschnitt mit dem Titel „Erreichen eines wissenschaftlichen Konsens’“ wird „Abbildung 3. Indikatoren für wissenschaftlichen Konsens“ vorgestellt, ein Spektrum von „niedrig“ bis „hoch“ der „Wahrscheinlichkeit, dass ein Konsens über eine Hypothese erreicht wurde“. Ebenda, S. 97.

Anschließend wird behauptet, dass „das höchste Maß an Gewissheit, das die Wissenschaft bieten kann“, dann vorliegt, wenn eine Theorie „breite Akzeptanz erlangt hat“. Ebenda, S. 97. Ferner wird behauptet: „Breite Akzeptanz ist ein starker Indikator für die Zuverlässigkeit wissenschaftlich gewonnenen Wissens.“ Ebenda, S. 96.

Doch Konsens ist ein soziologisches Phänomen, nicht die wissenschaftliche Methode. Michael Crichton stellte in einem bekannten Vortrag fest: 1

„Es gibt keine Wissenschaft des Konsens‘. Wenn es Konsens ist, ist es keine Wissenschaft. Wenn es Wissenschaft ist, ist es kein Konsens.“

Konsens ist ein minderwertiger und von Natur aus fragiler Ersatz für den Goldstandard der Wissenschaft: überprüfbare Vorhersagen, die mit Daten überprüft werden. Er wird vor allem in Bereichen herangezogen, in denen kontrollierte Experimente schwierig oder unmöglich sind und Vorhersagen nicht eindeutig überprüft werden können. Er ist anfällig für Gruppendenken, die Abhängigkeit von Fördermitteln und die natürliche menschliche Abneigung, Fehler einzugestehen.

Wissenschaftlicher Fortschritt – von Galileo über Curie bis hin zu Einstein – erforderte oft einen Bruch mit dem Konsens, und die Geschichte bietet viele Beispiele, in denen ein vorherrschender Konsens später widerlegt wurde, darunter der Lysenkoismus in der Sowjetunion, der lange Widerstand gegen die Plattentektonik und der kurze Konsens Mitte des 20. Jahrhunderts über eine bevorstehende globale Abkühlung. Auch wenn ein Konsens durch ein einziges Experiment oder eine einzige Beobachtung widerlegt werden kann, kann er noch lange bestehen bleiben, nachdem sich gegenteilige Beweise angesammelt haben, gerade weil er eher sozial als empirisch aufrechterhalten wird.

Diese soziale Aufrechterhaltung des Konsens‘ macht es auch wichtig, die Meinungen von anerkannten Experten aus anderen Fachgebieten nicht von vornherein abzulehnen, da diese nicht durch Konsensdenken oder Belohnungen eingeschränkt sein müssen.

Das neue Kapitel führt das Ozonloch über der Antarktis als Beispiel für einen gut funktionierenden Konsens an. Doch selbst hier ist das wissenschaftliche Bild komplexer, als es das Kapitel vermuten lässt. Das Ozonloch über der Antarktis im Frühjahr tritt seit seiner Entdeckung im Jahr 1979, als die weltweite Satellitenkartierung begann, jedes Jahr auf. Trotz eines erheblichen Rückgangs der Halogenkonzentrationen in der Stratosphäre infolge des Montrealer Protokolls haben sich Größe und Tiefe des Ozonlochs kaum systematisch verändert. Es gibt nach wie vor wissenschaftlich fundierte Gründe, daran zu zweifeln, dass vom Menschen emittierte Halogene die Hauptursache für dieses Phänomen sind. Als Beispiel für „Konsenswissenschaft“ ist das Ozonloch alles andere als eindeutig.

Hätte das Kapitel ein anschauliches Beispiel dafür gesucht, wie die Wissenschaft die Politik beeinflussen sollte, wäre der kausale Zusammenhang zwischen Zigarettenrauchen und Lungenkrebs weitaus passender gewesen. Dieser Zusammenhang stützt sich auf übereinstimmende Beweislinien, starke statistische Zusammenhänge, ein Verständnis der Wirkmechanismen und Vorhersagen, die durch Beobachtungen wiederholt bestätigt worden sind. Er veranschaulicht die empirische Strenge, von der sich die gerichtliche Bewertung wissenschaftlicher Behauptungen leiten lassen sollte.

Zusammenfassend lässt sich sagen, dass die neue Aussage im Kapitel „How Science Works“, wonach „breite Akzeptanz“ und „wissenschaftlicher Konsens“ „das höchste Maß an Gewissheit darstellen, das die Wissenschaft bieten kann“, und „einen starken Indikator für die Zuverlässigkeit wissenschaftlich gewonnenen Wissens liefern“, eine eklatante Falschdarstellung dessen ist, was Wissenschaft seit der wissenschaftlichen Revolution im 17. Jahrhundert ausmacht – nämlich eine Disziplin, die auf der wissenschaftlichen Methode basiert.

Einfach ausgedrückt: Wenn es Konsens ist, ist es keine Wissenschaft.

6.  In diesem Kapitel wird die Wissenschaft fälschlich als ein von der Gemeinschaft gelenktes Unterfangen dargestellt

Überschriften wie „Wissenschaft wird von einer Gemeinschaft betrieben, die ihre Mitglieder an Normen bindet“ und „Wissenschaft als menschliches und gemeinschaftliches Unterfangen“ beschreiben etwas, das eher einer politischen Partei oder einem religiösen Orden ähnelt als der wissenschaftlichen Methode. Wissenschaft ist zwar in der Tat eine menschliche Tätigkeit, doch ihre Autorität leitet sich aus reproduzierbaren Ergebnissen ab, nicht aus Gemeinschaftsnormen oder einem Mehrheitskonsens.

Das frühere Kapitel von Goodstein hat diesen Unterschied klar und prägnant herausgearbeitet. Die neue Fassung verschleiert ihn.

7.  Empfehlungen

Wir begrüßen, dass das Federal Judicial Center das Kapitel „Reference Guide on Climate Science“ aus dem neuen Referenzhandbuch entfernt hat, da es nicht die neutrale und sachliche Darstellung wissenschaftlicher Erkenntnisse bietet, für die das Handbuch bekannt ist. 2

Da das Kapitel „How Science Works“ größtenteils zur Untermauerung des nun zurückgezogenen Klimakapitels verfasst worden ist – und da es so drastisch von der Tradition der Neutralität des Handbuchs abweicht –, empfehlen wir respektvoll, dass auch dieses Kapitel zurückgezogen wird, bevor Bundes- und Landesrichter fälschlich dazu verleitet werden, es zur Zulassung oder zum Ausschluss wissenschaftlicher Beweise heranzuziehen, und seine pseudowissenschaftlichen Inhalte mehr als 1.000 klimabezogene Fälle vor Landes- und Bundesgerichten verfälschen.

Wir empfehlen außerdem respektvoll, es durch die frühere Goodstein-Version zu ersetzen, die nach wie vor eine prägnante, genaue und ideologiefreie Erklärung wissenschaftlicher Argumentation darstellt, die für die Verwendung in der Rechtsprechung geeignet ist.

Darüber hinaus teilte der Direktor des Zentrums Richter Rosenberg dem Generalstaatsanwalt von West Virginia John McCuskey in einem Schreiben vom 24. Februar mit, dass die Nationale Akademie der Wissenschaften (NAS) das Kapitel „Reference Guide on Climate Science“ nicht aus ihrer Ausgabe des Referenzhandbuchs entfernen werde: „Die Akademien werden in ihren Online- und Druckausgaben des RMSE einen mit einem Sternchen gekennzeichneten Hinweis einfügen, der darauf hinweist, dass das FJC das Kapitel aus seiner Ausgabe des Handbuchs gestrichen hat.“ Wir empfehlen dem Center höflich, die NAS anzuweisen, sowohl das Kapitel „How Science Works“ als auch das Kapitel „Reference Guide on Climate Science“ aus ihrer Version des Reference Manual on Scientific Evidence: 4th Edition des Federal Judicial Center zu entfernen.

Bitte teilen Sie uns abschließend mit, ob das Center plant, diese Schritte umgehend zu unternehmen.

Wir schätzen das langjährige Engagement des Federal Judicial Center, Richtern zuverlässige und unvoreingenommene Leitlinien zur Verfügung zu stellen. Die Gewährleistung, dass das Handbuch frei von Interessenvertretung und Interessenkonflikten bleibt, ist für die Aufrechterhaltung dieses Vertrauens von entscheidender Bedeutung.

Mit freundlichen Grüßen,

Richard Lindzen

I am an Alfred P. Sloan Professor of Atmospheric Science Emeritus at MIT. After completing my doctorate at Harvard in 1964 (with a thesis on the interaction of photochemistry, radiation and dynamics in the stratosphere), I did postdoctoral work at the University of Washington and at the University of Oslo before joining the National Center for Atmospheric Research as a staff scientist. At the end of 1967, I moved to the University of Chicago as a tenured associate professor, and in 1971 I returned to Harvard to assume the Gordon McKay Professorship (and later the Burden Professorship) in Dynamic Meteorology. In 1981 I moved to MIT to assume the Alfred P. Sloan Professorship in Atmospheric Sciences. I have also held visiting professorships at UCLA, Tel Aviv University, and the National Physical Laboratory in Ahmedabad, India, and the Hebrew University in Jerusalem, the Jet Propulsion Laboratory in Pasadena, and the Laboratory for Dynamic Meteorology at the University of Paris.

I developed our current understanding of the quasi-biennial oscillation of the tropical stratosphere, the current explanation for dominance of the solar semidiurnal and diurnal tides at various levels of the atmosphere, the role of breaking gravity waves as a major source of friction in the atmosphere, and the role of this friction in reversing the meridional temperature gradient at the tropopause (where the equator is the coldest latitude) and the mesopause (where temperature is a minimum at the summer pole and a maximum at the winter pole). I have also developed the basic description of how surface temperature in the tropics controls the distribution of cumulus convection and led the group that discovered the iris effect where upper-level cirrus contract in response to warmer surface temperatures. I have published approximately 250 papers and books. I am an award recipient of the American Meteorological Society and the American Geophysical Union. I am a fellow of the American Meteorological Society, the American Geophysical Union and the American Association for the Advancement of Science, and a member of the National Academy of Sciences and the American Academy of Arts and Sciences.

I have served as the director of the Center for Earth and Planetary Sciences at Harvard and on numerous panels of the National Research Council. I was also a lead author on the Third Assessment Report of the UN’s Intergovernmental Panel on Climate Change – the report for which the IPCC shared the Nobel Peace Prize with Al Gore.

William Happer

I am a Professor Emeritus in the Department of Physics at Princeton University.

I began my professional career in the Physics Department of Columbia University in 1964, where I served as Director of the Columbia Radiation Laboratory from 1976 to 1979. I joined the Physics Department of Princeton University in 1980.

I invented the sodium guidestar that is used in astronomical adaptive optics systems to correct the degrading effects of atmospheric turbulence on imaging resolution. I have published over 200 peer-reviewed scientific papers, am a Fellow of the American Physical Society, the American Association for the Advancement of Science, and a member of the American Academy of Arts and Sciences, the National Academy of Sciences and the American Philosophical Society.

I served as Director of Energy Research in the U.S. Department of Energy from 1991 to 1993. I was a co-founder in 1994 of Magnetic Imaging Technologies Incorporated (MITI), a small company specializing in the use of laser-polarized noble gases for magnetic resonance imaging. I served as Chairman of the Steering Committee of JASON from 1987 to 1990.

I served as Deputy Assistant to the President and Senior Director for Emerging

Technologies at The National Security Council in the White House from 2018 to 2019.

I am the Chair of the Board of Directors of the CO2 Coalition, a nonprofit 501(c)(3) organization established in 2015 to educate thought leaders, policy makers and the public about the vital contribution made by carbon dioxide to our lives and our economy.

Steven E. Koonin

I am the Edward Teller Senior Fellow at Stanford University’s Hoover Institution, which I joined in September 2024.

Prior to that, I was a University Professor at New York University, where I held appointments as a Professor of Information, Operations, and Management Sciences in the Stern School of Business and a Professor of Civil and Urban Engineering in the Tandon School of Engineering while serving as the Founding Director of the Center for Urban Science and Progress (CUSP).

I served as Undersecretary for Science at the U.S. Department of Energy from May 2009, following my confirmation by the U.S. Senate, until November 2011.

Prior to joining the government, I spent five years, from March 2004 to May 2009, as Chief Scientist for BP, p.l.c.

From September 1975 to July 2006, I was a professor of theoretical physics at Caltech and was the Institute’s Provost from February 1995 to January 2004.

I was a director of CERES, Inc., a publicly traded company pursuing genetically enhanced bioenergy crops, from 2012 to 2015 and have been an Independent Director of GP Strategies (now GP Government Solutions) since 2016.

My memberships include the U.S. National Academy of Sciences, the American Academy of Arts and Sciences, the Council on Foreign Relations. I am a former member of the Trilateral Commission. I am a member of the JASON advisory group from July 1988 to May 2009, and from November 2011 to present, and served as the group’s chair from 1998 to 2004.

I have served as an independent governor of the Los Alamos, of Lawrence Livermore National Security LLC since July 2012, and of the Sandia Corporation from 2016 to 2017 and was a member of the Secretary of Energy’s Advisory Board from 2013 to 2016. I have also served as a Trustee of the Institute for Defense Analyses from 2014 to 2025.

I hold a B.S. in Physics from Caltech (1972) and a Ph.D. in Theoretical Physics from MIT (1975).

cc:
Judge Kathleen Cardone, U.S. District Court for the Western District of Texas
Judge Sara L. Ellis, U.S. District Court for the Northern District of Illinois
Judge Ralph R. Erickson, U.S. Court of Appeals for the Eighth Circuit
Judge Michelle M. Harner, U.S. Bankruptcy Court for the District of Maryland
Judge Suzanne Mitchell, U.S. District Court for the Western District of Oklahoma
Judge Kevin C. Newsom, U.S. Court of Appeals for the Eleventh Circuit
Judge B. Lynn Winmill, U.S. District Court for the District of Idaho
Judge Robert J. Conrad, Jr., Director of the Administrative Office of the U.S. Courts
Judge Robin L. Rosenberg, Director of the Federal Judicial Center

1 Michael Crichton, Aliens Cause Global Warming, Caltech Michelin Lecture (Jan. 17, 2003).

2 Its fundamental scientific flaws are detailed in Profs. Lindzen’s and Happer’s paper Physics Demonstrates That Increasing Greenhouse Gases Cannot Cause Dangerous Warming, Extreme Weather or Any Harm and in Prof. Koonin’s book Unsettled (2d. ed. 2024).

Link: https://wattsupwiththat.com/2026/04/12/happer-lindzen-koonin-letter-to-the-federal-judicial-center/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Brief von Happer, Lindzen, Koonin an das Federal Judicial Center erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Matt Ridley glaubt, dass das Klima-Geplapper fast am Ende ist

veröffentlicht.
Vorschau ansehen

Peter Baeten, Clintel

In seinem jüngsten ICSF/Clintel-Vortrag argumentierte Matt Ridley, dass die öffentliche und politische Dynamik hinter dem Narrativ der „Klimakrise“ nachlässt, und er untersuchte die Gründe für diesen Wandel sowie dessen Auswirkungen.

In einem Leitartikel im Magazin „The Spectator“ erklärte der britische Wissenschaftsautor, Journalist und Geschäftsmann Matt Ridley kürzlich: „Endlich, Gott sei Dank, ebt der Hype um die globale Erwärmung ab. Um Monty Python zu paraphrasieren: Der Klimapapagei mag zwar noch immer an seiner Stange auf dem COP-Gipfel in Belém, Brasilien – oder in Harvard und auf CNN [und in D; A. d. Übers.]– festgenagelt sein, aber anderswo ist er tot.“ Er sagte auch, dass Bill Gates’ Entschuldigung, in der er einräumte, dass die globale Erwärmung „nicht zum Untergang der Menschheit führen wird“, nachdem er das Büro für Politik und Interessenvertretung seiner klimapolitischen Wohltätigkeitsgruppe geschlossen hatte, ein weiterer Nagel im Sarg der Klimapanik sei. Der Rückgang des Klimaalarmismus‘ war das zentrale Thema in Ridleys ICSF/Clintel-Vortrag: „The Great Climate Climbdown“ (1. April).

Nachlassen

In seinem Vortrag erläuterte Ridley, warum seiner Ansicht nach der „Klima-Alarm“ nachlässt. Ein wesentlicher Faktor ist das schwindende Vertrauen der Öffentlichkeit in wissenschaftliche und institutionelle Autoritäten, insbesondere nach der COVID-19-Pandemie. Laut Ridley „hat die COVID-Pandemie dazu geführt, dass die Menschen der Wissenschaft und den Experten misstrauen“, und diese Skepsis habe sich auf die Klimadebatten ausgeweitet. Er argumentierte zudem, dass übertriebene Vorhersagen und viel beachtete Fehler die Glaubwürdigkeit untergraben hätten.

Als entscheidenden Faktor nannte Ridley jedoch die wirtschaftlichen Realitäten. Er betonte, dass die versprochene Erschwinglichkeit der Dekarbonisierung nicht eingetreten sei: „Sie erweist sich als kostspielig, unbequem und regressiv.“ Seiner Ansicht nach belasten steigende Energiepreise einkommensschwache Haushalte unverhältnismäßig stark, was Klimapolitik politisch und gesellschaftlich umstritten macht. Dieser wirtschaftliche Druck hat die Aufmerksamkeit auf Energiesicherheit und Erschwinglichkeit gelenkt, insbesondere in Regionen wie den Vereinigten Staaten und Teilen Asiens.

Ein zentrales Thema in Ridleys Argumentation ist das Versagen erneuerbarer Energien – insbesondere Wind- und Solarenergie –, zuverlässige und skalierbare Lösungen zu liefern. Er beschrieb diese Quellen als von Natur aus unbeständig und argumentierte, dass „der Übergang zu ihnen einfach nicht zustande kommt“. Ohne erneuerbare Energien gänzlich abzulehnen, stellte er die Frage, warum die Sorge um den Klimawandel oft mit einer starken Unterstützung für genau diese Technologien gleichgesetzt wird.

[Hervorhebung vom Übersetzer]

Schiefer-Revolution

Im Gegensatz dazu hob Ridley die tiefgreifenden Auswirkungen der Schieferrevolution hervor, insbesondere in den Vereinigten Staaten. Fortschritte bei der Förderung von Öl und Gas aus Schieferformationen haben das Angebot drastisch erhöht und die Bedenken hinsichtlich einer Ressourcenverknappung gemindert. Er argumentierte, dass diese Entwicklung die globalen Energiemärkte neu gestaltet und frühere Annahmen über die Unvermeidbarkeit eines raschen Ausstiegs aus fossilen Brennstoffen untergraben habe.

Technologische Trends, insbesondere der Aufstieg der künstlichen Intelligenz, verstärken die Nachfrage nach zuverlässiger Energie zusätzlich. Ridley merkte an, dass Rechenzentren und KI-Infrastruktur eine kontinuierliche, verlässliche Stromversorgung benötigen, was derzeit fossile Brennstoffe und Kernenergie gegenüber intermittierenden erneuerbaren Energien begünstigt. Dies hat dazu geführt, dass Teile des Technologiesektors eine pragmatischere Haltung in der Energiepolitik einnehmen.

Die Wissenschaft

In wissenschaftlicher Hinsicht räumte Ridley ein, dass die globalen Temperaturen steigen, stellte jedoch das Ausmaß der prognostizierten Auswirkungen in Frage. Er erklärte: „Ich gehöre zu denen, die glauben, dass es wärmer wird … aber ich glaube nicht, dass es schlimmer wird.“ Er argumentierte, dass viele der vorhergesagten negativen Folgen – wie beispielsweise die Zunahme extremer Wetterereignisse – nicht in dem erwarteten Ausmaß eingetreten seien. Seiner Ansicht nach „leben wir in dieser Zukunft und sie ist gar nicht so schlimm“, wobei er feststellte, dass die gelebte Erfahrung nicht mit früheren düsteren Prognosen übereinstimme.

Ridley kritisierte zudem Klimamodelle. „Die Modelle laufen immer noch zu heiß“, was bedeutet, dass sie die Erwärmung im Vergleich zu den beobachteten Daten überschätzen. Er führte dies auf zu hohe Annahmen bezüglich der Klimasensitivität zurück. Darüber hinaus hob er die historische Klimavariabilität hervor und argumentierte, dass die aktuellen Temperaturen nicht beispiellos seien, wenn man sie über längere Zeiträume wie das Holozän betrachtet (siehe auch hier).

Der vielleicht wichtigste Punkt in Ridleys Vortrag ist der positive Einfluss von Kohlendioxid auf das Pflanzenwachstum. Er verwies auf Belege für eine weltweite „Begrünung“ und erklärte, dass der Anstieg des CO₂-Gehalts zu einer messbaren Ausbreitung der Vegetation weltweit beigetragen habe. Dieser Effekt hat erhebliche Vorteile für die Landwirtschaft und die Ökosysteme und wurde in politischen Diskussionen unterschätzt.

Auch die ökonomische Analyse spielt in Ridleys Kritik eine zentrale Rolle. Er stellte die Rechtfertigung für groß angelegte Ausgaben zur Dekarbonisierung in Frage, indem er Kosten und Nutzen verglich. Unter Bezugnahme auf Schätzungen der gesellschaftlichen Kosten von Kohlenstoff argumentierte er, dass Klimaschutzmaßnahmen unverhältnismäßig teuer sein könnten: „Es macht einfach keinen Sinn, ein Vermögen für etwas zu bezahlen, das nur einen Cent einspart.“

Ridley veranschaulichte diesen Punkt anhand langfristiger Wirtschaftsszenarien und argumentierte, dass künftige Generationen trotz einer erheblichen Erwärmung aufgrund des anhaltenden Wirtschaftswachstums wahrscheinlich viel wohlhabender sein werden. Er stellte in Frage, ob relativ geringe Einbußen beim prognostizierten Wohlstand – verursacht durch Klimafolgen – eine existenzielle Bedrohung darstellen.

Politische Dynamik

In dem Vortrag ging es auch um politische Dynamik. Ridley kritisierte den seiner Meinung nach früher bestehenden Konsens unter den großen politischen Parteien zugunsten einer strengen Klimapolitik und argumentierte, dass dies eine offene Debatte eingeschränkt habe. Er wies darauf hin, dass dieser Konsens allmählich zu bröckeln beginne, insbesondere da die wirtschaftlichen Kosten immer deutlicher zutage träten.

Wirtschaftliche Realitäten, technologische Entwicklungen und sich wandelnde Einstellungen in der Öffentlichkeit schwächen die Dominanz der Narrative vom Klimanotstand. Ridley warnte jedoch vor extremen Positionen. Er riet Kritikern der Mainstream-Klimapolitik davon ab, den Klimawandel gänzlich abzulehnen, und wies darauf hin, dass eine solche Rhetorik die Glaubwürdigkeit untergraben könne*. Stattdessen forderte er eine stärkere Beteiligung an technischen und politischen Diskussionen und betonte die Bedeutung einer detaillierten, evidenzbasierten Argumentation. „Diejenigen, die den vorherrschenden Ansätzen skeptisch gegenüberstehen, müssen sich intensiver und konsequenter in die Debatte einbringen, wenn sie hoffen, deren zukünftige Richtung zu beeinflussen.“

[*Das ist unverständlich: meines Wissens lehnt niemand den Klimawandel gänzlich ab! A. d. Übers.]

Hier der Vortrag von Matt Ridley:

Es folgt hier das vollständige Transskript des Vortrags. Auf die Übersetzung desselben wird hier verzichtet, zumal man sich Untertitel einblenden lassen kann. Und das Wesentliche seines Vortrags hat Autor Peter Baeten oben ja schon hervorgehoben. – A. d. Übers.]

Link: https://wattsupwiththat.com/2026/04/10/matt-ridley-thinks-the-climate-parrot-is-almost-dead/

Übersetzt von Christian Freuer für das EIKE

——————————

Here is an AI formatted transcript:

I’m going to try and give you my perspective on which arguments have made the difference in terms of changing people’s minds on climate, and therefore what kinds of evidence and arguments we should be pushing in order to try to win this battle.

The genesis for this was an article I wrote in The Spectator saying that I really do think the climate emergency talk has peaked and we are seeing a significant change. If you live in the British Isles, that’s not immediately apparent. It’s still a huge issue in Britain and Ireland and most of Europe. But if you spend any time in America now, or even in Asia, you are seeing a very different debate where the affordability of energy is much more important than decarbonization, where the demands of AI have trumped the requirement to cut carbon dioxide emissions. I think Britain and Ireland are getting left behind here. We need to get with the conversation that’s happening elsewhere.

The images are covering the end of that graph, so you can’t see it, but there has been a decline in newspaper coverage. There are all sorts of straws in the wind, like Bill Gates closing down the advocacy office. The banking alliance for climate change has closed down. A lot of companies are tiptoeing away from this issue. It therefore is a moment when it might turn — it might die out. More likely it will go quiet for a while and then more air will be pumped into the balloon at some point in some form or other. There is such a gigantic vested interest these days in climate alarm that one can never write it off completely.

Here are ten reasons I think why it’s fading. I’ll run through them in more detail, but I’ll just quickly list them here. I think it’s important not to underestimate the degree to which the COVID pandemic has left people mistrustful of science and of experts. That has significantly damaged trust in science, and it is infecting the climate debate. Overclaiming and some degree of fraud have been a problem in the climate science arena for even longer, but I think you are getting traction now because of COVID.

Most important, of course, is that we were told that the decarbonization of the world’s energy system would pay for itself — that it would be profitable. That is clearly not the case. It is proving costly, inconvenient, and regressive in that poor people are paying more than rich people for this transition. I think that is why a lot of ordinary people are beginning to see through the alarm. The transition to wind and solar — which I call “unreliables,” because there are lots of renewable energies but the distinguishing feature of wind and solar is that you can’t rely on them — is simply failing to materialize. I don’t fully understand why, if you’re worried about what’s happening to climate change, you are automatically and passionately in favor of wind and solar power. It just doesn’t necessarily follow, in my view.

I think it’s important not to underestimate how much the shale revolution has changed everything. Until fifteen years ago, it was still easily possible to talk about oil and gas running out and therefore getting more expensive, which would necessitate a switch from hydrocarbons. That changed with the discovery of how to get gas and oil out of shale, and the effect on America’s position as a gas and oil producer and as an energy consumer is extraordinary. Many people outside America just don’t realize this, because we are so indoctrinated with the idea that the big energy transition of our time is windmills and solar panels that we don’t notice that the big energy transition of our time is actually shale.

The fact that the AI industry needs reliable, affordable power has led much of the tech sector to become much more realistic and pragmatic about energy. Getting it from shale gas power stations is now the top priority for most of the companies rushing into AI and data centers.

On the science: I’m somebody who thinks it is getting warmer. Springs are getting nicer, winters are getting milder, summers not much different. But I don’t think it’s getting worse. I think that is what most people are now beginning to realize after fifty years of being told that the future is going to be horrible. We’re living in that future and it isn’t too bad. One of the reasons for that is that the models are still running too hot, and have been consistently, because they are assuming higher climate sensitivity than the science now supports. There is now so much evidence that the recent past — by which I mean the current interglacial, the Holocene period starting about 9,000 years ago — has been much warmer in its first half than it is today. That evidence is getting harder and harder to hide, deny, or ignore. We are therefore a long way from living in unprecedented temperatures. The fact that we are at unprecedented temperatures compared with the 19th century is not really the relevant comparison for me.

One of the big stories is that the effect of carbon dioxide on green vegetation is much greater than scientists expected or predicted. They did not think it was a limiting factor in most ecosystems, and yet it is turning out to be an enormous effect — much more measurable, actually, than the effect of carbon dioxide on warming. If carbon dioxide is a problem, we ought to be able to measure its cost and then determine how much this generation should pay for a cost that’s going to fall on a future generation — how much we discount the future. That calculation, if done honestly, is more and more playing against alarm.

On the first point about overclaiming and fraud damaging trust in science: the record of predictions about what’s going to happen with the climate, and the chickens that are coming home to roost on this, are more and more helpful to the argument. Al Gore is now known more for predicting that the Arctic would be ice-free within five years — said in 2009 — than for some of the other things he said, and it has damaged the reputation of people like him. I enjoyed this quote from Ted Turner: that within thirty to forty years no crops will grow, most people will have died, and the rest of us will be cannibals. It’s quite extraordinary what people have been getting away with saying in order to get noticed in this debate. The UN Secretary-General standing up to his knees on a beach in Tuvalu makes great cover for Time magazine, but I think this kind of thing no longer cuts through to people, partly because people now realize that islands like Tuvalu are not sinking — they are actually gaining land area because of wave action. I’ve included Andrew Montford’s Hockey Stick Delusion here because I do think the hockey stick story is one of significant scientific malpractice, and that ought to be better known.

This picture sums up a lot of what went wrong in recent years, and I don’t think you’re going to see this kind of uni-party consensus again. Here is the environment shadow secretaries of the British government — the Tory party, the Liberal Democrat party, and the Labour Party — all standing up and giving a round of applause to Greta Thunberg. Greta Thunberg was saying — fortunately I can’t quite read what she’s saying because it’s hidden — that we are setting off an irreversible trend that will end civilization by 2030. That is what she actually said in Parliament at Westminster that day. And Michael Gove, the Tory, said: “Your voice, still calm, is the voice of our conscience. We feel great admiration.” And Ed Miliband said: “You’ve woken us up.” This kind of political consensus has been a huge problem — the fact that no party has been prepared to rock the boat. That is changing even in Britain. We now have the Reform Party and the Conservative Party both being much more skeptical on climate and energy issues.

The degree to which electricity and gas prices have exceeded those in America — now in Europe and in the UK in particular, and in Ireland — is more and more striking. Paying four times as much for your energy, whether it’s gas or electricity, is not compatible with remaining competitive. We are seeing Britain losing its fertilizer, chemical, pharmaceutical, motor, and steel industries, among many others, at a terrifying rate. Not only that, we are cutting ourselves off from being able to participate in a significant way in the AI industry, and some of the other industries of the future — robotics and so on. It really will hurt ordinary people to have been so far ahead of everyone else in trying to decarbonize our economy.

The electric car revolution has been forced on consumers and is relatively unpopular for a number of reasons: reliability, cost, charging times. If you do the analysis on a Chinese electric grid, it’s hard to see how electric cars save any emissions at all, because it’s basically a coal car when you’re running an electric car in China. Less so in Europe, where most of the electricity comes from gas, but even there it takes many tens of thousands of miles before you’ve really saved any significant quantity of emissions — and at that point the battery is probably nearly dead anyway, so you’re about to replace it. To replace a functioning and quite successful industry — the UK motor industry — with one that is really struggling is a bad thing in itself, and to do so at significant cost and inconvenience to the consumer is really an own goal. I’d say the same kind of thing about heat pumps replacing gas-fired boilers. Fine for a new build house; much harder if you’re adapting an existing house and have to change the insulation and everything. Even if it works for the same price, you’re removing a system before the end of its useful life and replacing it with one that’s no better. Therefore there is no growth in economic terms. You are effectively stranding assets in doing that. And refusing to build a third runway, trying to limit how much people fly, and telling people they shouldn’t eat meat is not only counterproductive in political terms — it is backfiring quite significantly, even in Europe, and much more so in Asia and America.

The big issue as far as the electricity system is concerned is, of course, the dash for renewables — for unreliables in particular, solar and wind — where it’s not just the unreliability and intermittency, but the extreme cost of a system based on them. Britain has the capacity to produce 21% more electricity now than fifteen years ago, but it consumes 24% less electricity than fifteen years ago. Doing less with more is the very definition of degrowth, or impoverishment. That is a real problem we are creating for ourselves in this country.

You can’t see the end of this chart, but global direct primary energy consumption is still vastly dominated by hydrocarbons around the world. That has not changed. All three fossil fuels are still breaking records. If you zoom into the top corner of that graph, you can just about see the contribution that solar and wind are making to the world economy — it is infinitesimal. It’s around 6% if you add them both together. And yet coverage of the energy industry is dominated by these two rather medieval technologies.

Speaking of medieval: this is a book about the crop yields of the manors belonging to the Bishop of Winchester in the 1300s. You may wonder why I’ve brought it up, but if you zoom in, you’ll see that most of these manors were producing between one and four grains of wheat per grain sown in the ground — an energy return on energy invested of between one and four. You have to keep one grain back to sow the next year’s crop, so in a year when you only produce one grain, you have almost nothing to feed people with. That is the motor for most of the work done in society by people. In terms of oats, the same applies for horses. On my farm in Northumberland today, I would expect to get about one hundred grains of wheat for each grain sown in the ground.

This energy return on energy invested calculation is absolutely critical, and it is one that the unreliable energy industry is really struggling with. If you buffer it by reliability — by the fact that you have to back up wind and solar — it’s hard to see how these reach the economic threshold. If you’re producing four units for every unit of energy that goes in, you are effectively recreating the medieval economy. The problem with the medieval economy was that it could only make bishops rich and nobody else could get rich at all. When you get down to a ratio of three or four for energy return on energy invested, a significant proportion of your industry has to be spent making energy, and you don’t have much left over to do other things with. That is the measure that really needs to be hammered home. On solar specifically, it is worth pointing out that according to the World Bank, Britain is the second worst country in the world to build solar because of its cloud cover and the cost of land. The only worse country, I’m sorry to say, is Ireland.

The point of this graph — which unfortunately can’t be seen clearly — is to show that America was a static or declining producer of gas until the early 2000s. It is now by far the biggest gas producer in the world, equal to Russia and Qatar combined. That’s an extraordinary transformation. The same is true for oil. It was conventional wisdom, it was groupthink, that America was a played-out, declining oil basin that would decline steadily from the 1970s onwards. Then along came the shale pioneers and turned that around. America now produces more oil than Saudi Arabia and Iraq combined. No one now talks about peak oil, about oil and gas running out, or about expensive oil as a result. Yes, geopolitics can affect oil and gas prices, but usually only temporarily.

The AI revolution is largely fueled by gas and coal, with some nuclear — solar and wind are not the go-to sources for this power, as I mentioned. What about the climate itself? Well, it is getting warmer. These are Ole Humlum’s analyses of five different ways of measuring global average temperature, going up at a rate of — well, going up pretty slowly — heading for about a degree of warming after about fifty years.

But do we believe the numbers? I think we need to keep talking about the adjustments that are made to temperature records. Here is a graph that Humlum produces in which he points out that the GISS estimate of what the temperature was in January 2000 has been adjusted upwards, particularly in September 2013. Maybe that’s fair enough — maybe they had a reason for doing that. But in the same month they adjusted the temperature for January 1910 significantly downwards. How can they possibly have had a good reason for doing that? I think one is quite right to be suspicious of this. Cooling the past in order to increase the apparent rate of warming is just too tempting for the people who are in charge of these statistics. I haven’t touched on the urban heat island effect and the unreliable thermometer stations, but there are plenty of those issues too.

The real point, as far as the man in the street is concerned, is this: is the weather getting worse? Yes, it’s getting warmer, but is it getting worse? And no, it’s not. Global tropical cyclones are not getting more frequent or more lethal. Drought is showing no trend upwards or downwards really. As Roger Pielke has summarized, for most significant weather effects — except heat waves and perhaps heavy precipitation — there is no detection or attribution, as stated by the Intergovernmental Panel on Climate Change reports in their latest AR6 assessment.

And of course, the point that Björn Lomborg has made, among others: cold kills far more people than heat. If we have higher temperatures, we will have slightly more people killed by heat, but a lot fewer people killed by cold. So we are genuinely saving lives through global warming. Generally, deaths from climate-related events are down significantly, whereas deaths from earthquakes, tsunamis, and volcanoes are not. That’s a remarkable statistic — it’s not because weather is getting safer, but because we’re getting better at forecasting, predicting, and sheltering people from bad weather.

People get very worked up about sea ice decline, but it’s slow. The Arctic hasn’t broken a sea ice low record since 2012. Antarctica has seen a recent slight downward trend, but there is no evidence that we are anything like approaching an ice-free period in the Arctic summer, which was quite routine eight or nine thousand years ago. Sea level rise is significant, but there is no sign of acceleration. The linear trend since 2010 is higher than the linear trend since 2005, but the linear trend since 2015 is lower again. So it’s going up and down, but it’s around a foot and a half per century, which is easily something we can cope with.

I won’t go into the details, but I think Nick Lewis in particular, and Judith Curry, have done a very good job of showing in the peer-reviewed literature that the estimates of climate sensitivity going into the models have broadly been too high and need to come steadily downwards. That would explain why the models have been running too hot compared with the observed global temperature.

I think the Holocene Thermal Maximum is a very important point that we need to keep stressing. The temperature of Greenland and the Mackenzie Strait — two different data sets — was significantly higher around 6,000 BC, some eight thousand years ago, than it is today. This data is coming in now from many different types of paleoclimate temperature records, showing that the Holocene Climate Optimum was a warmer period. I was looking, for example, at evidence that in the Indian Ocean, sea levels were considerably higher than they are today. It used to be the consensus that they had been going up steadily since the ice age — rapidly at first, then steadily. Now it is reckoned that they may have been up to two meters higher during the period when the first pharaohs were already appearing in Egypt — so not that long ago. The Holocene Optimum was also a period of considerable wetness in the Sahara, with lakes and hippos in the Saharan region. This was a period within early human history when we were experiencing much warmer and damper temperatures.

But I think global greening is the big one. We have considerable evidence from a number of different directions that there is 15% more green vegetation on the planet after thirty years, because of carbon dioxide fertilization. This is in all ecosystems — particularly arid ones, but in tropical and arctic ones as well, and in marine as well as terrestrial ecosystems. That is a really significant effect. If you add the effect it’s had on agricultural yields alone, it comes to trillions of dollars of benefit for mankind. Then add in the benefit for grasshoppers, gazelles, and all the other creatures that eat green vegetation.

I published an article about this in 2013 when I first got wind that the satellite data had been analyzed and was showing this global greening. Before then, there were other measures for picking it up, but it hadn’t been analyzed from satellite data. This annoyed the professor whose work I was reporting very much indeed — so much so that when he published his work, the press release from Boston University named me personally, along with Rupert Murdoch, as being the kind of person who mustn’t be allowed to misinterpret the result. I call that a win, actually, if I’m getting name-checked in the press release.

On the social cost of carbon: Britain doesn’t use the social cost of carbon because they can’t make it add up. They simply can’t get an estimate high enough to justify the money we’re spending on decarbonization. America did use a high one during the Biden administration, but Ross McKitrick has basically demolished the argument behind it. It largely left out the carbon dioxide fertilization effect, and his own estimates of the social cost of carbon are that it’s pretty small — of the order of five to ten dollars per ton of carbon. That is the total future harm done by each ton of carbon dioxide we produce today. The cost of decarbonization is way higher than that. It just doesn’t make sense to pay a fortune for something that will save a penny.

Worse than that, we are asking poor people today to make sacrifices to help wealthy future people. Poor people within countries, where energy policies tend to be regressive; between countries, where we are on the whole denying cheap energy to many poor countries; and between generations as well.

These are the five economic scenarios that the IIASA did for the IPCC, showing what might happen to global GDP per capita. It’s worth looking at the one they call “taking the highway” — fossil fuel development. This is the scenario in which we really let rip and continue to use hydrocarbons on a significant basis, ending up with quite a lot of warming as a result. It is a scenario in which per capita income is roughly ten times what it is today — ten times globally, everybody on planet earth earning ten times as much. Imagine what they could do with that. In which the Gini coefficient is down significantly, in which population falls faster than expected, in which there is rapid technological progress, strong investment in health and education, and effective management of ecological systems. This is not a terrible world. It sounds rather a good world. And if yes, there’s a lot of warming, then we’re ten times as rich to deal with it.

But surely the warming will have done economic harm? Yes, it will. How much harm? It will have reduced the wealth of your grandchildren so that instead of being 10.4 times as rich, they will be 9.8 times as rich. Is that really an existential catastrophe? There is a reason why we use a discount rate, and Lord Stern persuaded us in the mid-2000s that we should not, because we should care about our grandchildren just as much as ourselves. But if they are going to be ten times as rich, then it doesn’t make sense to hurt poor people today to make them not quite ten times as rich.

So, just to end: what are we still up against? Massive subsidies and funding for climate alarm — you can’t underestimate the power of money. Widespread bias and censorship still in the media. Some doubling down: the point that, you know, solar power doesn’t come through the Strait of Hormuz — doesn’t this crisis prove that we should wean ourselves off fossil fuels? Climate change is also a very good excuse for politicians. Again and again you’ve seen people like the Governor of California saying, yes, the Palisades fire burned a lot of people’s homes, but there’s nothing I can do about it because it was caused by climate change. There was something you could do about it — you could have done prescribed burning. But climate change gets you off the hook as a politician.

I do believe that it’s a mistake to go too far in skepticism and call it things like a hoax. That tends to put people off. The problem with our side of the argument is that we can’t be bothered to sit on these committees, get stuck into the detail, do all the really boring legwork, and go to these awful conferences. That’s what we ought to be better at. And that’s about the only criticism I can make of the skeptical side of the debate. Thank you very much. I’m happy to take questions.

 

Der Beitrag Matt Ridley glaubt, dass das Klima-Geplapper fast am Ende ist erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Auf der Heartland-Klimakonferenz: „Welche Beweise?“ – Ausgabe Extremwetter-Ereignisse

veröffentlicht.
Vorschau ansehen

Francis Menton, THE MANHATTAN CONTRARIAN

Ich habe die letzten Tage damit verbracht, an der vom Heartland Institute in Washington veranstalteten Internationalen Konferenz zum Klimawandel teilzunehmen. Es gab eine Menge Material, das für die Leser von Interesse sein dürfte.

Ein zentrales, von mehreren Referenten angesprochen Thema lautet: „Wo ist der Beweis?“, insbesondere der Beweis dafür, dass uns eine Art Klimakrise bevorsteht. Es dürfte keine Überraschung sein, dass für fast jede Behauptung der Klimakabale der Beweis fehlt.

Der interessanteste Vortrag zu diesem Thema kam von John Clauser. Für diejenigen, die noch nichts von ihm gehört haben: Clauser war einer der Mitgewinner des Nobelpreises für Physik im Jahr 2022. Das konkrete Thema von Clausers Preis war etwas, das als „Quantenverschränkung“ bezeichnet wird und nur am Rande mit dem Klimawandel zu tun zu haben scheint. Clausers Vortrag vermittelte jedoch den Eindruck, dass er seit dem Gewinn des Preises einen Großteil seiner Zeit damit verbracht hat, die Literatur zum Klimawandel zu studieren und insbesondere die Daten zu untersuchen, die zur Untermauerung der Behauptungen über eine drohende Klimakrise herangezogen werden. In dieser Zeit hat er sich zu einem sehr lautstarken Klimaskeptiker entwickelt. Er ist eindeutig ein sehr kluger Kopf mit einem scharfen kritischen Blick. Außerdem verfolgt er einen spezifischen Ansatz, nämlich die Daten auf Lücken, Veränderungen oder Manipulationen zu untersuchen, die dazu führen könnten, dass die Daten nicht ausreichen, um die aufgestellten Behauptungen zu stützen. (Siehe auch meine Serie über den größten wissenschaftlichen Betrug aller Zeiten.) Ich denke, dass dieser Ansatz das Wesen der wissenschaftlichen Methode ausmacht, doch leider fehlt er in der „Klimawissenschaft“-Sekte größtenteils. Schließlich hat sich Clauser gezielt auf bestimmte Mängel oder Manipulationen der Daten konzentriert, die leicht zu erkennen und auch für Laien ohne spezifisches wissenschaftliches Fachwissen verständlich sind.

Clauser betitelte seinen Vortrag mit den Worten [übersetzt]: „Die globale Erwärmung, der Klimawandel und der wissenschaftliche Konsens sind nicht bewiesen. Es gibt keine nachgewiesene Klimakrise.“ Der Vortrag wurde von einer Powerpoint-Präsentation mit rund 124 Folien begleitet, die viel zu umfangreich und detailliert waren, als dass er alles hätte abdecken können oder ein Zuhörer sich gründliche Notizen hätte machen können. Mir gelang es jedoch, eine Kopie der Präsentation zu ergattern. (Clausers vollständiger Vortrag ist auf der Heartland-Website verfügbar, und ich habe erfahren, dass die Präsentation in wenigen Tagen ebenfalls auf der Website verfügbar sein wird.)

Heute beginne ich mit dem Teil von Clausers Vortrag, der sich mit dem Thema der sogenannten „extremen Wetterereignisse“ befasst – also beispielsweise Überschwemmungen, Dürren, Hurrikane, Tornados, Hitzewellen und Ähnliches. Zu diesem Unterthema ging Clauser zunächst auf einen Artikel von Jane Lubchenco und Thomas Karl aus dem Jahr 2012 in der Zeitschrift „Physics Today“ ein, der den Titel „Predicting and managing extreme weather events“ trug. (L&K) Zum Zeitpunkt des Artikels, also während der Präsidentschaft von Barack Obama, war Lubchenco Administratorin der NOAA, und Karl war Direktor des National Climatic Data Center der NOAA und Vorsitzender des US Global Change Research Program. Mit anderen Worten: Dies waren die Personen, die damals im Auftrag der Regierung für die Erfassung der US-Wetterdaten, einschließlich der Daten zu extremen Wetterereignissen, verantwortlich waren. Wie Clauser in seinem Vortrag anmerkte: Wenn es Menschen gäbe, die Zugang zu den allerbesten Daten hätten, um die Behauptung zunehmender extremer Wetterereignisse zu untermauern, dann wären es diese beiden.

Die These des Artikels von L&K lautet, dass extreme Wetterereignisse in den USA zugenommen haben und mit der Erwärmung des Klimas voraussichtlich weiter zunehmen werden. Hier ist der einleitende Absatz:

Das Klima der Erde erwärmt sich, und zerstörerische Wetterereignisse treten immer häufiger auf. Um mit diesen Veränderungen fertig zu werden, sind wissenschaftliche Zusammenarbeit, vorausschauende Politik und eine informierte Öffentlichkeit erforderlich.

Neben ihrer eigenen Aussage zu diesem Thema zitieren L&K auch mehrere ähnliche Aussagen des IPCC:

„Es ist sehr wahrscheinlich, dass Hitzewellen in den meisten Landgebieten an Dauer, Häufigkeit und/oder Intensität zunehmen werden. . . . Es ist wahrscheinlich, dass die durchschnittliche maximale Windgeschwindigkeit tropischer Wirbelstürme im Laufe des kommenden Jahrhunderts zunehmen wird. . . . Es ist wahrscheinlich, dass die Häufigkeit starker Niederschläge oder der Anteil starker Regenfälle am gesamten Niederschlag im 21. Jahrhundert in vielen Regionen der Erde zunehmen wird.“

Was ist denn aber der Beweis?

L&K präsentieren eine Reihe von Diagrammen, die ihrer Ansicht nach belegen, dass extreme Wetterereignisse in den USA „in den letzten Jahrzehnten stetig zugenommen haben“. Um das Ausmaß dieser extremen Wetterereignisse in den USA zu messen, haben L&K einen sogenannten „US Climate Extremes Index“ entwickelt. Sie beschreiben den Index als eine Berechnung, die auf „dem prozentualen Anteil der Landesfläche basiert, der in einem bestimmten Jahr extreme Monatstemperaturen, Dürreintensität, Bodenwasserüberschuss, Tage mit und ohne Niederschlag, Hurrikanaktivität mit Landfall sowie eintägige Starkniederschlagsereignisse verzeichnet“. Über diese Beschreibung hinaus gibt es jedoch keine technische Erläuterung und keine Belege dafür, wie die Diagramme quantitativ erstellt wurden. Eine Fußnote mit einem Link zu einem früheren Artikel von Karl zu diesem Thema, der vermutlich diese Details enthält, liefert die Meldung „not found“.

Mein erster Einwand gegen diesen „Klimaextreme-Index“ ist, dass es sich um eine äußerst zweifelhafte Messgröße handelt, die offensichtlich sehr leicht zu manipulieren ist. Wer hat beispielsweise entschieden, wie groß die Landfläche war, die von einem bestimmten „auf Land getroffenen Hurrikan“ erfasst wurde? Ist es nur die Landfläche, auf der die Windgeschwindigkeiten 120 km/h überschritten, oder ist es das gesamte Gebiet, das vom Hurrikan-Sturmsystem während seiner gesamten Lebensdauer von möglicherweise mehreren Tagen überzogen wurde, meist mit weitaus geringeren Windgeschwindigkeiten? Solche verborgenen Entscheidungen könnten leicht dazu genutzt werden, einen Index wie diesen zu manipulieren, um ein gewünschtes Ergebnis zu erzielen.

Clauser geht jedoch nicht in diese Richtung, sondern nimmt stattdessen einfach die von L&K vorgelegten Werte des Index‘ und fragt, ob diese im betrachteten Zeitraum tatsächlich gestiegen sind. Hier ist Abbildung 2a aus L&K, welche die Werte ihres US-Klimaextreme-Index für den Zeitraum von 1910 bis 2011 zeigt:

Wenn man sich das ansieht – bin ich der Einzige, der keinen nennenswerten Anstieg erkennt, geschweige denn einen dramatischen Anstieg in den letzten Jahren?

Und es kommt noch schlimmer. Clauser nahm die Werte des im Balkendiagramm dargestellten Index‘ und trug sie als Punkte in einem Streudiagramm ein. Dann erstellte er eine weitere Grafik, in der er die Reihenfolge der Beobachtungen umkehrte, sodass die neuesten Beobachtungen links und die älteren rechts zu sehen waren. Mit anderen Worten: Die beiden Grafiken sind Spiegelbilder voneinander. Hier sind sie:

Die Jahreszahlen auf der x-Achse deuten zwar darauf hin, dass sie von den ältesten zu den neuesten Jahren verlaufen, doch Clauser erklärt, er habe dies bewusst so belassen, um den Betrachter dazu anzuregen, herauszufinden, welche Grafik verkehrt herum dargestellt ist. Hier ist Clausers Text aus seiner Folie 9:

Die beiden Grafiken sind identisch, abgesehen davon, dass eine von links nach rechts seitenverkehrt, also rückwärts, dargestellt ist, wobei die Zeit nach links hin zunimmt. (Wenn man genau hinschaut, erkennt man, dass sie Spiegelbilder voneinander sind.) Ich behaupte: Wenn Sie nicht erkennen können, welche dieser Grafiken korrekt dargestellt ist und welche zeitlich rückwärts verläuft, dann lässt sich der von Lubchenco und Karl behauptete jüngste Anstieg der Häufigkeit extremer Wetterereignisse nicht eindeutig aus ihren Daten ableiten. Eine dieser Grafiken soll laut Lubchenco und Karl eine bevorstehende Klimakatastrophe vorhersagen! Sind Sie wirklich so zuversichtlich, dass Sie bereit wären, Billionen von Dollar darauf zu setzen, dass Sie erkennen können, welche Grafik diese Vorhersage trifft?

Clauser schloss diesen Teil seines Vortrags damit, dass er die Schlussfolgerung von L&K als „betrügerische Pseudowissenschaft“ bezeichnete. Es handelt sich um eine seltsame Art von betrügerischer Pseudowissenschaft – unverblümt zu behaupten, dass eine Datensammlung eine Schlussfolgerung stützt, die die Daten offensichtlich nicht stützen, und zu erwarten, dass alle einfach nur zustimmend nicken. Es ist kaum zu glauben, dass dies das Beste ist, was L&K mit all den ihnen zur Verfügung stehenden Daten vorbringen konnten, um die Zunahme extremer Wetterereignisse zu belegen. Aber so funktioniert „Klimawissenschaft“ nun einmal oft.

Als Nächstes: Das Energieungleichgewicht der Erde (EEI).

Link: https://wattsupwiththat.com/2026/04/11/at-the-heartland-climate-conference-what-is-the-proof-extreme-weather-events-edition/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Auf der Heartland-Klimakonferenz: „Welche Beweise?“ – Ausgabe Extremwetter-Ereignisse erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Kurzmeldungen aus Klima und Energie – Ausgabe 11 /2026

veröffentlicht.
Vorschau ansehen

Meldung vom 30. März 2026:

Wind und Solar: 2 Billionen Dollar später

Zwischen 2010 und 2026 flossen mindestens 2 Billionen Dollar in Wind- und Solarenergie. Versprochen wurden günstigere Energie und geringere Emissionen. Beides ist nicht eingetreten. Die Stromkosten stiegen. Die Netzstabilität nahm ab. Fossile Brennstoffe spielen nach wie vor eine zentrale Rolle.

Die wetterabhängige Stromerzeugung wurde als Ersatz für regelbare Energie angesehen, doch ihre Leistung hängt nun mal vom Wetter ab. Eine unregelmäßige Versorgung erfordert Reservekapazitäten, Netzausgleich und Überkapazitäten. Erneuerbare Energien haben fossile Brennstoffe nicht ersetzt – sie wurden lediglich zusätzlich daraufgeschichtet. Der gleichzeitige Betrieb zweier Systeme treibt die Kosten in die Höhe.

Zwei Billionen Dollar hätten eine kontinuierliche, leistungsstarke Stromversorgung ermöglichen können.

Stattdessen führten sie zu höheren Strompreisen, Belastungen für die Industrie und einem weniger zuverlässigen Netz.

Die Energiekosten schlagen sich überall nieder. In der Fertigung. Im Transportwesen. Bei Lebensmitteln.

Anstatt das Scheitern einzugestehen, lautet die Reaktion: noch mehr davon.

Westliche Politiker argumentieren, die Rechnungen seien gestiegen, weil „nicht genug“ Wind- und Solarkraftwerke gebaut worden seien.

Zwei Billionen hätten nicht gereicht, so die Behauptung.

Link: https://electroverse.substack.com/p/winter-returns-to-europe-cold-extends?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

———————————-

Meldungen vom 3. April 2026:

Ein Lithium-Feuer ist keine Kleinigkeit

Craig Rucker

Lithium brennt so heiß und hell, dass es zur Herstellung von Leuchtraketen verwendet wird.

Sind Lithiumbrände erst einmal ausgebrochen, lassen sie sich kaum noch löschen.

Man denke nur an die Häufung von Bränden auf Autotransportschiffen, die meist von selbst ausbrennen, wenn Löschversuche scheitern.

Als Hurrikane Florida heimsuchten, flohen Hausbesitzer in ihren Autos mit großer Reichweite, schnellem Tanken und Verbrennungsmotor in Sicherheit und ließen ihre Elektroautos in ihren Garagen zurück. Als die Flutwelle die elektrischen Systeme der Elektroautos überschwemmte, gerieten diese außer Kontrolle und rissen das Haus mit sich.

Bonner Cohen, Senior Fellow bei CFACT, berichtet auf CFACT.org über verheerende Brände in kalifornischen Batteriespeicheranlagen, darunter die Zerstörung der Anlage in Moss Landing. Die Steuerzahler hatten Moss Landing mit 500 Millionen Dollar subventioniert, in der Hoffnung, dass die Anlage als Reserve für die schwankende Leistung von Offshore-Windkraftanlagen dienen würde.

Bonner berichtet, dass diese Batteriebrände nicht nur unglaublich schwer zu löschen sind, sondern auch riesige Mengen giftiger Metalle in die Luft freisetzen. Neben der Gefahr für die menschliche Gesundheit durch den direkten Kontakt mit in der Luft schwebenden Mikropartikeln von Schwermetallen sind die Kobaltwerte in den Böden der landwirtschaftlichen Region in der Nähe von Moss Landing 100- bis 1.000-mal höher als normal, betont Hogan. „Und sie werden dort ein Jahrhundert oder länger verbleiben“, fügte er hinzu.

Die Brandgefahr durch Elektrofahrzeuge und Batteriewerke ist nur allzu real.

Wir sind darauf nicht vorbereitet.

Link: https://www.cfact.org/2026/04/02/lithium-fire-is-no-joke/

———————————-

Eine Meldung vom 6. April 2026:

Eisverlust in Grönland verlangsamt sich immer mehr

Eine neue Studie, die Satellitendaten aus den Jahren 1992 bis 2023 heranzieht zeigt, dass sich der Eisverlust in Grönland im letzten Jahrzehnt deutlich verlangsamt hat und sein Gesamtbeitrag zum Anstieg des Meeresspiegels weiterhin gering ist.

Über den gesamten 31-jährigen Erfassungszeitraum trugen die grönländische Eiskappe und die umliegenden Gletscher nur 11 mm zum globalen Meeresspiegelanstieg bei. Das entspricht 0,37 mm pro Jahr – ein verschwindend geringer Beitrag, trotz der Schlagzeilen.

Der entscheidende Punkt ist jedoch die Schwankungsbreite. Grönland hat weder mit zunehmender Geschwindigkeit noch mit konstanter Geschwindigkeit Eis verloren.

Von 1992 bis 2001 war die Eisdecke weitgehend stabil und gewann insgesamt sogar an Masse hinzu.

Von 2002 bis 2011 beschleunigte sich der Verlust stark und betrug durchschnittlich -303 Gigatonnen pro Jahr. Dieser Zeitraum war der Grund für die meisten Schlagzeilen über den „Kipppunkt“.

Seit 2012 ist diese Verlustrate jedoch auf -124 Gigatonnen pro Jahr gesunken, was einer Verlangsamung um etwa 60 % entspricht.

Die Studie führt dies auf kühlere Meeresbedingungen rund um Grönland und vermehrte Schneefälle zurück – eine „positive Oberflächen-Massenbilanz“. Kurz gesagt: An der Oberfläche kommt mehr Eis hinzu, während an den Rändern weniger verloren geht, was zu einer deutlichen Verlangsamung des Nettoverlusts führt.

Zum Vergleich: Selbst in den 2000er Jahren, als der Verlust am schnellsten voranschritt, belief sich der Beitrag Grönlands zum Anstieg des Meeresspiegels lediglich auf wenige Millimeter pro Jahr.

Die Daten zeigen zudem starke, wetterbedingte Schwankungen von Jahr zu Jahr. Eine Korrelation mit CO₂ ist nicht erkennbar.

Link: https://electroverse.substack.com/p/glasgow-wakes-to-april-snow-monthly?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

———————————-

Meldungen vom 13. April 2026:

Das „grüne“ Netz Dänemarks basiert auf der Verbrennung von Bäumen

Dänemark wird als Beweis dafür angeführt, dass ein auf fossilen Brennstoffen basierendes Stromnetz durch erneuerbare Energien ersetzt werden kann:

Allerdings haben sich die Strompreise für Privathaushalte seit dem Jahr 2000 mehr als verdoppelt, von etwa 0,15 €/kWh auf rund 0,35 €/kWh. Dänemark zählt mittlerweile zu den teuersten Strommärkten der Welt.

Noch schlimmer ist jedoch, was dort als „erneuerbar“ gewertet wird.

Im Jahr 2024 stammten etwa 64 % der erneuerbaren Energie Dänemarks aus Biomasse, hauptsächlich aus Holzpellets. Bäume werden gefällt, ein Großteil davon im Ausland, herangeschafft und in Kraftwerken verbrannt.

Dies wird offiziell als „grüne“ Energie eingestuft.

Bei der Verbrennung stößt dieser Prozess mehr CO₂ pro Energieeinheit aus als Erdgas. Die Emissionen werden auf dem Papier in forstwirtschaftliche Annahmen über zukünftiges Nachwachsen umgewandelt.

Die Bilanzierung funktioniert so: Bäume fällen, verbrennen, mehr CO₂ als bei Gas ausstoßen, es als sauber bezeichnen.

Entfernt man die Biomasse, bricht der Anteil erneuerbarer Energien zusammen. Wind- und Solarenergie liefern vergleichsweise nichts, wobei Dänemark auf Verbindungsleitungen und Reserveerzeugung angewiesen ist, um die Versorgung stabil zu halten.

Dies ist kein Ersatz für fossile Brennstoffe.

Es ist ein teures System, das auf Importen, Umklassifizierungen und direkten Lügen basiert.

———————————-

Hitzetote: Modell, aber nicht Realität

Nach Angaben der britischen Gesundheitsbehörde (UK Health Security Agency) starben im vergangenen Sommer in England 1.504 Menschen an den Folgen der Hitze. Dabei handelt es sich jedoch nicht um eine erfasste Zahl der Todesfälle, sondern um eine modellierte Schätzung.

In keiner Sterbeurkunde wird „Hitze“ 1.504 Mal als Todesursache angegeben. Die Zahl ergibt sich aus einem Vergleich der Todesfälle während kurzer „Hitzeperioden“ mit den Tagen davor und danach, wobei die Differenz dann der Temperatur zugeschrieben wird.

Dieser Ansatz geht davon aus, dass jeder Anstieg während warmer Perioden durch Hitze verursacht wird. Er beweist dies jedoch nicht.

Außerdem ignoriert er die saisonale Basislinie. Die Zahl der Todesfälle sinkt jedes Jahr vom Winter bis zum Sommer. Der Sommer ist die Zeit mit der niedrigsten Sterblichkeit. Eine Hitzewelle innerhalb dieses allgemeinen Rückgangs isoliert zu betrachten, bedeutet also, dass man nicht vor einem neutralen Hintergrund misst.

Das Amt für nationale Statistik hat dies bereits untersucht. Seine Analyse der Hitzewelle von 2022 ergab, dass ein Großteil des scheinbaren Überschusses auf eine kurzfristige Verschiebung zurückzuführen war – gebrechliche Menschen starben etwas früher, als es sonst der Fall gewesen wäre. Die zugrunde liegenden Ursachen blieben Krankheiten, nicht Hitze.

Das Verfahren der UKHSA führt wahrscheinlich zu einer weiteren Überbewertung der Zahlen, da es die Tage nach der Hitzewelle in die Basislinie einbezieht. Werden Todesfälle vorverlegt, sinkt die Zahl in der Folgezeit, wodurch sich die Differenz vergrößert und die Schätzung überhöht wird.

Fazit: Die Sterblichkeit ist im Sommer am niedrigsten, während der eigentliche saisonale Anstieg im Winter zu verzeichnen ist, wo die Zahl der überzähligen Todesfälle in die Zehntausende geht – denn Kälte tötet.

Link: https://electroverse.substack.com/p/blizzards-hit-scotlands-peaks-shimlas?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

———————————-

Eine Meldung vom 14. April 2026:

Rekordwärme in den USA, ereignisloses Wetter auf der Nordhalbkugel

Der März 2026 brachte Rekordwärme in den kontinentalen Vereinigten Staaten.

Diese Schlagzeile wird als Beweis für die „globale“ Erwärmung herangezogen werden. Aber betrachten wir das Ganze einmal aus einer größeren Perspektive.

Daten der NOAA zeigen, dass die Wärme nicht flächendeckend war. Während es in den USA sehr warm war, herrschte in weiten Teilen Kanadas und Alaskas extreme Kälte. In großen Teilen des nördlichen Nordamerikas lagen die Temperaturen unter dem Durchschnitt der Jahre 1991–2020:

Abweichungen der Lufttemperatur vom NOAA-CDAS-Durchschnitt der Jahre 1991–2020 für März 2026 [WeatherBell.com].

Und hier nun das Gesamtbild der Landgebiete der nördlichen Hemisphäre anhand von Satellitendaten:

Der März 2026 war unauffällig. Er war kühler als in vielen der letzten Jahre, einschließlich 2024 und 2025, und entspricht in etwa dem langfristigen Trend.

Die Wärme in den USA war auf einen lokalen Hochdruckkeil innerhalb eines wellenförmigen Jetstream-Musters in einer gemischten hemisphärischen Konfiguration zurückzuführen. Im Durchschnitt der gesamten nördlichen Hemisphäre entspricht der März genau den Erwartungen.

Link: https://electroverse.substack.com/p/late-season-surge-hits-sierra-spring?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Zusammengestellt und übersetzt von Christian Freuer für das EIKE

Der Beitrag Kurzmeldungen aus Klima und Energie – Ausgabe 11 /2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Eine Warnung bezüglich Elektrofahrzeugen für unabhängige Kfz-Werkstätten

veröffentlicht.
Vorschau ansehen

Eric Worrall

[Alle Hervorhebungen im Original. A. d. Übers.]

Im Bereich der Reparatur von Elektrofahrzeugen könnte sich etwas Unschönes anbahnen.

Ich habe heute mit einem alten Freund gesprochen, der früher eine kleine Karosseriewerkstatt auf dem Land betrieben hat. Auch wenn ihm die Werkstatt nicht mehr gehört, interessiert er sich nach wie vor für das von ihm gegründete Unternehmen und schaut regelmäßig vorbei, um zu sehen, wie es dort läuft.

Mein Freund schwärmte davon, wie viel Geld sein ehemaliges Unternehmen mit der Reparatur von Elektrofahrzeugen verdient und wie viele Aufträge seine alte Werkstatt von Versicherungsgesellschaften erhält. Seine alte Werkstatt ist eine der wenigen, die alle Mitarbeiter entsprechend geschult hat, und jetzt reparieren sie jede Menge Blechschäden an Elektrofahrzeugen und verdienen damit viel Geld.

Also fragte ich: „Wie gehen sie mit dem Risiko von Batteriebränden um?“

Mein Freund antwortete: „Was für eine Brandgefahr bei der Batterie?

Mein Freund hat den Kurs nicht absolviert, vielleicht hat er dieses Risiko deshalb einfach nicht mitbekommen.

Aber dann kam mir ein Gedanke: Wer haftet, wenn ein Elektroauto repariert wird, die Werkstatt aber einen schwer erkennbaren Batteriefehler übersieht, der zu schweren Verletzungen oder Todesfällen führt? Schließlich sollen Werkstätten ihre Arbeit ordnungsgemäß ausführen.

(Siehe auch hier)

Viele Karosseriewerkstätten nehmen Elektrofahrzeuge wegen der Brandgefahr bei den Batterien nicht an, wie wir bereits mehrfach berichtet haben.

Was aber, wenn einige skrupellose Versicherer einen Weg gefunden haben, diese teuren Totalschäden zu vermeiden? Was, wenn einige von ihnen kleine, unabhängige Karosseriewerkstätten ausnutzen, die auf Aufträge angewiesen sind, indem sie diese dazu ermutigen, ihre Mitarbeiter ein paar Schulungen absolvieren zu lassen, damit sie Reparaturarbeiten übernehmen können, an die sich die großen Anbieter nicht heranwagen? Arbeiten, die die großen Anbieter nicht annehmen, selbst wenn ihre Mitarbeiter über die richtigen Qualifikationen verfügen?

Warum werden kleinen Karosseriewerkstätten auf dem Land so viele wertvolle Reparaturaufträge für Elektroautos angeboten? Arbeiten, die viel näher am Wohnort, in Werkstätten in den Großstädten, erledigt werden könnten? Ich bezweifle irgendwie, dass die Erklärung darin liegt, dass die großen Anbieter das Geld nicht wollen.

Ich weiß, dass Autowerkstätten vielleicht nicht gerade die Unternehmen sind, für die man am ehesten Mitgefühl empfindet – viele von uns haben schon mindestens einmal schlechte Erfahrungen mit einem Kfz-Betrieb gemacht, der die Reparaturrechnung in die Höhe getrieben oder seine Arbeit nicht ordnungsgemäß erledigt hat. Es ist leicht zu sagen, dass Geschäftsführer und Inhaber sich selbst informieren sollten, und wenn etwas zu gut erscheint, um wahr zu sein, ist es das vielleicht auch. Aber wenn man ein kleines Unternehmen führt, das ums Überleben kämpft, und plötzlich die Versicherungsgesellschaften, mit denen man bereits zusammenarbeitet, einem viel Geld in Aussicht stellen, um in ein lukratives neues Nebengeschäft einzusteigen, ist es leicht nachvollziehbar, dass zeitlich stark eingeschränkte Kleinunternehmer vielleicht ein paar wichtige Details übersehen, während sie nach diesem Rettungsanker in Form eines EV-Reparaturauftrags greifen, damit sie den Menschen, die sie seit Jahren kennen, nicht sagen müssen, dass sie keinen Job mehr haben.

Ich habe zwar keine Beweise dafür, aber meiner Meinung nach ist die Situation verdächtig. Ich habe meinem Freund vorgeschlagen, dem neuen Geschäftsinhaber zu raten, sich an einen Anwalt zu wenden und alle Versicherungsverträge und Geschäftsbedingungen durchzugehen, einschließlich des Haftpflichtversicherungsvertrags für die Werkstatt.

Wenn du einen Freund hast, der eine kleine Karosseriewerkstatt betreibt, frag doch mal nach, ob ihm ein lukratives neues Geschäftsfeld angeboten wurde. Denn wenn meine Theorie stimmt, könnte einigen Kleinunternehmern bald das Leben ruiniert werden.

Link: https://wattsupwiththat.com/2026/04/07/a-warning-about-evs-to-small-vehicle-smash-repair-shops/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Eine Warnung bezüglich Elektrofahrzeugen für unabhängige Kfz-Werkstätten erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Auf der Heartland-Klimakonferenz: „Welche Beweise?“ – Ausgabe Energie-Ungleichgewicht

veröffentlicht.
Vorschau ansehen

Francis Menton, THE MANHATTAN CONTRARIAN

In seiner Rede auf der Heartland Climate Conference am 9. April widmete der Physiker John Clauser das erste Viertel seiner Redezeit dem Thema extreme Wetterereignisse und den Rest dem sogenannten „Earth’s Energy Imbalance“ (EEI). Am 10. April habe ich den Teil des Vortrags, der sich auf extreme Wetterereignisse bezog, in meinem vorherigen Beitrag hier zusammengefasst [in deutscher Übersetzung hier]. Heute werde ich auf Clausers Vortrag zum EEI eingehen.

Bevor ich Clausers Vortrag hörte, hatte ich zwar schon von der EEI-Kennzahl gehört, mich aber noch nicht eingehend damit befasst. Mir war auch nicht bewusst, in welchem Maße der IPCC und die Klima-Clique diese Kennzahl als bevorzugten Beweis für eine bevorstehende gefährliche globale Erwärmung herangezogen haben.

Die Kennzahl, die bisher am häufigsten als angeblicher Beweis für eine gefährliche Erwärmung der Atmosphäre herangezogen worden ist, ist allgemein unter dem Namen „Global Average Surface Temperature“ (GAST) bekannt. Mehrere Institutionen veröffentlichen unterschiedliche Versionen von GAST. Die drei großen Institutionen, die GAST-Daten melden, sind die NOAA und die NASA in den USA sowie das Hadley Centre in UK. Um eine Version der GAST zu berechnen, ermitteln diese Organisationen eine Reihe von Messstationen mit Thermometern auf der ganzen Welt und erfassen täglich die Messwerte jeder dieser Stationen. In der Regel bilden sie den Durchschnitt aus den Höchst- und Tiefsttemperaturen jeder Station, um einen Tagesdurchschnitt für diese Station zu erhalten, und mitteln dann alle Tagesdurchschnitte, um einen Monatsdurchschnitt für jede Station zu erhalten. Anschließend mitteln sie die Monatsdurchschnitte aller Stationen, um einen weltweiten Durchschnitt für jeden Monat zu erhalten. Der Wert wird in der Regel nicht als absolute Temperatur angegeben, sondern als „Anomalie“, d. h. als Abweichung von einer bestimmten Basislinie. Jede der berichtenden Stellen verfügt über eine andere Auswahl an Stationen und ein anderes Verfahren zur Berechnung der Basislinie.

Die GAST-Methode ist die Grundlage, auf der die NASA und die NOAA ihre monatlichen Diagramme erstellen, die einen stark ansteigenden globalen Temperaturtrend zeigen. Dies ist das Verfahren, das Mann et al. verwendeten, um den steil ansteigenden „Ausläufer“ ihres berühmten Hockeystick-Diagramms zu erstellen. Und es ist eine der drei „Beweislinien“, anhand derer die EPA in ihrem „Endangerment Finding“ von 2009 (das kürzlich von der Trump-Regierung aufgehoben worden ist) behauptete, CO2 und andere „Treibhausgase“ stellten eine „Gefahr für die menschliche Gesundheit und das Wohlergehen“ dar.

Aber beweisen die GAST-Diagramme wirklich, dass eine Art „Durchschnittstemperatur“ der Erde steigt, geschweige denn, dass sie auch in Zukunft weiter steigen wird? Die Verwendung von GAST als Maß für die globale Durchschnittstemperatur wirft große Probleme auf, von denen Clauser viele aufgezeigt hat:

• Die Temperatur ist ein sogenannter „intensiver“ Parameter, der nicht sinnvoll addiert werden kann und daher nicht gemittelt werden darf.

• Viele der Boden-Thermometer in den GAST-Netzwerken befinden sich in der Nähe von Gebäuden, Parkplätzen, Flughäfen und ähnlichen Orten, was ihre Messwerte durch den „städtischen Wärmeinseleffekt“ verfälschen kann.

• Viele Standorte in den GAST-Netzwerken wurden im Laufe der Jahre aufgegeben, was dazu geführt hat, dass fehlende Daten durch Algorithmen ergänzt werden.

• Es gibt bei weitem nicht genug Thermometer in den GAST-Netzwerken, um eine für statistische Zwecke ausreichende Stichprobe zu bilden.

• Für weite Teile der Welt liegen für große Abschnitte der Aufzeichnungen keine oder fast keine Daten vor, z. B. für die Ozeane der südlichen Hemisphäre, und auch hier wurden Daten (anstatt gemessen) erstellt und durch Algorithmen ergänzt.

• Die Methoden zur Bestimmung der Basiswerte für die „Anomalien“ sind schlecht definiert und zwischen den berichtenden Stellen uneinheitlich.

Die Mängel in den GAST-Daten und insbesondere die Ergänzung (Erfindung) fehlender Daten bildeten eine wesentliche Grundlage für den Antrag auf Überprüfung der Gefährdungsfeststellung, den ich gemeinsam mit Kollegen während der Amtszeiten von Trump und Biden vorgebracht habe.

Clauser beschrieb einen Prozess, durch den sich der IPCC allmählich davon entfernt hat, sich auf GAST als Beweis für die globale Erwärmung zu stützen. Die Veränderung erfolgte zwischen dem Fünften Sachstandsbericht (2013) und dem Sechsten Sachstandsbericht (2021) des IPCC. Aus Clausers Folien:

Der Fünfte Sachstandsbericht (AR5) des IPCC (2013) enthält eine zeitliche Darstellung der „Temperaturanomalie“. Der Sechste Sachstandsbericht (AR6) des IPCC (2021) stützt sich nun auf Werte für das Energieungleichgewicht der Erde (EEI).

Zuletzt, am 23. März 2026, erklärte UN-Generalsekretär Antonio Guterres einen „weltweiten Klimanotstand“. Als angebliche Grundlage für den „Notstand“ wurde die EEI genannt, wie sie in einem Bericht der Weltorganisation für Meteorologie (WMO) dargestellt wird:

Der [WMO]-Bericht bestätigt, dass das Energieungleichgewicht der Erde – die Differenz zwischen aufgenommener und abgegebener Wärme – so hoch ist wie nie zuvor. Mit anderen Worten: Unser Planet speichert Wärme schneller, als er sie abgeben kann.

Zugegeben, die EEI-Kennzahl bietet, sofern sie mit ausreichender Genauigkeit gemessen werden kann, als Indikator für die globale Erwärmung (sofern diese tatsächlich stattfindet) enorme Vorteile gegenüber GAST. Sie umgeht das Problem der Mittelwertbildung bei Daten, die sich nicht mitteln lassen; sie vermeidet die Kosten für Tausende von Messstationen (und Bojen im Ozean) rund um den Globus; sie vermeidet Probleme hinsichtlich der Kontinuität der Messstationen, des Wechsels von Messgeräten und der Standortverlagerung. Theoretisch könnte sie einfach durch einige Satelliten gemessen werden. Und wenn Satellitenmessungen eine Wärmeansammlung in der Atmosphäre nachweisen können, könnte dies eine Grundlage für die Vorhersage der fortschreitenden Erwärmung bieten.

Es schien eine so großartige Idee zu sein. Leider zeigt Clauser sehr detailliert auf, warum das gesamte Projekt ein Reinfall war. Die Satelliten wurden unter erheblichem finanziellen Aufwand ins All gebracht, ursprünglich im Jahr 1985. Eine zweite Generation, bekannt als die Terra- und Aqua-Satelliten, wurde 1999 und 2002 gestartet. Leider hat sich herausgestellt, dass die Satelliten eine unzureichende Genauigkeit und Lücken in ihren Messfähigkeiten aufweisen, die es unmöglich machen festzustellen, ob überhaupt ein „Energieungleichgewicht“ vorliegt und wenn ja, in welchem Umfang.

Das grundlegende Problem besteht darin, dass die Energiemengen, die von der Sonne einströmen und dann wieder ins All zurückfließen, groß sind; die Differenz (falls vorhanden) zwischen beiden, die eine mögliche Energieansammlung in der Atmosphäre oder den Ozeanen darstellt, ist jedoch gering. Der IPCC gibt für die von der Sonne einfallende Strahlung einen Wert von 340 Watt/Quadratmeter an. Der angegebene EEI beträgt 0,7 Watt/Quadratmeter, was nur etwa 0,2 % des gesamten Energieflusses entspricht. Diese Zahl, die auf Clausers Folie 27 erscheint, stammt aus dem Sechsten Sachstandsbericht des IPCC:

Die Zahlen oben zeigen die einfallende Sonnenstrahlung von 340 W/m² sowie die ausgehende Strahlung von 100 W/m² kurzwelliger reflektierter Sonnenstrahlung und 239 W/m² Infrarotstrahlung. Die Summe dieser beiden Werte beträgt 339. Wenn Sie in die untere linke Ecke schauen, sehen Sie einen Wert von 0,7 W/m² als „Ungleichgewicht“. Das ist nicht genau die Differenz zwischen 340 und 339, aber anscheinend hält man es für in Ordnung, einige Zahlen willkürlich zu runden, andere jedoch nicht.

Aus Clausers Folie 34:

Eingangs- und Ausgangsleistung sind beides sehr große Zahlen, und … der Unterschied zwischen ihnen ist winzig – etwa 0,2 % der Eingangsleistung. Dieser winzige Unterschied ist das Netto-Ungleichgewicht, das sowohl experimentell als auch theoretisch angestrebt wird. Eine zweite Schwierigkeit tritt auf, wenn sowohl die Eingangsleistung als auch die Ausgangsleistung sowohl zeitlich als auch räumlich in scheinbar zufälliger und völlig nicht reproduzierbarer Weise stark schwanken. Mess- und Rechenfehler (einschließlich Rundungsfehler) bei einer der drei großen Leistungskomponenten überlagern leicht den resultierenden Fehler der sehr geringen Leistungsdifferenz. Daher ist eine extrem hohe absolute Messgenauigkeit erforderlich.

Aber sind die Satelliten tatsächlich in der Lage, die ein- und ausgehende Strahlung an der Obergrenze der Atmosphäre (TOA) mit ausreichender Genauigkeit zu messen, um sicher sein zu können, dass dieser geringe Unterschied von 0,7 W/m² tatsächlich besteht? Clauser führt mehrere Zitate aus der Fachliteratur an, in denen eingeräumt wird, dass die Messgenauigkeit bei weitem nicht ausreicht. Hier sind zwei Zitate aus Clausers Folie 33:

Loeb et al. (2012, S. 111) geben zu: „… Eine Einschränkung der Satellitendaten besteht darin, dass sie keine absolute Messung des Netto-Strahlungsungleichgewichts an der TOA mit der erforderlichen Genauigkeit liefern können. …“ Stephens et al. (2012) geben zu: „… Die kombinierte Unsicherheit des aus CERES bestimmten Netto-TOA-Flusses beträgt ± 4 W/m² (95 % Konfidenz), was größtenteils auf Kalibrierungsfehler der Instrumente zurückzuführen ist. …“

Wenn Ihre Fehlermarge bei +/- 4 W/m² liegt und Sie eine „Abweichung“ von 0,7 W/m² gemessen haben, dann unterscheidet sich diese Abweichung offensichtlich nicht wesentlich von Null. Ehrliche Wissenschaftler würden das zugeben. Leider ist das nicht die Vorgehensweise der „Klimawissenschaft“.

Clausers Folien gehen sehr detailliert auf die Natur des Problems ein. Offenbar wird der aus reflektierter Sonnenstrahlung bestehende Teil der ausgehenden Strahlung stark gestreut und kommt aus vielen zufälligen Richtungen; und die Satelliteninstrumente reichen nicht aus, um all dies zu erfassen. Aus Clausers Folie 37:

Das Sichtfeld [der Satelliteninstrumente] ist keineswegs panoramisch. Infolgedessen wird gestreute und/oder reflektierte [ausgehende] Energie, die aus Winkelrichtungen oberhalb und unterhalb des schmalen Winkelempfangsstreifens eintraf, nicht erfasst. . . . Das Ergebnis war ein zu niedriger gemeldeter Wert [für die ausgehende reflektierte Sonnenenergie] und ein entsprechend viel zu hoher gemeldeter EEI-Wert (6,5 W/m²).

Der tatsächlich von den Satelliten gemessene EEI betrug also 6,5 W/m², doch alle waren sich bewusst, dass dieser Wert unmöglich war und eine weitaus stärkere Erwärmung implizieren würde, als beobachtet wurde. Wie sollte man mit diesem Problem umgehen? Clauser zitiert eine Veröffentlichung aus dem Jahr 2011 des berühmten James Hansen von der NASA:

Da dieses Ergebnis unplausibel ist, wurden Kalibrierungsfaktoren für die Messgeräte eingeführt, um die Diskrepanz auf den von Klimamodellen nahegelegten Wert von 0,85 W/m² zu reduzieren (Loeb et al. 2009). …

Wenn die Daten eindeutig falsch sind, verwendet man einfach sein Lieblingsmodell, um die Daten so lange zu modifizieren, bis sie zur bevorzugten Theorie passen. Und damit bin ich erst bei Folie 39 von Clausers 124 Folien angelangt.

Die Geschichte geht von da an weiter und weiter. Die „klimawissenschaftliche“ Gemeinschaft war nicht bereit zuzugeben, dass sie über keine Mittel verfügte, den EEI zu messen, um eine Wärmeansammlung in der Atmosphäre und den Ozeanen nachzuweisen. Hansen und andere schlugen vor, separat gemessene Veränderungen des Ozeanwärmeinhalts (OHC) zu nutzen, um die Lücken in den Satellitendaten zu schließen, und es wurden umfangreiche Anstrengungen unternommen, dies zu tun. Doch die OHC-Messungen sind mit eigenen Problemen behaftet, von denen viele mit den Problemen bei der Messung der durchschnittlichen Lufttemperatur mittels GAST vergleichbar sind: Die Messung erfolgt durch Bojen im Ozean und nicht durch Satelliten an der TOA; es gibt bei weitem nicht genug Bojen; sie messen keine Wärme an der TOA und sind daher nicht mit den Satellitenmessungen des Energieflusses vergleichbar; die Bojen sinken ab und steigen wieder auf, aber ihr Standort ist nur bekannt, wenn sie an die Oberfläche kommen; der Prozess der Umwandlung von Temperaturmessungen in Wärmeinhalt ist zweifelhaft; es gibt überhaupt keine Abdeckung der Polarregionen; und so weiter und so fort.

Clauser geht ausführlich darauf ein, wie eine Kombination aus äußerst fehlerhaften Satellitendaten und äußerst fehlerhaften OHC-Daten rückentwickelt wird, um zu einem vorab festgelegten Wert von etwa 0,7 oder 0,8 W/m² als EEI zu gelangen. Er bringt mehrere Vorwürfe wissenschaftlichen Fehlverhaltens vor und verwendet den Begriff „Betrug“ großzügig.

Der Kernpunkt ist jedoch, dass die Genauigkeit der Messungen nicht ausreicht, um einen EEI zu behaupten, der sich signifikant von Null unterscheidet. Was den EEI betrifft, lautet die Antwort auf die Frage „Was ist der Beweis?“: Es gibt keinen Beweis!

Link: https://wattsupwiththat.com/2026/04/13/at-the-heartland-climate-conference-what-is-the-proof-earths-energy-imbalance-edition/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Auf der Heartland-Klimakonferenz: „Welche Beweise?“ – Ausgabe Energie-Ungleichgewicht erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

„Umweltfreundliche“ Energie schlachtet Wildtiere

veröffentlicht.
Vorschau ansehen

Vijay Jayaraj

Zahlreiche Studien von Biologen und Ornithologen bringen unmissverständlich die wachsende Besorgnis über das Töten von Vögeln und anderen Lebewesen durch sogenannte umweltfreundliche Technologien zum Ausdruck. Viele der Forscher lehnen das Konzept alternativer Energiequellen zwar nicht grundsätzlich ab, geben jedoch nicht mehr vor, dass Wind- und Solarenergie harmlos seien.

Der grundlegende Mangel dieser Technologien ist ihre geringe Energiedichte. Um die gleiche Menge an zuverlässigem Strom zu erzeugen wie ein mit Erdgas betriebener Generator oder ein Kernkraftwerk, benötigen Wind- und Solaranlagen Tausende Hektar zusätzliches Land. Das ist eine Frage der Physik. Doch in der Eile, willkürliche „Netto-Null“-Ziele zu erreichen, wird die Umwelt zerstört, die angeblich geschützt werden soll.

Wind- und Solaranlagen vernichten Wildtiere, zerstören Lebensräume, fragmentieren Ökosysteme und hinterlassen ökologische Verwüstungen, die weit über das hinausgehen, was die grüne Lobby bereit ist anzuerkennen. Die Darstellung von Politikern und finanzstarken Umwelt-NGOs – dass Wind- und Solarenergie die Retter der Natur seien – ist eine Lüge. Die Daten belegen, dass diese Projekte Wildtiere nicht nur verdrängen, sondern sie in industriellem Ausmaß töten.

Eine schockierende Untersuchung offenbart das Ausmaß dieser Eingriffe. Wind- und Solarparks überschneiden sich weltweit mit 2.310 bedrohten Amphibien-, Vogel-, Säugetier- und Reptilienarten. Dies entspricht 36 % der weltweit bedrohten Arten. Die „grüne“ Utopie wird auf den Gräbern der Schwachen errichtet.

Eine Studie, welche die Auswirkungen von Projekten im Bereich „erneuerbarer“ Energien analysierte ergab, dass 2.206 in Betrieb befindliche Anlagen 886 Schutzgebiete, 749 „Schlüsselgebiete für die Biodiversität“ und 40 einzigartige Wildnisgebiete geschädigt hatten. Die Forscher prognostizieren eine Ausweitung dieser Auswirkungen um 30 %, weil natürliche Rückzugsgebiete weiter industrialisiert werden.

Eine weitere Studie untersuchte 84 begutachtete Studien zu Onshore-Windparks und dokumentierte 160 Fälle von Artenverdrängung, von denen Vögel, Fledermäuse und verschiedene Säugetierarten betroffen waren.

Für den Steinadler, ein Symbol wilder Erhabenheit, bedeutet dies den Tod. Im Westen der Vereinigten Staaten haben sich die dokumentierten Todesfälle zwischen 2013 und 2024 von 110 auf 270 mehr als verdoppelt.

Eine Untersuchung von 42 afrikanischen Raubvogelarten ergab einen Rückgang um 88 % über einen Zeitraum von 20 bis 40 Jahren. Die Studie identifizierte Windparks als einen der Hauptfaktoren. In China hat der Ansturm auf Windenergie nach dem Bau von Windparks zu einem Rückgang der gesamten Vogelpopulationen um fast 10 % geführt. Im Kreis Changdao, der an einer wichtigen Zugroute für 330 Vogelarten liegt, berichteten lokale Gemeinden von rückläufigen Vogelpopulationen und vermehrter Schädlingsaktivität. In einem erstaunlichen Eingeständnis des Scheiterns wurden 80 Windkraftanlagen abgerissen, um das Ökosystem zu retten.

Jüngste Forschungsergebnisse zeigen, dass großflächige Solaranlagen in feuchten Regionen einen fast vollständigen Zusammenbruch der Vegetation verursachen. Die Solarmodule schirmen die Sonne ab, verändern das Mikroklima und führen zu Bodeninstabilität. Ohne Wurzeln, die den Boden festhalten, geht die Grundlage des Ökosystems verloren.

In Wüsten-Ökosystemen stören lokale Veränderungen durch Solaranlagen die Wachstumszyklen der Pflanzen und das Leben der Mikroorganismen, welche die Wüste gesund halten. In China hat der Ausbau der Photovoltaik zu Fragmentierung und Lebensraumverlust auf einer Fläche von mehr als 2.100 Quadratmeilen an landwirtschaftlichen, sandigen und grasbewachsenen Gebieten geführt.

Der Ausbau der Solarenergie in intakten Landschaften verringert den Artenreichtum. Umzäunungen schaffen unüberwindbare Barrieren, die Tiere einschließen und den für gesunde Populationen notwendigen Genfluss verhindern.

In den Vereinigten Staaten führt allein die Solarenergie Schätzungen zufolge jährlich zum Tod von 37.800 bis 138.600 Vögeln. Warum? Weil riesige Felder aus Solarmodulen aus der Luft wie Wasser aussehen.

Eine Studie aus Polen bestätigt diesen „Seeneffekt“ und zeigt, dass Photovoltaikparks aufgrund ihrer wasserähnlichen Reflexionen Wasservögel anziehen. Diese Vögel fliegen hinab, in der Erwartung eines kühlen Sees, und prallen stattdessen gegen glühend heißes Glas. Die Studie identifizierte an sechs Standorten 70 gefährdete Vogelarten, wobei sich das hohe Kollisionsrisiko auf einen Umkreis von 200 Metern um die Anlagen konzentriert.

Die Mojave-Wüstenschildkröte, eine uralte Überlebenskünstlerin in rauen Umgebungen, ist dem Solarboom zum Opfer gefallen. Von 2004 bis 2014 schrumpfte der Bestand dieser Art um 39 %. Großflächige Solaranlagen haben rund 100.000 Acres ihres Lebensraums zerstört. Wir vertreiben eine Art, die seit Millionen von Jahren in der Mojave-Wüste lebt, um Platz für Solarmodule zu schaffen, die in 20 Jahren veraltet sein werden.

Wir müssen die rücksichtslose Ausweitung von Energieprojekten mit geringer Dichte in wertvollen Ökosystemen stoppen. Der „grüne“ Wandel ist rot gefärbt vom Blut der Lebewesen, die wir eigentlich schützen sollten.

Originally published in The Blaze on March 27,  2026.

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India. He served as a research associate with the Changing Oceans Research Unit at University of British Columbia, Canada.

Link: https://wattsupwiththat.com/2026/04/08/eco-friendly-energy-slaughtering-wildlife/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag „Umweltfreundliche“ Energie schlachtet Wildtiere erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

NOAA: Die Wahrscheinlichkeit eines „starken El Niño“ steigt – und schon läuft die Hype-Maschine an

veröffentlicht.
Vorschau ansehen

Cap Allon

Die NOAA schätzt die Wahrscheinlichkeit für ein „starkes“ El-Niño-Phänomen bis zum Herbst derzeit auf etwa 50:50.

Man beachte den klein gedruckten Hinweis rechts unten! Übersetzung: „Stärkere Ereignisse bedeuten nicht immer stärkere Auswirkungen auf Wetter und Klima. Stärkere Ereignisse machen es wahrscheinlicher, dass es zu bestimmten Auswirkungen kommt“.

Und mehr brauchte es nicht – schon schreien die Schlagzeilen wie von selbst um die Wette. „Super-El-Niño“. „Godzilla-El-Niño“. Eine weitere Runde angstgeschürter Berichterstattung, die auf einem Szenario basiert, das vielleicht gar nicht eintritt.

Sogar einige Klimaforscher melden Widerspruch an.

Der Begriff „Super-El-Niño“ entspricht nicht dem wissenschaftlichen Standard. Er ist Mediensprache. Er bezieht sich grob auf Niño3.4-Anomalien, die über 2 °C hinausgehen, aber diese einzelne Kennzahl ist nur ein kleiner Ausschnitt eines viel größeren Systems. Sie erfasst die Meerestemperaturen in einer Region des östlichen Pazifiks. Sie erfasst nicht die gesamte atmosphärische Dynamik, die tatsächlich die Wetterauswirkungen bestimmt.

Und entscheidend ist, dass sie sich nicht zuverlässig in Auswirkungen an Land niederschlägt.

Es gibt eindeutige historische Beispiele. Der starke El Niño von 1997–98 hatte in Teilen Australiens relativ geringe Auswirkungen auf die Niederschlagsmengen. Gleichzeitig haben schwächere Ereignisse weitaus schwerwiegendere Dürrebedingungen verursacht. Stärke auf dem Papier ist nicht gleichbedeutend mit Auswirkungen in der Realität.

Dann ist da noch der Zeitpunkt.

Diese Prognosen werden im April erstellt, also mitten in der bekannten „Herbst-Vorhersagebarriere“. Dies ist die unzuverlässigste Zeit des Jahres für ENSO-Prognosen. Die Modelle versprechen hier regelmäßig zu viel. Die Prognosen für 2017 deuteten zuversichtlich auf ein starkes und anhaltendes El Niño hin. Was folgte, war schwach und von kurzer Dauer.

Die ehrliche Antwort heute: vielleicht.

Stattdessen erleben wir eine Übertreibung, denn ein starker El Niño ist gut fürs Geschäft. Er würde wahrscheinlich die globalen Temperaturwerte (vorübergehend) in die Höhe treiben. Er nährt die Erzählung. Er füllt die Schlagzeilen.

Aber El Niño dämpft typischerweise auch die Hurrikanaktivität im Atlantik. Die Windscherung nimmt zu. Die Entwicklung von Stürmen wird erschwert. Oft folgen ruhige Saisons. Das passt natürlich nicht ins Drehbuch. Wenn sich also ein starker El Niño bildet, ist zu erwarten, dass dieser Aspekt ein oder zwei Jahre lang ignoriert wird, während ein Temperaturanstieg in den Vordergrund gerückt wird.

Die Daten sprechen von einem 50:50-Verhältnis.

Die Schlagzeilen sind bereits in voller Hype-Stimmung:

Link: https://electroverse.substack.com/p/polar-vortex-holds-canada-in-winter?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag NOAA: Die Wahrscheinlichkeit eines „starken El Niño“ steigt – und schon läuft die Hype-Maschine an erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Umwelt-Aktivisten kämpfen vor Gericht gegen unseren Lebensstandard

veröffentlicht.
Vorschau ansehen

Craig Rucker

[Ähnlichkeiten mit der DUH hierzulande sind natürlich rein zufällig! A. d. Übers.]

Umweltverbände und Klima-besessene Kommunalverwaltungen führen in ganz Amerika einen aggressiven „Climate Lawfare“ – sie nutzen Klagen, um den Kongress, die ins Stocken geratenen globalen Pläne der UNO, die Politik der Trump-Regierung und Urteile des Obersten Gerichtshofs zu umgehen. Sie sind entschlossen, uns allen ihre Agenda gegen fossile Brennstoffe aufzuzwingen und unseren Lebensstandard zu untergraben.

Mehr als 20 Bundesstaaten, Landkreise und Städte klammern sich an die alarmistische Behauptung, dass der vom Menschen verursachte Klimawandel eine „existenzielle Bedrohung“ darstelle, welche die rasche Abschaffung fossiler Brennstoffe erfordere.

Angestachelt von Gruppen wie EarthRights International, Youth Climate Strike, Sunrise Movement, Extinction Rebellion und dem Environmental Law Institute (das einseitige „Aufklärung“ bei Richtern vorantreibt), verklagen sie eine Handvoll großer Ölkonzerne und behaupten, diese Unternehmen hätten das Klima „gestört“ und Schäden in Milliardenhöhe durch angebliche Wetter- und Erwärmungsereignisse verursacht.

Ihr eigentliches Ziel? „Systemweite Veränderungen“ in unseren Bereichen Energie, Wirtschaft und Gesellschaft – und zwar durch eine indirekte Kohlenstoffsteuer, welche die Preise für fossile Brennstoffe in die Höhe treibt, bis sie sich die meisten Familien nicht mehr leisten können, und zwar nicht nur vor Ort, sondern landesweit.

Ein Paradebeispiel: Nachdem sie von EarthRights International kontaktiert worden waren, schlossen sich Boulder County und die Stadt Boulder mit einem anderen County in Colorado zusammen, um gegen das kanadische Unternehmen Suncor Energy und das US-amerikanische Unternehmen ExxonMobil zu klagen. Sie behaupten, diese Unternehmen hätten Eigentum, Gesundheit und Sicherheit beeinträchtigt, indem sie den Klimawandel mit höheren Temperaturen, mehr Dürren und Waldbränden, schwindenden Schneedecken, verringerten Wasservorräten, Schäden für die Landwirtschaft und Einbußen für die Skibranche angeheizt hätten.

Sie fordern Entschädigungen in Milliardenhöhe für angebliche vergangene und zukünftige „Schäden“. Beamte und Anwälte geben offen zu, dass das Endziel darin besteht, das amerikanische Energiesystem umzugestalten und überall horrend hohe Kosten für fossile Brennstoffe durchzusetzen.

Im Mai 2025 entschied der Oberste Gerichtshof von Colorado, dass diese Klage vor einem staatlichen Gericht verhandelt werden kann. Da diese Unternehmen jedoch landesweit und weltweit tätig sind und ihre Produkte verkaufen, beschränken sich die geltend gemachten Auswirkungen nicht auf Colorado, und die mit der Klage verfolgten Ziele würden Familien in den gesamten Vereinigten Staaten und darüber hinaus hart treffen.

Dieser Fall gehört vor ein Bundesgericht, wo Richter die Ansprüche aus einer breiteren nationalen und internationalen Perspektive in Bezug auf Wissenschaft, Wirtschaft und menschliches Wohlergehen bewerten würden, und nicht vor leicht manipulierbaren lokalen Instanzen und Medienberichten.

Andere machthungrige Gerichtsbarkeiten – Kalifornien, Connecticut, Minnesota, Baltimore, Honolulu und weitere – verfolgen ähnliche Angriffe vor Gericht, unterstützt von denselben Netzwerken. Sie weichen den Kernfragen aus.

Wenn es Bundesbehörden nicht gestattet ist, Angelegenheiten „von großer wirtschaftlicher und politischer Bedeutung“ ohne ausdrückliche Genehmigung des Kongresses zu regeln – wie jüngste Urteile des Obersten Gerichtshofs deutlich gemacht haben –, wie können dann Kommunalverwaltungen und Landesgerichte de facto eine nationale Energie- und Wirtschaftspolitik durchsetzen?

Wie können sie unklare wissenschaftliche Erkenntnisse, nicht vorhandene Gesetze oder vage Formulierungen zu „vernünftigen“ Auslegungen verdrehen, die ihre Befugnisse massiv ausweiten und die Kosten für die Privatwirtschaft landesweit in die Höhe treiben, entgegen den jüngsten Entscheidungen des Obersten Gerichtshofs? Wie kann diese Lawfare-Koalition – im Zusammenspiel mit Umweltaktivisten und wohlwollenden Gerichten – landesweite Vorgaben in Bezug auf fossile Brennstoffe, Klima und Emissionen durchsetzen, wenn der Kongress seit Jahrzehnten nicht handelt oder dies versäumt hat?

Wie können sie die Bedürfnisse und Wünsche von Millionen von Bürgern außer Kraft setzen, deren Heizung, Klimatisierung, Arbeitsplätze, Ernährung, Gesundheit und Lebensstandard durch diesen destruktiven Vorstoß beeinträchtigt werden würden?

Diese Tatsachen erklären, warum Entwicklungsländer wie China und Indien, die fossile Brennstoffe benötigen, um Milliarden Menschen aus Armut, Krankheit und Hoffnungslosigkeit zu befreien, auf der jüngsten UN-Klimakonferenz in Belém, Brasilien (COP30), die mit kaum mehr als bloßen Worten endete, eine unnachgiebige Haltung einnahmen. Öl, Erdgas und Kohle decken nach wie vor 80 Prozent des weltweiten Primärenergiebedarfs. China und Indien bauen monatlich neue Kohlekraftwerke; China verursacht ein Drittel der weltweiten Treibhausgasemissionen, mehr als alle Industrienationen zusammen.

Diese Länder erkennen, dass der eigentliche Schaden dadurch entsteht, dass erschwingliche Energie verboten, auf unzuverlässige erneuerbare Energien gesetzt und wichtige petrochemische Produkte blockiert werden – nicht durch den angeblichen vom Menschen verursachten Klimawandel.

Deshalb hat Präsident Trump die Vereinigten Staaten aus dem Pariser Abkommen und der UN-Klimarahmenkonvention zurückgezogen, kostspielige Vorschriften aufgehoben, die auf übertriebenen Behauptungen über eine „Klimakrise“ beruhten, und die amerikanische Öl- und Gasproduktion auf Rekordniveau gesteigert.

Der Oberste Gerichtshof hat unmissverständlich klargestellt, dass Bundesbeamte keine weitreichenden Vorschriften ohne ausdrückliche Zustimmung des Kongresses erlassen dürfen und keine „vernünftigen Auslegungen“ mehrdeutiger Gesetze vornehmen dürfen, die zu einer Ausweitung der Regulierungsbefugnisse oder zu höheren Kosten führen.

Dennoch versuchen diese lokalen „Lawfare“-Bemühungen, all dies zu umgehen. Genau aus diesem Grund hat der Oberste Gerichtshof im Februar angekündigt, dass er die Berufungen von Suncor und ExxonMobil verhandeln wird, die darauf abzielen, das Verfahren in Colorado und ähnliche lokale Klimamaßnahmen zu beenden.

Eine entschiedene Entscheidung, um diesen überzogenen Einsatz von „Lawfare“ zu stoppen, kann nicht früh genug kommen.

This article originally appeared at DC Journal

Link: https://www.cfact.org/2026/04/04/environmentalists-are-fighting-our-living-standards-in-court/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Wie in anderen ähnlichen Artikeln auch hätte man die eigennützigen und gemeingefährlichen Motive dieser Herrschaften viel mehr hervorheben müssen!

Der Beitrag Umwelt-Aktivisten kämpfen vor Gericht gegen unseren Lebensstandard erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Klimawandel und Intersektionalität

veröffentlicht.
Vorschau ansehen

Climate Litigation Watch

Ist AP die Abkürzung für „Übernommene Propaganda“?

Die Leser von CLW haben sich über die juristische „Schulungsmaschinerie“ auf dem Laufenden gehalten, welche die Klägeranwälte und die mit ihnen verbundenen Wissenschaftler sowie NGO-Aktivisten rasch auf die Beine gestellt hatten, nachdem die Klimaklageindustrie 2018 zwei Niederlagen vor Bundesgerichten hatte hinnehmen müssen. Der Hintergrund dieser „Schulungen“ – derzeit ein heißes Thema, über das hier erstmals im Mai und dann im Oktober 2021 berichtet wurde und seitdem immer wieder – wurde insbesondere in Veröffentlichungen der University of Oregon (siehe z. B. hier), der Oregon State University (hier, hier und hier) und der University of Washington (hier, hier, hier und hier) näher beleuchtet. Letztere hat uns gerade ein weiteres Beispiel dafür geliefert, dass „sie genau die sind, für die wir sie gehalten haben“.

Prof. Kristie Ebi von der University of Washington wurde von den National Academies of Sciences, Engineering and Medicine (NASEM) rekrutiert, um im Team der externen Gutachter der „beschleunigten“ und (wie das GAO in seinen Stellungnahmen hervorhob) von Aktivisten dominierten („von Natur aus bis zur Absurdität widersprüchlichen“) NASEM-Kampagne mitzuwirken, deren Ziel es war, den heimischen „Heiligen Gral“ der Klimabefürworter aufrechtzuerhalten. Das ist das „Endangerment Finding“ von 2009, von der wir alle inzwischen wissen, dass sie von Aktivisten vorgefertigt worden war, die dann in der Regierung freigeschaltet wurden, um eine Agenda voranzutreiben.

Der unvoreingenommene, nachdenklich die Wange streichelnde Wahrheitssucher der UW arbeitete gleichzeitig mit Mitgliedern des Teams der Klimakläger zusammen – von der Gruppe, die als „Anwälte des Rockefeller-Familienfonds“ bekannt ist, bis hin zu Aktivisten und Sachverständigen, die vor Richtern vorgeführt wurden, die an schicke Orte rekrutiert worden waren, um die Sichtweise der Kläger (und nur die Sichtweise der Kläger) anzuhören (und sich davon beeinflussen zu lassen).

Ende letzten Jahres zeichnete sich eine weitere Priorität ab, nämlich die Untergrabung des „Endangerment Finding“ durch das „Red Team“ führender Wissenschaftler, die vom Energieministerium zusammengestellt worden waren und die ursprüngliche Auslassungen sowie Entwicklungen seit 2009 ans Licht brachten. Dies löste zudem eine Notlage aus, der mit der „objektiven“, vom Steuerzahler finanzierten NASEM-Initiative begegnet werden sollte, die nun unter anderem Gegenstand einer Untersuchung durch den Kongress ist.

Dies betrifft vor allem Ersteres, wirft aber auch ein sehr schlechtes Licht auf Letzteres: Eine Reihe von Unterlagen, die „Government Accountability & Oversight“ gerade erhalten hat, erinnert uns zudem an die Rolle als Fürsprecher, die Medienunternehmen in diesen Fragen übernommen haben – von CNN und CBS, die Berater des Klägerteams für „Klimaberichte“ im Fernsehen ausstrahlten und sogar bei sich unterbrachten, über andere traditionsreiche Medien, deren Stiftungen mit beiden Händen von aktivistischen Spenderorganisationen gefüttert werden, bis hin zur ungeschickteren Associated Press (Patient Null bei der Besetzung vermeintlicher Nachrichtenmedien durch Stiftungen, sogar einer der von Facebook zusammengestellten Faktenprüfer“, um die Kontrolle über die Berichterstattung zu behalten).

AP lag natürlich vor weniger als einem Jahrzehnt auf dem Sterbebett, als die Klimaaktivisten-Stiftungen mit Millionenbeträgen einsprangen. Interpretieren Sie das, wie Sie wollen. CLW liest dasselbe heraus, was Ebi andeutet.

Die jüngste Korrespondenz steht hier.

Wer hätte das gedacht?

Link: https://wattsupwiththat.com/2026/04/08/climate-industry-intersectionality/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Klimawandel und Intersektionalität erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Vorstellung einer Theorie der historischen globalen Wolken-Bedeckung

veröffentlicht.
Vorschau ansehen

Charles Blaisdell, PhD ChE

Abstract

Die Verdunstungsrate (Masse/Zeit/Fläche) von Wasser aus den Ozeanen ist höher als die von Land (2,4-fach). Diese Verdunstungsrate von Land umfasst Wasser aus der Vegetation, dem Boden und dem Tau sowie flüssiges Wasser und wird als Evapotranspiration (ET) bezeichnet. Die globale jährliche ET(ga)-Rate der Ozeane ist relativ konstant, während sich die Rate des Landes mit lokalen Veränderungen der Evapotranspiration ändern kann. Aufgrund dieses Unterschieds zwischen Ozean und Land hängt die globale jährliche ET(ga) der Erde von der Größe des Landes und/oder der Fläche des Landes unter dem Sonnenzenit ab (beides ändert sich derzeit nicht). Historisch gesehen sagen Wissenschaftler, dass sich die Größe des Landes und die Achse tatsächlich verändert haben. Dieser Aufsatz stellt eine Theorie vor, die alle drei Ursachen für die Veränderung der ET(ga) der Erde berechnet und aufzeigt, was mit dem Wolkenanteil und der Temperatur der Erde geschehen sein könnte.

Es wird eine sigmoidale Beziehung zwischen dem Wasserdampfdruckdefizit, VPD(ga), der globalen jährlichen Enthalpie, En(ga), und dem globalen jährlichen Wolkenanteil, CF(ga), vorgeschlagen. Ein Modell zeigt mögliche globale Temperaturänderungen aufgrund von Veränderungen der Landmasse der Erde, der Achse, der lokalen ET und Kombinationen aller drei Faktoren.

Ein psychrometrisches Diagramm veranschaulicht die zweistufige Berechnung in diesem natürlichen Klimawandelprozess, um die komplexe Mathematik besser zu verstehen.

Introduction

Die vier grundlegenden Variablen der Atmosphärenwissenschaft sind Temperatur, spezifische Feuchte (SH), Druck und Strahlung. Die ersten drei Variablen werden im Clausius-Clapeyron-Gesetz verwendet, um ihre Energie (Enthalpie, En) und ihre relative Feuchte (RH) usw. zu beschreiben. Auf globaler Tagesbasis unterliegen diese Variablen starken Schwankungen und werden als Wetter bezeichnet. Auf globaler Jahresbasis beruhigt sich die Lage, sodass sich außer dem Klimawandel kaum etwas ändert. Das Clausius-Clapeyron-Gesetz gilt sowohl für tägliche als auch für globale Jahresdaten und lässt sich in einem psychrometrischen Diagramm veranschaulichen, das diese komplizierte Beziehung etwas vereinfacht.

In der wissenschaftlichen Gemeinschaft herrscht Einigkeit darüber, dass der Wolkenanteil die größte Unsicherheit bzgl. des Klimawandels darstellt. Der Wolkenanteil der Erde (etwa 60 %) reflektiert etwa 50 % der Sonnenstrahlen. Vor etwa 1980 konnten kaum Veränderungen des Wolkenanteils beobachtet oder gemessen werden; man ging davon aus, dass der globale Wolkenanteil konstant sei. Satellitendaten seit etwa 1980 deuteten darauf hin, dass der Wolkenanteil möglicherweise abnimmt. Es wurde eine Theorie der „Cloud Reduction Global Warming“ (CRGW) (8) vorgeschlagen, um zu zeigen, wie eine natürliche Abfolge miteinander verbundener atmosphärischer Prozesse die Verringerung der Bewölkung erklären und den beobachteten Temperaturanstieg, den Anstieg der spezifischen Feuchte sowie den Rückgang der relativen Feuchte begründen kann.

Aus der Temperatur und der spezifischen Feuchtigkeit (SH) lässt sich das globale jährliche Dampfdruckdefizit (VPD(ga)) berechnen (8). VPD(ga) ist ein Wert, der angibt, wie nahe die Wasserkonzentration in der Atmosphäre am Taupunkt liegt, wobei Null dem Taupunkt entspricht (hohe Wahrscheinlichkeit für Wolkenbildung) und je größer der Wert ist, desto unwahrscheinlicher ist es, dass sich irgendwo auf der Erde Wolken bilden.

Die Messung des Wolkenanteils, CF(ga), umfasst teilweise bewölkten Himmel, hohe, dünne Wolken, stark reflektierende Regenwolken und viele andere Wolkentypen mit unterschiedlichem Reflexionsgrad. Die Enthalpie, En(ga), ist ein besserer Indikator für die Nichtreflexion und korreliert zudem mit CF(ga). VPD(ga) im Vergleich zu En(ga) ist nicht mit den Einschränkungen von CF(ga) behaftet und wird im Modell verwendet. Es hat sich gezeigt, dass die Gesamtenthalpie der Atmosphäre gleich der ausgehenden Langwellenstrahlung ist (10) und in allen Höhenlagen, einschließlich der Oberflächendaten, proportional zur ausgehenden Langwellenstrahlung ist, siehe (10). Darüber hinaus ist ET(ga) proportional zu SH(ga), sodass eine Änderung von ET(ga) einer Änderung von SH(ga) entspricht und umgekehrt.

Trenberth et al. (2011) (12) dokumentieren die jährliche Gesamtwasserverdunstung (Abbildung 9 in (12)) aus den Ozeanen mit 413 (1000 km³/Jahr) und vom Land mit 73 (1000 km³/Jahr). Die Ozeandaten umfassen Eis und Wolken (62 %) (sowohl Ozeane als auch Land). Diese Messungen lassen sich in ET(ga) pro Einheit der Erdoberfläche umrechnen (1141 (mm/Jahr/% der Erde) für Ozeane und 494 (mm/Jahr/% der Erde) für Land), was einer 2,4-mal höheren ET-Rate der Ozeane entspricht. Dieser Unterschied in der ET von Ozeanen und Land bedeutet, dass jede Veränderung der Landfläche der Erde, des prozentualen Anteils an Land unter dem Sonnenzenit oder einfach nur der Land-ET gemäß der CRGW-Theorie die globale Temperatur verändern kann. Dieser Unterschied zwischen Ozeanen und Land wurde in (18) beobachtet.

Das Modell

Es handelt sich hierbei um ein Modell nach den Grundprinzipien und nicht um ein statistisches Modell, das das Verständnis der vorgeschlagenen Theorie veranschaulichen soll.

Das Modell geht von einem Referenzjahr aus, da ET(ga) und SH(ga) proportional zueinander sind und daher einen konkreten Ausgangspunkt benötigen (NOAA-Daten zwischen 1975 und 2024). Als Nächstes wird eine Fallstudie aus einer der folgenden Optionen oder einer Kombination davon ausgewählt: 1. Änderung der Landfläche, 2. Änderung der Achsenverschiebung des Landes unter dem Sonnenzenit, 3. Änderung der ET des Landes. Jede Fallstudie berechnet die Änderung der ET(ga) (pro Jahr pro Flächeneinheit der Erdoberfläche) ausgehend von den oben genannten ET-Werten für Ozean (und Eis) und Land (1141 und 494). Die Berechnungen finden Sie im beigefügten Excel-Modell. Tabelle 1 enthält einige Fallbeispiele aus dem Modell. Tabelle 2 enthält die Eingabeparameter und die berechneten ET(ga)-Werte.

Das Modell verwendet aus dem Clausius-Clapeyron-Gesetz abgeleitete psychometrische Gleichungen (siehe (8) für die Gleichungen) und eine sigmoidale Kurve von VPD(ga) gegen Enthalpie, En(ga). Die Strategie des Modells folgt dem in den Abbildungen 1 und 4 dargestellten Pfad. Dieser Pfad folgt der adiabatischen (konstante En) Linie bei steigender ET (SH) (nach links) oder sinkender ET (SH) (nach rechts) bis zum Punkt der SH(ga)-Änderung. Anschließend folgt die Linie mit konstanter VPD(ga) bis zu dem in Abbildung 2 vorhergesagten En(ga). (Folgen Sie VPD(ga) nach oben für den Pfad mit abnehmendem SH, nach unten für den Pfad mit zunehmendem SH), siehe Abbildung 4 für eine vergrößerte Ansicht des Pfades.

In Abbildung 2 zeigt der mittlere Teil des Diagramms NOAA-Daten aus (15) für den Zeitraum von 1975 bis 2024. Die oberen und unteren Asymptoten (vollständige Bewölkung und wolkenfreier Himmel, En(ga)) wurden anhand von Albedodaten von Dubal (16) und Loeb (17) berechnet, die auf bekannte Enthalpiedaten (bereinigt um Meeres- und Landflächen) normiert wurden; alle Daten stammen aus dem gleichen Jahr. Die Parameter in der sigmoidalen Gleichung wurden dann (durch Ausprobieren) an die Daten angepasst (20). Besonderes Augenmerk wurde darauf gelegt, dass die sigmoidale Anpassung mit den linearen NOAA-Daten übereinstimmt. Die sigmoidale Kurve ermöglichte es dem Modell, außerhalb des engen NOAA-Bereichs der VPDs zu arbeiten.

Abbildung 1. Psychrometrische Tabelle, die den zweistufigen Prozess der CRGW-Theorie veranschaulicht.

Abbildung 2. Sigmoidale Anpassung der kombinierten NOAA- und CERES-Daten.

Das bemerkenswerte Ergebnis dieses Modells ist, dass ein anfänglicher Rückgang der ET(ga) der Erde zu einem Anstieg der ET(ga) führt. Dieses Verhalten lässt sich im psychrometrischen Diagramm beobachten, wo die SH(ga) zunächst (bei einem negativen Wert von -ET(ga)) auf der adiabatischen En-Linie abnimmt und dann auf der Linie mit konstanter VPD gemäß Abbildung 2 wieder steigt. Der CRGW-Klimawandel ist ein zweistufiger mathematischer Prozess, bei dem die im ersten Schritt verbrachte Zeit gerade lang genug ist, um eine neue VPD zu etablieren und damit die Anpassung des Wolkenanteils einzuleiten. (Psychrometrische Diagramme werden von HLK-Technikern zur Auslegung von Klimaanlagen verwendet; dies ist das erste Mal, dass konstante VPD-Linien in ein psychrometrisches Diagramm aufgenommen wurden, um den Klimawandel zu erklären, siehe Abbildung 4). Der zweistufige Prozess vollzieht sich in jährlichen Zyklen und hinterlässt eine Datenspur auf einer Diagonalen mit dem zweistufigen Verlauf vom Startpunkt zum Endpunkt; wenn die Änderung der ET + oder – ist oder keine Änderung vorliegt, liegen die beobachteten Daten auf der diagonalen Linie. An beiden Enden des sigmoidalen Graphen kann sich dies ändern. Am Ende des zweistufigen Verlaufs müssen die resultierende Temperatur und SH(ga) durch eine Konvergenzroutine berechnet werden, da die psychrometrische Gleichung gemischte Funktionen (logarithmisch und linear) enthält. Siehe beigefügtes Modell für die Gleichungen.

Die VPD(ga) im Vergleich zum Wolkenanteil ist ebenfalls ein sigmoidaler Graphen, siehe Abbildung 3.

Abbildung 3. Sigmoidkurve von VPD im Vergleich zum Wolkenanteil.

Abbildung 4. Verläufe der Veränderung von +/- ET(ga) im Modell.

Andere Modell-Variablen

Plumes entstehen über heißem Land, erreichen die Wolkenhöhe und können sich ausbreiten, sodass sie Gebiete bedecken, die größer sind als die Fläche, von der sie stammen, einschließlich der Ozeane. Je heißer es ist, desto weiter breiten sie sich aus. Plumes mit niedrigem SH verzögern die Wolkenbildung (wie ein schwarzer Parkplatz). Plumes mit hohem SH können Wolken bilden (wie ein Kühlturm). Weitere Informationen zu Plumes finden Sie unter (6). Das Modell verwendet Plume-Faktoren von 1x bis 4x. Über globale Plumes gibt es kaum Forschungsergebnisse, abgesehen davon, dass wir wissen, dass sie existieren. Das Modell zeigt, dass Plume-Faktoren einen großen Einfluss auf die globale Temperatur haben können. Die Plume-Faktoren sind auf 1x für Fälle mit Landflächen festgelegt auf 2x für Land unter dem Zenit der Sonne (wegen der erwarteten wärmeren Luft) und auf 4x für spezielle Parzellen, bei denen größere Plumes erwartet werden (siehe (6)). Das Modell wendet den Plume-Faktor auf die gesamte Erde an.

Die ET (Evaporative Transpiration) von speziellen Parzellen wie UHIs (Urban Heat Islands), Landnutzungsänderungen wie von Wald zu Ackerland oder Tagebau – siehe (8) für weitere Informationen zu speziellen Parzellen – wurde auf der Grundlage von Daten von Mazrooei et al. (2021) (19) geschätzt. ET-Änderungen von +10 bis -50 können verwendet werden.

Die Größe der Sonderparzellen wird auf etwa 5 bis 15 % der gesamten Landmasse der Erde geschätzt und nimmt zu, siehe (19) und (7) für weitere Informationen hierzu.

Nicht im Modell

Schwankungen der Sonneneinstrahlung auf die Erde. Das hätte man leicht hinzufügen können, hat es aber nicht getan.

Vulkane haben ebenfalls historische Auswirkungen auf das Klima, diese scheinen jedoch nur von kurzer Dauer zu sein. Mathematische Ansätze wie in diesem Aufsatz könnten auf die Auswirkungen von Vulkanen auf das Klima anwendbar sein. Feuchte Vulkane (solche, deren Ausstoß viel Wasser enthält) kühlen die Erde ab. Trockene Vulkane (solche, deren Ausstoß nur heißes Gas enthält) lassen Wolken sich auflösen.

Die klimatischen Auswirkungen von CO₂ werden in diesem Aufsatz zwar nicht behandelt. Der Anstieg oder Rückgang von CO₂ kann jedoch ein Indikator für Veränderungen der ET(ga) durch die Vegetation sein. Sinkende CO₂-Werte deuten darauf hin, dass die Vegetation die ET(ga) erhöht (mehr Wolken, kühler), und umgekehrt. Aktuelle Messungen der CO₂-Konzentration zeigen Schwankungen des CO₂-Gehalts im Laufe der Vegetationsperioden.

Modell-Ergebnisse

Die Fallstudien in den Tabellen 1, 2 und 3 zeigen, dass die Temperatur der Erde sehr empfindlich auf die Achsenneigung und die Landfläche reagiert. Dies geht so weit, dass Gletscher durch Veränderungen der Landfläche, die sich im Zenit der Sonne befindet (Achsenneigung), zum Wachsen oder Schrumpfen angeregt werden könnten (siehe (11)), oder durch Veränderungen der Landfläche insgesamt. Beides könnte durch Veränderungen der Vegetation verstärkt werden.

Der Anstieg der ET(ga) durch eine Verringerung der Bewölkung scheint mit dem Verhältnis der ET-Rate der Ozeane zur ET-Rate des Landes zusammenzuhängen; bei den aktuellen Daten beträgt dieses Verhältnis 2–3 : 1.

Das historische Auf und Ab der Gletscher lässt sich mit einer Reihe von Fällen wie den folgenden in Verbindung bringen: Ausgehend von den heutigen Bedingungen dreht man die Erde so, dass weniger Landfläche der Erde der Sonne ausgesetzt ist (mehr Wolken), wodurch sich die Erde abkühlt. Die Vegetation der Erde wird in der Nähe des Sonnenzenits tropischer; (mehr Wolken) die Erde kühlt stärker ab. Gletscher wachsen, Ozeane schrumpfen, mehr Land taucht auf, CO₂ nimmt ab. Schließlich ist genug Land entstanden, so dass die globale ET zunimmt (weniger Wolken). Die Erde dreht sich zurück, sodass wieder mehr Land unter dem Sonnenzenit liegt (weniger Wolken). Die Erde wird weniger tropisch (weniger Wolken) und die Gletscher beginnen zu schmelzen, der Meeresspiegel steigt und die Erde kehrt zu fast den heutigen Bedingungen zurück.

Das Hinzufügen von Wasser zur Atmosphäre könnte das Klima auf die Bedingungen von 1975 zurückbringen, aber es ist sehr viel Wasser.

Machen Sie sich über keinen dieser Fälle Sorgen, sie werden zu unseren Lebzeiten nicht eintreten!

Diskussion

Warum wurde diese Theorie nicht schon früher entdeckt (oder hat sie jemand bereits vorgeschlagen, und der Autor hat sie nur nicht gefunden)? Die Antwort könnte einfach sein: In der Vergangenheit waren Veränderungen der Bewölkung nicht erkennbar. Der aktuelle Klimawandel hat uns die Augen für die mögliche Existenz dieser natürlichen Theorie geöffnet, die darauf wartete, entdeckt zu werden.

Diese Erweiterung der CRGW-Theorie soll ein mögliches Instrument zur Untersuchung historischer Klimaveränderungen sein, um zu erforschen, wie sich der Wolkenanteil im Laufe der Zeit mit den Veränderungen der Erde verändert hat und wie sich zukünftige Veränderungen der Landmasse der Erde auf den Wolkenanteil auswirken könnten.

An die Wissenschaftler, die die Veränderungen der Erde im Laufe der Zeit untersuchen: Wie gut passt diese Theorie zu möglichen historischen Klimaveränderungen im Vergleich zu den Veränderungen der Landmasse der Erde?

Danke, Anthony, für die Förderung der Vielfalt des Denkens.

Bibliographie

            Studien des Autors:

  1. Where have all the Clouds gone and why care? – Watts Up With That?
  2. CO₂ is Innocent but Clouds are Guilty.  New Science has Created a “Black Swan Event”** – Watts Up With That?
  3. More on Cloud Reduction.  CO₂ is innocent but Clouds are guilty (2023). – Watts Up With That?
  4. An Unexplored Source of Climate Change: Land Evapotranspiration Changes Over Time. – Watts Up With That?
  5. VPD, Vapor Pressure Deficit a Correlation to Global Cloud Fraction? – Watts Up With That?
  6. Soundings, Weather Balloons, and Vapor Pressure Deficit – Watts Up With That?
  7. Not that ET!  The Terrestrial ET: EvapoTranspiration, the Unexplored Source of Climate Change – Watts Up With That?
  8. CRGW 101.  A Competitive Theory to CO₂ Related Global Warming – Watts Up With That?
  9.  More Evidence on Vapor Pressure Deficit, Cloud Reduction, and Climate Change – Watts Up With That?
  10. Can Annual Irradiance = Annual Enthalpy? If So, What Does It Show About Climate Change – Watts Up With That?
  11. Slicing the earth to study Cloud Fraction and VPD. – Watts Up With That?

Bibliographie Fortsetzung

  1. Atmospheric Moisture Transports from Ocean to Land and Global Energy Flows in Reanalyses (2011) by Kevin E. Trenberth, John T. Fasullo, and Jessica Mackaro web link Atmospheric Moisture Transports from Ocean to Land and Global Energy Flows in Reanalyses in: Journal of Climate Volume 24 Issue 18 (2011)
  2. “HUMIDITY CONVERSION FORMULAS” by Vaisala Oyj (2013) web link Humidity_Conversion_Formulas_B210973EN-F (hatchability.com)
  3. Climate Explorer web site Climate Explorer: Select a monthly field (knmi.nl) .
  4. Physical Science Laboratory Monthly Mean Timeseries: NOAA Physical Sciences Laboratory
  5. “Radiative Energy Flux Variation from 2001–2020” (2021) by Hans-Rolf Dübal and Fritz Vahrenholt web link: Atmosphere | Free Full-Text | Radiative Energy Flux Variation from 2001–2020 | HTML (mdpi.com)
  6. Norman G. Loeb,Gregory C. Johnson,Tyler J. Thorsen,John M. Lyman,Fred G. Rose,Seiji Kato web link Satellite and Ocean Data Reveal Marked Increase in Earth’s Heating Rate – Loeb – 2021 – Geophysical Research Letters – Wiley Online Library
  7. Figure 4 in 5 above and Met Office Climate Dashboard web Link Humidity | Climate Dashboard (metoffice.cloud)
  8. . “Urbanization Impacts on Evapotranspiration Across Various Spatio-Temporal Scales” (2021) by Amir Mazrooei, Meredith Reitz, Dingbao Wang, A. Sankarasubramanian web link Urbanization Impacts on Evapotranspiration Across Various Spatio‐Temporal Scales – Mazrooei – 2021 – Earth’s Future – Wiley Online Library
  9. StackOverlow Q and A scipy – Fit sigmoid function (“S” shape curve) to data using Python – Stack Overflow

Link: https://wattsupwiththat.com/2026/04/08/proposed-theory-of-historical-global-cloud-cover/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Vorstellung einer Theorie der historischen globalen Wolken-Bedeckung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Die Temperaturreihen des Deutschen Wetterdienstes beim Monat März zeigen: Es gibt keinen wirksamen CO₂-Treibhauseffekt. Teil 2

veröffentlicht.
Vorschau ansehen

Von Josef Kowatsch, Matthias Baritz

  • Das Klima ändert sich immer, Klimawandel ist die Normalität.
  • Die Märzklimaerwärmung begann 1987 auf 1988 mit einem Temperatursprung von über einem Grad mit anschließender leichter Weitererwärmung.
  • Auch die sehr unterschiedlich verlaufenden T-Max/T-Min Temperaturen des DWD zeigen, eine CO₂-Beteiligung am neuzeitlichen Klimawandel ist nicht nachweisbar
  • Es gibt 8 Grunde dieses für uns angenehmen März-Klimawandels seit 1988
  • Das Leben auf diesem Planeten ist auf CO₂-aufgebaut, wir brauchen mehr CO₂ in der Atmosphäre und nicht weniger.

Die letztjährige Schreckensmeldung der bezahlten Klimalügenwissenschaft lautete: März 2025 war in Europa der wärmste aller Zeiten und weltweit der 2.wärmste. siehe hier!

Bisher hat sich Copernicus zum März 2026 noch nicht geäußert, nur immer wieder lapidar behauptet, die Klimaerwärmung würde sich fortsetzen. Warten wir, was Copernicus diesmal orakeln wird.

Im Teil 1 betrachteten wir den Zeitraum ab 1893 bis heute, also 134 Jahre März einst im Kaiserreich bis heute und unterteilten die Märzgrafik in 2 Abschnitte, vor 1988 und danach. Aus zwei Gründen: Zum einen trat der selbst ernannte Weltklimarat mit seinen CO₂-Erwärmungsverheißungen zum ersten Male 1988 an die Öffentlichkeit, außerdem erfolgte in Mitteleuropa um 1987/88 ein plötzlicher Temperatursprung auf ein höheres Temperaturniveau, auf dem wir uns noch heute befinden. Hier nochmals der Temperatur-Verlauf laut DWD.

Abb. 1: Trotz CO₂-Zunahme in der Atmosphäre wurden die Märzen fast 60 Jahre lang kälter, siehe der fallende Trend bis 1987. Dem Startjahr des Klimawandels in Mitteleuropa. Mit einem Temperatursprung wird der Monat nun endlich wieder wärmer.

Anmerkung zum Temperatursprung, dieser kann in den Einzelmonaten auch leicht verschoben sein, der Temperatursprung bezieht sich eigentlich auf das Gesamtjahr, siehe auch hier.

Schon mit der Grafik 1 ist die Behauptung der Treibhaus-Klimakirche, CO₂ sei der Haupttemperaturtreiber falsch. Ein Beweis genügt, sagte Einstein.

Abb. 2: Laut dem linksgrünen Geschäftsmodell CO₂-Treibhauserwärmung sollen ausschließlich Treibhausgase, und aus dieser Gruppe hauptsächlich das „umweltschädliche“ CO₂ für die starke Temperaturzunahme der letzten 100 Jahre verantwortlich sein. Und nachts besonders stark wirken! CO₂ sei der Haupttemperaturregler. Der DWD zeigt mit seinen Temperaturdaten, dieses Geschäftsmodell ist wissenschaftlich falsch. Also weg mit der CO₂-Klimaerwärmungslüge

Wir werden nun die Grafiken und einige Erklärungen aus Teil 1 ergänzen, insbesondere durch die oftmals mitgemessenen, aber niemals in Grafiken der bezahlten Klimawissenschaft dargestellten Tag/Nachttemperaturen, gemessen in Tmax/Tmin, näher erläutern

Dadurch wird erst recht bewiesen, dass Kohlendioxid in den Temperaturreihen keine sichtbaren Auswirkungen hinterlässt. Und das zeigen wir jetzt

Unterschiede zwischen den Tag/Nachtemperaturen beim März:

Der DWD bietet keine Tag/Nachttemperaturen als Schnitt seiner fast 2500 Wetterstationen an. Nur Einzelstationen. Unser Autor M. Baritz hat sich die zeitaufreibende unendliche Mühe gemacht und fast 540 repräsentativ herausgegriffene DWD-Stationen zu einem Deutschland-Schnitt seit 1947 zusammengefasst. Ein zeitlich weiteres Zurückgehen war leider nicht möglich, da erst nach Kriegsende genügend Wetterstationen vorliegen, die auch heute noch alle drei Parameter gleichzeitig messen.

Auch wenn der Standort der allermeisten der 535 DWD-Wetterstationen in den letzten 80 Jahren unter Beibehaltung des Namens versetzt und auch die Messmethode geändert wurde, so geschah dies für die drei Temperaturaufzeichnungen gleichzeitig.

Abb. 3: Aufgetragen sind 2 Zeiträume, 1947 bis 1987, dann der Temperatursprung und ab 1988 bis heute. Außerdem 3 Grafikverläufe: Die obere graue Grafik fasst die tagsüber gemessenen mittleren Tmax Temperaturen des Monats März zusammen, die mittlere braune Grafik die Tagesschnitte und die blaue Grafik die Nachttemperaturen, gemessen in Tmin. Quelle

Zwei Ergebnisse:

  1. Vollkommen anderer Verlauf vor und nach dem Temperatursprung
  2. Seit 1988 wurden nur die Tage tagsüber wärmer, die Nächte nicht, im Gegenteil

Tmax: bis 1987 fallend, Temperatursprung, seitdem deutlich steigend

Schnitt: bis 1987 unmerklich fallend, Temperatursprung, danach leicht steigend.

Tmin: ab 1947, 40 Jahre deutlich steigend, Temperatursprung, danach deutlich fallend.

Wichtige Erkenntnis, nach dem Temperatursprung 1987/88 wurden vor allem die Tage tagsüber wärmer, wozu sicherlich die Zunahme der Sonnenstunden stark beigetragen haben. (siehe Grafik 5a unten)

Die Steigungs-Schere zwischen Tmax/Tmin ging von 1947 bis 1987 zusammen, ab 1988 bis heute deutlich auseinander. Dabei sollen laut Treibhaustheorie doch gerade die Nächte wärmer werden!!

Mit den stark unterschiedliche verlaufenden Tag- und Nachttemperaturen sind Treibhausgase als Haupttemperaturtreiber endgültig widerlegt.

Der vollkommen unterschiedliche Verlauf der Märztage tagsüber und nachts zeigt sich bei bestimmten DWD-Wetterstationen noch viel deutlicher. Z.B. Augsburg:

Abb. 4a: Der März wurde tagsüber wurde deutlich wärmer, die Nächte genauso deutlich kälter. CO₂ kann doch tagsüber nicht anders wirken als nachts. Die wirklichen Gründe, siehe später

Dabei soll laut gängiger Treibhauslehre der CO₂-Erwärmungseffekt nachts doch besonders stark wirken! Siehe: RTL-Häckl im Oktober 2020. (Oder im Original hier).

Auch die beiden nächsten Grafiken zeigen, dass die Treibhaustheorie dieses bezahlten CO₂-Voodoo-Experten vollkommen falsch ist. Zunächst seine Heimatwetterstation

Abb. 4b: Auch in Düsseldorf werden die Märztage tagsüber wärmer, die Nächte deutlich kälter.

Die Hansestadt an der Nordseeküste

Abb. 4c: In Bremen wird die nächtliche Abkühlung etwas gebremst durch die Meeresnähe. Trotzdem geht die Schere Tag/Nacht deutlich auseinander.

Die DWD-Wetterstation Grambek im Norden Deutschlands zwischen Hamburg und Schwerin. Man beachte den Anstieg der Temperaturen am Tage ab 1988

Abb. 4d: Im Norden Deutschlands zeigt die DWD Station Grambek (zwischen Hamburg und Schwerin)  auch die gegenläufigen Trendgeraden der Minimum – und Maximum – Temperaturen

Die ländliche DWD Station Dachwig (nordwestlich von Erfurt

Abb. 4e: Noch deutlicher wird diese Tendenz bei der DWD Station Dachwig (nordwestlich von Erfurt). Die gemessenen Daten der Referenzperiode 1991-2020 sind nahezu identisch zu den homogenisierten Daten des DWD.

Dass CO₂-Anstieg und die nächtlichen Tmin vor allem bei Stationen mit geringem WI-Effekt stark gegenläufig sind, zeigt vor allem die Grafik von Tmin der ländlichen Station Dachwig in Thüringen. Sogar seit Einrichtung dieser Station, also vor 45 Jahren.

Abb. 4f: Seit 45 Jahren, seit Bestehen der ländlichen Station wird der März in Dachwig nächtens deutlich kälter, ganz im Gegensatz zur CO₂-Zunahmekurve (rechts). Ab 1988 bis heute wäre die negative Steigung bei Dachwig sogar: y = – 0,07 x, geradezu ein nächtlicher Temperatursturz.

Wir fragen: Wo ist der CO₂-Treibhauseffekt in Dachwig, der nachts sogar stärker wirken soll in den Grafiken erkennbar? Antwort: Nirgendwo. Deswegen ist die Treibhaustheorie mit CO₂ als Haupttemperaturerwärmungstreiber auch falsch! So einfach ist die Widerlegung dieses Märcheneffektes. Nach Einstein genügt ein Gegenbeweis.

Merke: An dem vollkommen unterschiedlichen Verlauf der Tmax/Tmin-Temperaturen hat der Deutsche Wetterdienst den CO₂-Treibhauseffekt als Haupttreiber der Temperaturen vollständig widerlegt.

Merke: Kohlendioxid ist kein Temperaturregelknopf. Das ist eine Falschbehauptung der Voodoo-Wissenschaft wie beim PIK, der linksgrünen Politik und ihrer Klimaaktivisten und Klima-Chaoten in den bezahlten NGOs!!

Ein Gegenbeweis genügt, sagte Einstein immer. Wir haben ihn hiermit mehrfach erbracht!!!

Deswegen ist diese Mainstream-Definition für Klimaänderungen auch grottenfalsch, die behauptet, dass hauptsächlich das vom Menschen ausgestoßene CO₂ zu der neuzeitlichen Klimaerwärmung geführt haben soll. Diese Definition ist lediglich ein festes Glaubensbekenntnis, wissenschaftlich aber eine Lüge. Und die linksgrünen Glaubenspolitiker betrachten CO₂ sogar als den Temperaturregelknopf, mit welchem man die globalen Temperaturen steuern kann!! Somit ist die westliche und vor allem die deutsche Klimapolitik unter dem Motto: „Kampf dem Klimawandel ein teurer Irrläufer einer CO₂-Glaubenssekte, der nur auf unser Geld abzielt! Bisher mit großem Erfolg, zumal die Politik diesen CO₂-Glaubensirrläufer in Gesetzen zunehmend festschreibt.

Erklärung der Ursachen der Grafiken 3 und 4: (Unterschiedlicher Temperaturverlauf Tag/Nacht)

Die Sonne: Zu den vielen von uns in Teil 1 der Artikelserie genannten 9 Gründen sehen wir einen Hauptgrund in der Zunahme der Sonnenstunden und der Abnahme des Niederschlages. Außerdem hat sich auch die Intensität der Sonnenstrahlung verstärkt und die gesetzlichen Maßnahmen zur Luftreinhaltung verstärkten die Erwärmung am Tage bis heute. Aber nur am Tage. Umgekehrt lassen die vermehrt klaren Nächte seit 1988 verstärkt eine Abkühlung zu.

Abb. 5a/b: Die Sonnenstunden und Niederschlag sind gegenläufig. Kein Wunder, sie sind über den Grad der Bewölkung gekoppelt.

Von 1947 bis 1987 hat die Bewölkung zugenommen, dadurch wurden die Sonnenstunden weniger und die Temperaturen tagsüber sind gefallen bis 1987. (siehe negative Steigung von T-Max). Umgekehrt hat die zunehmende Bewölkung nachts zu weniger Auskühlung der Nächte, -also ein T-Anstieg von 1947 bis 1987 – geführt.

Ab etwa 1988 hat sich die Großwetterlage gedreht. Die Sonnenstunden und die Strahlungsintensivität nahmen wegen der Luftreinhaltung zu. Umgekehrt hat sich aus den gleichen Gründen die nächtliche Auskühlung verstärkt.

Verdeutlichung der Korrelation zwischen Sonnenscheindauer und Tmax am Tage.

Abb. 6: Trägt man die durchschnittlichen Tagesmaxima gegen die SSH auf wird diese Korrelation sichtbar.

Die Sonnenstunden nehmen zu, wenn der Niederschlag und damit die Bewölkung abnimmt und umgekehrt. Tagsüber wird es wärmer. Nachts kälter.

Als Gründe wurde in Teil 1 die Änderung der Großwetterlagen angeführt, aber auch der Mensch hat mitgewirkt am Grad der Wolkenbildung. Man wusste schon Anfang der 60-er vom Svensmark-Effekt. Durch die vielfachen oberirdischen Atomtests waren zum einen viele Staubpartikel als Kondensationskeime und zum anderen viele radioaktive Elemente, ebenso als Kondensationskeime, in die Atmosphäre gelangt. Dies hat u.a. zum sehr kalten Winter 62/63 geführt. Die Diskussion vom nuklearen Winter nach einem möglichen Atomkrieg kam ja nicht von ungefähr. Und die Abkühlung bis Ende der 80-er Jahre war Standard des damaligen Klimawissens. Die schnelle Einigung, Atomtestes nur noch unterirdisch durchzuführen kam deswegen überraschend schnell. Und ab Ende der 1980, bzw. Anfang der 1990-er Jahre griffen auch die Umweltgesetze mit verschärften Vorschriften der Luftreinhaltung. Alles Gründe für die Bewölkungsabnahme.

Merke: Anhand der Grafiken 2 und 3, – die man außer in unseren Artikeln nirgendwo in der Literatur findet – ist endgültig bewiesen, dass das „klimawirksame“ CO₂ allerhöchstens in homöopathischen Dosen versteckt am Temperaturverlauf mitwirken kann. Keinesfalls ist CO₂ der Temperaturhaupttreiber und schon gar nicht ein Temperaturregelknopf!!!

Die richtigen wissenschaftlichen Erklärungen am DWD-Temperaturverlauf haben wir nun genannt und zur Diskussion gestellt.

Ein möglicher weiterer Grund für die Märzerwärmung tagsüber zu den bisher genannten soll hier nur zur Information gestellt werden: das Geo-Engineering. Der Schweizer Dipl. Physiker Dr. rer. nat. Philipp Zeller beschäftigt sich schon 30 Jahre mit den Methoden des Geoengineerings. In diesem Vortrag (45-Minuten) stellt er einige vor, die alle Anwendung finden: https://youtu.be/3NHzBFchZwc?si=DVG2oBzwmqge0c3G

Wer sich doppelt so lange damit beschäftigen möchte, derselbe Physiker, Vortrag nur wissenschaftlicher aufgebaut: https://www.youtube.com/watch?v=KmdiGQDYPrI

Allerdings hätten diese Maßnahmen die Temperaturen bei uns in Mittel- und Westeuropa erhöht, wo diese laut eigener Vorgaben doch zu einer Abkühlung führen sollten. Oder wird bewusst erhöht, um das Märchen einer CO₂-Treibhauserwärmung und die Klimahysterie zu erhalten? Auch Dr. Zeller ist überzeugt, hier geht es nicht ums Klima, sondern nur ums Geld.

Der Märzverlauf außerhalb Deutschlands.

Auch die folgenden Temperaturgrafiken aus anderen Ländern widerlegen die starke Wirkung des CO₂-Treibhauseffektes: Doch nicht nur der Deutsche Wetterdienst zeigt uns das durch seine Grafiken, auch andere Wetterstationen außerhalb Deutschlands haben einen ähnlichen Verlauf.

Gehen wir zunächst nach Westeuropa

Abb. 7a: CET Daten aus Mittelengland seit 1885. Temperatursprung von über 1 K auch in Zentralengland mit unterschiedlichen Verläufen davor und danach. Quelle

Abb. 7b: Interessant ist eine Betrachtung einer längeren Temperaturreihen hier am Beispiel Schottland (CET sieht genauso aus). Nach fast genau 100 Jahren parallel laufender Temperatur-Trendlinien zeigt sich ab 1987 ein Temperatursprung mit deutlicher gegenläufigen Temperatur-Trendlinien.

Die Tmax-Durchschnittstemperaturen steigen deutlich an, während die Tmin– Durchschnittstemperaturen fallen. Ein Grund für den Tmax-Anstieg ist wohl auch die zunehmende Sonnenscheindauer:

Abb. 7c: zunehmende Sonnenscheinstunden von Schottland im Monat März

Obwohl Schottland viel nördlicher liegt als Deutschland ist auch dort der Zusammenhang zwischen Sonnenstunden und T-Max tagsüber deutlichst, siehe nächste Grafik:

Abb. 7d: Signifikante Korrelation zwischen Tagesmaxima und SSH, ähnlich wie Deutschland in Grafik 6

Dann unsere Nachbarländer:

Abb. 8.: Das gleiche Bild in Österreich. Keine Erwärmung bis 1987, Temperatursprung 87/88 von 1,1 K und danach leichte Erwärmung. Quelle

Abb.9: Westeuropa mit Frankreich, Benelux und Teile von Deutschland. Quelle (ECMWF ERA5)

Noch ein kurzer Blick zur Antarktis und der deutschen Neumayer Station:

Abb.10a: Kaum Märzerwärmung über die gesamte Antarktis seit 85 Jahren beim Monat März. (Erster Herbstmonat), Allerdings ist die Erhebung nicht vollkommen zuverlässig, erst seit gut 30 Jahren wächst die Genauigkeit an Überwachung. Deshalb soll die deutsche Einzelstation Neumayer seit 1982 zur Genauigkeit verhelfen. Die Wetterhütte befindet sich deutlich entfernt von der Großstation, so dass keinerlei Stationswärme die Messung beeinflusst.

Abb. 10b: Keine Märzerwärmung, im Gegenteil. Neumayer kühlt die letzten 44 Jahre deutlich ab. Wo bleibt die Wirkung des angeblich erwärmenden CO₂? Siehe deutlich fallende Trendlinie. Quelle

Beachte: In der Antarktis gab es 1988 auch keinen Temperatursprung wie in Mittel- und Westeuropa. Die deutsche Wetterstation gibt es erst seit 1982 und der März ist auf der Südhalbkugel der Herbstanfang. Und CO₂ steigt und steigt, siehe Grafik 10, die Antarktis wird kälter. Deutlicher kann ein Beweis, dass CO₂ nichts bewirkt, nicht ausfallen.

Und Nordamerika: Diese Wetterstation ist die älteste in Virginia und heute noch Bestandteil des US-amerikanischen Wetternetzes. Sie steht einsam bei einer Farm auf dem Lande, sie hat nur einen geringen Wärmeinseleffekt seit 150 Jahren entwickelt. Beachte, weder 1988 noch kurz davor oder danach: kein Temperatursprung wie bei uns

Abb. 11a/b: Keinerlei Märzerwärmung seit über 100 Jahren in Virginia bei dieser ländlichen Station in den USA, obwohl die CO₂-Konzentrationen wie überall laut Treibhauskirche von etwa 280 ppm seit 1880 auf nunmehr 428 ppm gestiegen sind. Allerdings lagen die letzten 7 Märzen über der fallenden Trendlinie. Der am Mouna Loa gemessene weltweite CO₂-Anstieg seit 1958 hat einen ganz anderen Verlauf.

Erg: Keinerlei Korrelation zwischen CO₂-Verlauf und Temperaturverlauf.

Rechnet man den leicht zunehmenden WI-Effekt seit Kriegsende aus den Daten raus, dann gäbe es seit 80 Jahren sogar eine deutlichere Märzabkühlung!!! Immerhin hat sich die kleine Kreisstadt Harrisonburg mit ihren Außenbezirken bis auf 1 km an die Dale-Enterprise Farm herangeschlichen und ein asphaltierter Highway führt an dem Standort der Station vorbei

Merke: den angenehmen Temperatursprung im Jahre 1987/88 mit Weitererwärmung gab es nur bei uns in Mittel- West- und Nordeuropa. Andere Länder der Welt haben diesen Klimawärmesprung bei uns gar nicht mitbekommen.

Nachdem wir nun anhand vieler Temperaturreihen gezeigt haben, dass CO₂ keinesfalls der Haupttreiber von Temperaturen sein kann, CO₂ spielt allerhöchstens in nicht feststellbarer Dosen mit, wollen wir auf einen positiven Effekt der CO₂-Zunahme aufmerksam machen.

Wir brauchen mehr CO in der Atmosphäre

Eine positive Eigenschaft hat die CO-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO führt zu einem beschleunigten Wachstum, steigert die Ernteerträge und bekämpft somit den Hunger in der Welt. Die Wüsten werden grüner. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO-gehalt der Atmosphäre liegt etwa bei 800 bis 1200ppm, das sind etwa 0,1%. Nicht nur für das Pflanzenwachstum, sondern auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO in der Luft. Viele Untersuchungen bestätigen dies. Und vor allem dieser Versuchsbeweis. Die zunehmenden CO₂-Konzentrationen der Atmosphäre sind eine positive Entwicklung für diesen Planeten. Und: der optimale Gehalt dieses Schöpfungsgase in der Atmosphäre muss endlich wissenschaftlich untersucht werden

Kohlenstoffdioxid ist überhaupt kein Klimakiller und schon gar kein Giftstoff. Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO vermindern will, versündigt sich gegen die Schöpfung dieses Planeten.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Gegen die Terrorgruppe „letzte Generation“ muss mit allen gesetzlich erlaubten Mitteln vorgegangen werden, da die Gruppe keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Ebenso gegen die Panik verbreitende Politik und Medien. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert – ausführlich hier beschrieben. Nur mit dem Unterschied, dass man uns das Geld automatisch in Form von Steuern aus der Tasche zieht. Ein Aufstand der Anständigen ist unbedingt erforderlich.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt menschlichen Handelns gestellt werden. Die Erhaltung der natürlichen Vielfalt von Pflanzen und Tieren sollte ein vorrangiges Ziel sein und nicht diese unseriöse Panikmache von Medien im Verbund mit gut verdienenden Klimaangst-Schwätzern wie z.B. die Professoren Quaschnig/Lesch/Rahmstorf/Schellnhuber/Latif und anderen von uns in der Politik agierenden und teuer bezahlten fabulierenden Märchenerzählern. Deren Einstellung gegen CO₂ ist eine Einstellung gegen die Schöpfung auf diesem Planeten.

Wir alle sind aufgerufen, jeder auf seinem Weg und nach seinem Können die derzeitige Klima-Panikmache und die Verteufelung des lebensnotwendigen Kohlendioxids zu bekämpfen. Ein Umdenken in der Bevölkerung und bei den Kirchen ist schnellstens erforderlich, um den völlig unsinnigen CO₂-Reduzierungsmaßnahmen der linksgrünen Klimapolitik ein Ende zu bereiten.

Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, ausgezeichnet mit dutzenden von Umweltpreisen. Unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturwissenschaftler und Umweltschützer.

 

Der Beitrag Die Temperaturreihen des Deutschen Wetterdienstes beim Monat März zeigen: Es gibt keinen wirksamen CO₂-Treibhauseffekt. Teil 2 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Kältereport Nr. 15 /2026

veröffentlicht.
Vorschau ansehen

Meldungen vom 6. April 2026:

UK: April-Schnee in Glasgow

Am Ostersonntag gab es in Glasgow starken Schneefall, und in der ganzen Stadt herrschten winterliche Verhältnisse. Der Verkehr war beeinträchtigt, weil sich die Bedingungen im Laufe des Tages weiter verschlechterten.

Auch in höheren Lagen der schottischen Berge herrschen weiterhin beeindruckende Schneemengen vor, mit hervorragenden Bedingungen auf den Gipfeln, insbesondere am und um den Cairngorm Mountain.
In Glen Feshie, etwa 900 m über Coire Garbhlach, hat sich in einer nach Nordwesten ausgerichteten Mulde eine mindestens vier Meter hohe Schneedecke gebildet. Schottland hat heute keine Gletscher mehr, schon seit Jahrtausenden nicht mehr, aber diese große Schneefläche, die sich bis in den April hinein gut hält, ahmt einen Gletscher gut nach.

——————–

Bulgarien: Schnee-Rekord im April gebrochen

Der Botev-Gipfel in Bulgarien hat einen neuen Schneehöhenrekord für April aufgestellt. Auf dem Gipfel, der zum Balkangebirge (Stara Planina) gehört, wurden 333 cm Schnee gemessen – ein neuer Rekord, der den bisherigen Rekord von 325 cm aus den 1960er-Jahren (als die Höhenmessstation eingerichtet worden war) deutlich übertrifft.

An anderer Stelle, am Vitosha-Gebirge, hat der Neuschnee um weitere 20 cm die Lawinengefahr erhöht.

Es wird weiterer Schneefall erwartet, da sich in Bulgariens höher gelegenen Gebieten oberhalb von 1.500 m bis Anfang der Woche weiterhin Schnee ansammelt.

Die Schneehöhen in den europäischen Hochlagen sind bis in den April hinein beeindruckend. In Arcalis in Andorra beispielsweise liegen noch immer 4 Meter Schnee.

Unterdessen herrschten am Montag in tieferen Lagen weiterhin Minusgrade, so dass in den Weinbaugebieten Frostkerzen erneut angezündet werden mussten. Der Ostermontag begann mit deutlichem Frost in Nordfrankreich. Die Temperaturen sanken auf -3,7 °C in Mourmelon-le-Grand (Marne) und auf -2,4 °C in Charleville-Mézières (Ardennen).

——————–

Kanada: Rekord-Schneemengen westlich von Calgary

Die Schneemenge in den Rocky Mountains von Alberta nähert sich Rekordwerten. Am Little Elbow Summit erreichte das Schneewasseräquivalent am 5. April 531 mm.

Das liegt deutlich über dem üblichen Bereich von 300 bis 400 mm und ist der zweithöchste Wert seit Beginn der Aufzeichnungen (in den 1980er Jahren). Nur 1991 wurde mit 587 mm ein höherer Wert gemessen.

Diese Entwicklung wird durch eine anhaltende Tiefdrucktätigkeit über dem Pazifik vorangetrieben. Wiederholte Westströmungen haben Feuchtigkeit in die Rocky Mountains geleitet, wo sie in Form von anhaltendem Schneefall über den Quellgebieten von Alberta niedergeht. Diese Wetterlage hält seit Monaten an, so dass sich die Schneemenge stetig erhöht.

Das Ergebnis hängt nun von der Schneeschmelze ab. Eine allmähliche Schneeschmelze würde die Flüsse speisen, die Stauseen stabilisieren und den Druck auf die Wasserversorgung verringern. Eine rasche Erwärmung, insbesondere in Verbindung mit Regenfällen, erhöht natürlich das Hochwasserrisiko.

Die Überschwemmungen in Alberta im Jahr 2013 folgten einer ähnlichen Wetterlage, bei dem im Frühjahr starke Regenfälle auf eine bereits bestehende Schneedecke fielen.

Derzeit jedoch liegt im Westen Kanadas eine der höchsten Schneedecken seit Jahrzehnten für Anfang April.

——————–

Nordindien: Anhaltende Abkühlung

Eine weitere westliche Strömung zum Saisonende lässt die Temperaturen in Nordindien stark sinken und bringt Neuschnee in die Himalaya-Regionen.

Die Höchsttemperaturen, die bei 33–35 °C lagen, sollen bis Mitte der Woche in Punjab, Haryana, Delhi und Uttar Pradesh auf 19 bis 26 °C sinken. Das sind etwa 8 bis 15 °C unter dem Normalwert und sorgt für Wetterbedingungen, die eher für den Februar als für den Frühling typisch sind.

Die Abkühlung wird durch einen erneuten Zustrom von Feuchtigkeit und instabiler Luft aus westlicher Richtung verursacht. Während dieses Tiefdruckgebiet über die Ebenen zieht, löst es großflächigen Regen, Gewitter und Hagel aus, während kältere Luft in der Höhe für starken Schneefall in den Höhenlagen sorgt.

Die Schneemengen in Himachal Pradesh sind für diese Jahreszeit bemerkenswert. In Gondhla fielen innerhalb von 24 Stunden 28,5 cm Schnee, innerhalb von 48 Stunden 41,5 cm. Im nahegelegenen Keylong fielen 20 cm.

Diese kalten, unbeständigen Wetterbedingungen beeinträchtigen die Weizenernte zum Zeitpunkt der Ernte.

Link: https://electroverse.substack.com/p/glasgow-wakes-to-april-snow-monthly?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 7. April 2026:

Italien: Capracotta unter mehr als zwei Metern Aprilschnee begraben

Capracotta in Italien wurde gerade von einem Frühlingsschneesturm heimgesucht, wie er eher für den Januar typisch ist.

Die Bergstadt in Molise, auf 1.421 m Höhe gelegen, wurde kürzlich von einem Schneesturm heimgesucht, der innerhalb von etwa 24 Stunden 1,5 m Schnee fallen ließ. Nachfolgende Berichte italienischer Medien zeigten, dass die Schneehöhe in der Stadt 2 m überstieg, wobei einige lokale Berichte angaben, dass die höchsten Schneeverwehungen 3 m erreichten.

Autos verschwanden, und die Bewohner gruben Tunnel, nur um aus ihren Häusern zu gelangen. Es wurde auch von Stromausfällen berichtet, da sich Eis auf den Leitungen ansammelte.

Capracotta ist einer der höchstgelegenen Orte im Apennin und einer der schneereichsten Orte Italiens. Der Ort hält zudem den Guinness-Weltrekord für den höchsten Schneefall innerhalb von 24 Stunden, nachdem dort im März 2015 2,56 m gefallen waren. Capracotta kennt sich mit Schnee aus. Dennoch verweisen italienische Medienberichte auf den April 1967 – das letzte Mal, so heißt es, als ein Sturm in der Spätsaison diesen Teil des Apennins in einem Ausmaß bedeckte, das dem jetzigen nahekommt.

In den gesamten italienischen Apenninen war der April von außergewöhnlichen Schneefällen geprägt.

——————–

Kanada: Der kalte und schneereiche Winter

Der Winter 2025/26 in Kanada brachte in vielen Regionen anhaltende Kälte und außergewöhnliche Schneefälle mit sich, wobei an mehreren Orten Rekordwerte erreicht worden waren.

St. John’s, Neufundland, schaffte es zum erst siebten Mal seit Beginn der Aufzeichnungen im Jahr 1875 in den „500-cm-Club“. Zuletzt wurde diese Marke in der Saison 2002/03 erreicht, und da die Saison noch einige Wochen dauert, könnten die Gesamtwerte weiter steigen.

Auch Sault Ste. Marie in Ontario überschritt dank einer der stärksten Schneefälle in der späten Saison die 500-cm-Marke.

Ein Schneesturm im März, gefolgt von wiederholten See-Effekten, ließ die Gesamtwerte stark ansteigen. Allein im Jahr 2026 verzeichnete die Stadt 363 cm, was fast einer Verdopplung der bis Ende Dezember gefallenen Schneemenge entspricht.

Toronto nähert sich derzeit seinem historischen Schneefallrekord.

Die saisonale Gesamtmenge liegt bei fast 190 cm und ist damit bereits die viertgrößte jemals gemessene Menge; der Rekord von 206,7 cm aus den Jahren 1938–39 ist in greifbarer Nähe.

Am 25. Januar verzeichnete der Toronto Pearson International Airport 46,2 cm an einem einzigen Tag – ein Stationsrekord –, wobei in Teilen der Stadt bis zu 56 cm gemessen worden sind.

Weiter westlich hat Calgary einen sehr starken Anstieg gegen Ende der Saison verzeichnet.

Die Schneemenge hat bereits den Jahresdurchschnitt von 128 cm erreicht, wobei weitere Neuschneefälle wahrscheinlich sind.

Ausschlaggebend dafür waren anhaltende Kaltluftmassen in Verbindung mit aktiven Tiefdruckgebieten und in der Region der Großen Seen wiederholte Verstärkung durch den Seeeffekt. Diese Bedingungen haben dazu geführt, dass sich der Schnee effizient ansammeln und auf dem Boden verbleiben konnte, wodurch die Gesamtmengen historische Werte erreichten (und sogar übertrafen).

Der Winter hat nördlich der Grenze ganze Arbeit geleistet.

Und er treibt immer noch gelegentlich Kaltfronten nach Süden in die Vereinigten Staaten…

——————–

USA: Polarwirbel hält die Kälte im Spiel

Über Kanada hält sich weiterhin ein starker kalter Polarwirbel, dessen Kern über der Hudson Bay nach wie vor intakt ist.

Den neuesten ECMWF-Prognosen zufolge bleiben die Temperaturen in 500 hPa bis Mitte April bei etwa -45 °C und steigen erst allmählich auf -40 °C.

Das ist hoch winterliche Luft, die bis weit in den Frühling hinein anhält.

Das Ergebnis ist eine fragmentierte, von Kaltluft geprägte Wetterlage über den 48 kontinentalen Bundesstaaten – kein landesweites arktisches Muster, sondern gezielte, wechselnde Kaltluftvorstöße, die mit der Zirkulation zusammenhängen und vor allem den Norden und Osten betreffen, während es im Süden wärmer wird.

Mehrere „Alberta Clippers“ ziehen diese Woche über den Mittleren Westen, die Region der Großen Seen und den Nordosten hinweg. Innerhalb eines Zeitraums von sechs Tagen werden mindestens drei Systeme erwartet, die jeweils die kalte kanadische Luft anzapfen und für leichte Schneefälle sorgen – sogar bis Mitte April.

Über den Großen Seen und im Nordosten fällt bereits Schnee, und bis Mitte der Woche werden weitere Schneeschauer erwartet.

Obwohl lokal begrenzt, wird sich diese Wetterlage als hartnäckig erweisen.

Für rund 74 Millionen Amerikaner werden Tiefsttemperaturen unter dem Gefrierpunkt vorhergesagt, vor allem im nördlichen Teil des Landes, mit Werten bis -18°C im Norden von Minnesota [= die 0-Grad-Marke Fahrenheit. A. d. Übers.]. Insgesamt in den USA liegen die Temperaturen nur leicht unter dem Durchschnitt, doch regional bleibt die Kälte dort, wo sie sich festsetzt, weiterhin ausgeprägt.

Die gleiche Wetterlage schränkt Unwetter ein. Kalte, trockene Luft im Norden und Osten unterdrückt die Konvektion, während die wärmeren südlichen Regionen von dieser Energie weitgehend abgeschirmt bleiben – vorerst.

Link: https://electroverse.substack.com/p/capracotta-buried-by-2m-of-april?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 8. April 2026:

Nordindien, Himalaya: Verbreiteter April-Schnee

Schnee im April ist im Himalaya nichts Ungewöhnliches. Ungewöhnlich ist jedoch das Ausmaß dieses jüngsten Schneefalls.

Der Schnee fällt gleichzeitig in mehreren Bezirken von Himachal Pradesh, von den hochgelegenen Gebieten in der Nähe des Atal-Tunnels bis hinunter in den oberen Teil des Shimla-Gebiets, darunter Narkanda, Kotkhai und Baghi.

Es handelt sich um ein Wetterphänomen, das mehrere Höhenlagen gleichzeitig betrifft.

Aufeinanderfolgende westliche Wettersysteme sorgen für anhaltende Niederschläge. In höheren Lagen fällt stetiger Schnee, was die Lawinengefahr erhöht, während auch in mittleren Höhenlagen Schneeverwehungen gemeldet werden.

Im April wird Schnee in Höhenlagen ab 2.500 m erwartet. Schnee in tiefer gelegenen Obstbaugebieten ist seltener, insbesondere mit Schneeverwehungen. Aufnahmen aus Kotkhai zeigen, wie nasser Schnee sich auf Hagelschutznetzen ansammelt.

Berichte bestätigen Auswirkungen in Shimla, Kullu, Kangra und Mandi.

Der Winter hat sich noch nicht vollständig in die höheren Lagen zurückgezogen. Dieses Wetterphänomen hat den Bergen wieder kältere Bedingungen verschafft. Eine echte Entspannung ist nicht in Sicht – zumindest nicht in dieser Woche.

——————–

Bering-See: Meereis hält sich in ungewöhnlich winterlichem Ausmaß

Das Eis in der Beringsee breitete sich in diesem Winter ungewöhnlich weit nach Süden aus, erreichte seine größte Ausdehnung seit mindestens 2013 und erreichte Gebiete, in denen es in den letzten Jahren kaum oder gar kein Eis gab.

Das Eis erstreckte sich über die Bristol Bay, entlang der Alaska-Halbinsel und bis hin zu Cold Bay, Unimak Island und den Pribilof-Inseln. An einigen Stellen waren Fischer gezwungen, durch Eisfelder zu navigieren.

Dies war auf ein anhaltendes Hochdruckgebiet über der Beringsee zurückzuführen, das lokal kalte Luft einschloss und so die Eisbildung begünstigte. Gleichzeitig lenkte es Stürme und mildere Südwinde in die Ochotskische See und begrenzte dort die Eisbildung.

Während sich in der Beringsee Eis bildete, hatten andere Regionen Mühe, überhaupt Eis zu bilden.

Dies verdeutlicht einen wichtigen Punkt, der in allgemeinen Zusammenfassungen der polaren Bedingungen oft übersehen wird. Meereis ist nicht nur eine Funktion der Temperatur. Es wird stark von Windrichtung, Drucksystemen und Meeresströmungen beeinflusst. Ändert sich die Zirkulation, reagiert das Eis schnell – es wächst in einer Region, während es sich in einer anderen zurückzieht.

All dies hat reale Auswirkungen. Die Ausdehnung beeinträchtigte den Fischfang, da Schiffe im südöstlichen Teil der Beringsee Mühe hatten, sich durch das Eis zu navigieren. Auch maritime Ökosysteme sind betroffen, da Meereis die Wassertemperaturen verändert und Arten wie den Pazifischen Kabeljau in andere Gebiete drängt.

Link: https://electroverse.substack.com/p/widespread-april-snow-hits-himachal?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 9. April 2026:

USA: Frühlingssturm bringt erhebliche Schneemengen in der Sierra Nevada

Ein spätwinterlicher Schneesturm zieht in die Sierra Nevada und bringt den dringend benötigten starken Schneefall mit sich.

Zunächst bleibt die Schneefallgrenze bis Freitag hoch, was die ersten Schneemengen begrenzt. Am Samstag folgt dann jedoch deutlich kältere Luft mit einem Absinken der Schneefallgrenze bis auf Seehöhe.

Auf Seehöhe werden mehrere Zentimeter erwartet, in höheren Lagen sollen bis Sonntag bis zu 61 cm fallen. Auf den höchsten Gipfeln könnten die Werte noch weit darüber liegen.

Für Höhenlagen über 1.370 Metern gilt von Freitag 17 Uhr bis Sonntag 22 Uhr eine Wintersturmwarnung. „Reisen in den Bergen könnten sehr schwierig bis unmöglich sein“, warnt der NWS.

Und schon bald könnte noch mehr kommen.

Frühe Vorhersagen deuten auf unterdurchschnittliche Temperaturen und anhaltende Niederschläge bis in die letzte Aprilwoche hin mit der Möglichkeit weiterer Schneefälle.

In der Sierra gibt es in diesem Jahr bnislang ein Defizit. Aber der Winter ist noch nicht vorbei.

——————–

Kanada versinkt im Schnee

Während der Westen der USA in dieser Saison etwas zu kämpfen hatte, liegen weite Teile Kanadas unter einer dicken Schneedecke.

Im Westen hat das Banff Sunshine Village die 800-cm-Marke überschritten, begünstigt durch einen März mit 208 cm Neuschnee, der eher an den Hochwinter als an den Frühling erinnerte.

Das nahegelegene Skigebiet Lake Louise startete bereits im Dezember mit 282 cm in die Saison – es war der schneereichste Dezember seit 1970.

Die Messstationen in den Quellgebieten von Alberta liegen für Anfang April nahe dem oberen Ende ihrer historischen Bandbreite, was zeigt, dass es sich nicht nur um die Gesamtwerte der Skigebiete handelte – das gesamte Gebirgssystem verzeichnete eine beträchtliche Schneehöhe.

Das Bild wiederholt sich im Osten.

St. John’s hat nun die 500-cm-Marke für diese Saison überschritten und erreicht diese Schwelle damit erst zum siebten Mal seit Beginn der Aufzeichnungen im Jahr 1942. Allein im Februar fielen 178,2 cm – ein Rekordmonat in Sachen Schneefall. Tatsächlich war es in ganz Neufundland sehr schneereich, wobei mehrere Messstationen Werte weit über dem Normalwert verzeichneten.

Ontario folgte. Sault Ste. Marie überschritt Anfang April die 550-cm-Marke, womit dieser Winter wenige Wochen vor Saisonende in greifbarer Nähe seines saisonalen Allzeit-Schneefallrekords liegt.

Quebec too. Le Valinouët cleared 500 cm (197 in) before February had even ended.

Eine außergewöhnlich kalte Wintersaison sorgte dafür. Der März war wirklich ungewöhnlich. Bereits im Dezember sank die Temperatur in Braeburn auf -55,7 °C – die niedrigste in Kanada seit 1999 gemessene Temperatur.

In den Rocky Mountains bildete sich durch wiederholte Pazifikstürme eine dicke Schneedecke. In Neufundland und im Osten Kanadas türmte sich der Schnee durch anhaltende Atlantikstürme auf. Ontario schloss die Lücke mit Neuschnee durch den Seeeffekt.

Insgesamt überschritten mehrere Orte die 500-cm-Marke, Rekorde fielen – und es ist noch nicht vorbei.

——————–

Nordindien: Weiter starke Kälte – Rekorden fallen

Eine für den April ungewöhnliche Kältewelle hält Nordindien weiterhin im Griff, wodurch die Temperaturen deutlich unter den Normalwerten liegen und an zahlreichen Messstationen langjährige Rekorde gebrochen wurden.

Die Tageshöchsttemperaturen liegen in der gesamten Region 7 °C bis 15 °C unter dem Durchschnitt, was auf die anhaltende Bewölkung im Zusammenhang mit aktiven Weststörungen zurückzuführen ist. Dies steht im Gegensatz zu der für Anfang April typischen Hitze.

In Delhi verzeichnete die Wetterstation Palam am 9. April eine Tiefsttemperatur von 14,6 °C – die niedrigste April-Tiefsttemperatur seit mindestens 2010.

Weiter nördlich nimmt die Kälte in den Hügeln zu.

In Shimla sank die Temperatur auf 3,6 °C, den niedrigsten Wert im April seit mindestens 23 Jahren, während Mukteshwar auf 1,4 °C fiel – den tiefsten Wert im April seit 2009.

Eine große Reihe von Messstationen im Himalaya und im Vorgebirge des Himalaya meldete ähnlich niedrige Tiefstwerte, wobei die Temperaturen für diesen Monat auf einem historischen Tiefstand lagen.

Auch die Tageswerte sind stellenweise stark eingebrochen.

In Tehri wurden am Donnerstag nur 8 °C gemessen, rund 17 °C unter dem Normalwert. In Mukteshwar wurden nur 6,2 °C erreicht, etwa 16 °C unter dem Durchschnitt. Das sind Höchstwerte wie mitten im Winter, die im April auftreten.

In höheren Lagen war es kalt genug, um frischen, weit verbreiteten Schneefall zu verursachen.

Dies ist weder von kurzer Dauer noch ein Einzelfall. Und Indien ist kein kleines Land – die Kälte hat sich von den Ebenen bis in die Hügel ausgebreitet, wobei ein Großteil des 3,3 Millionen km² großen Landes Temperaturen weit unter dem Durchschnitt ausgesetzt ist:

Link: https://electroverse.substack.com/p/spring-storm-brings-snow-boost-to?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 10. April 2026:

Kanada: Polarwirbel hält den Winter fest

Es ist Mitte April, und Kanada befindet sich nach wie vor in tiefstem Winter.

Der troposphärische Polarwirbel ist weiterhin intakt und weist eine Stärke wie im Hochwinter auf.

Anstatt sich mit Beginn des Frühlings abzuschwächen, hält er eine starke Zirkulation über der Hudson Bay aufrecht, wodurch die Region vereist bleibt und weiterhin arktische Luft nach Süden getrieben wird.

Die Vorhersagen für die nächsten 10 Tage zeigen wiederholte Kälteeinbrüche in Zentral- und Ostkanada.

In der Höhe ist die Kälte für diese Jahreszeit ungewöhnlich tiefgreifend. Modelle zeigen 500-mb-Temperaturen von fast -48 °C noch bis zum 17. April – Werte, die eher für Januar als für Mitte April typisch sind.

Diese Kälte in der Höhe hält die Bedingungen an der Oberfläche aufrecht. Die Hudson Bay bleibt eisbedeckt, ohne dass eine nennenswerte Schneeschmelze in Gang kommt. Anstatt sich zurückzuziehen, wird die Kaltluftmasse immer wieder verstärkt.

Was den Schnee betrifft, so sehen die nächsten zwei Wochen sehr aktiv aus.

Anzeichen für Frühlingsschneefall verstärken sich nicht nur in ganz Kanada, sondern auch im Westen der USA, wobei die Schneemengen bis in die letzte Aprilwoche (und möglicherweise bis in den Mai) hinein anhalten.

Der Frühling versucht vorzudringen. Die Atmosphäre will davon jedoch nichts wissen.

——————–

Nordindien: Aprilschnee trifft Himachals Apfelanbaugebiet zum ungünstigsten Zeitpunkt

Himachal Pradesh wurde gerade zum Höhepunkt der Blütezeit von Apfelbäumen von starken, großflächigen Schneefällen heimgesucht, die den Apfelanbaugebiet des Bundesstaates genau zu dem Zeitpunkt trafen, als in den Obstgärten der Fruchtansatz einsetzte.

Im gesamten Gebiet von Upper Shimla – einschließlich Narkanda und Kotkhai – melden die Obstbauern weitreichende Schäden. Blüten wurden abgeknickt, Äste abgebrochen und Hagelschutznetze sind unter der Last des nassen Schnees zusammengebrochen.

Zu dieser Jahreszeit befinden sich Apfelbäume in ihrer empfindlichsten Phase. Schnee schädigt nicht nur die sich öffnenden Blüten, sondern beeinträchtigt auch die Bestäubung. Es ist nun mit einem drastischen Rückgang der Erträge zu rechnen.

Aus mehreren Distrikten, von Kufri und der Region um den Atal-Tunnel bis hin zu Lahaul-Spiti, Kinnaur, Chamba, Kangra und Kullu, wurde Schneefall gemeldet. Starker Regen und Hagel begleiteten das Ereignis und weiteten die Auswirkungen weit über die höheren Lagen hinaus aus.

Rund 75 Straßen wurden gesperrt, darunter wichtige Autobahnen, und es kam zu Stromausfällen, als Hunderte Transformatoren außer Betrieb gesetzt wurden.

Auch die Temperaturen sind stark gesunken. Die Tageshöchstwerte fielen um 12 bis 17 °C, wodurch die Bedingungen wieder winterlich wurden. Auch die Tiefstwerte lagen unter dem Normalwert, was den durch den Schnee bereits verursachten Stress für die Pflanzen noch verstärkte.

Die Warnungen bleiben bestehen, und es sind weitere Stürme möglich, bevor sich die Lage nach Mitte April entspannt.

Für die Obstbauern ist der Schaden bereits angerichtet. Die nun verlorenen Blüten lassen sich nicht mehr ersetzen. Der Fruchtansatz wurde beeinträchtigt. In einer Region, die stark vom Apfelanbau abhängig ist, wird dieser Kälteeinbruch in der späten Saison in den kommenden Monaten wahrscheinlich zu erheblichen finanziellen Verlusten führen.

Link: https://electroverse.substack.com/p/polar-vortex-holds-canada-in-winter?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Wird fortgesetzt mit Kältereport Nr. 16 / 2026

Redaktionsschluss für diesen Report: 10. April 2026

Zusammengestellt und übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Kältereport Nr. 15 /2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Ist Europa in Klima-Fragen (usw.) eher ein Hemmschuh für die USA als ein Verbündeter?

veröffentlicht.
Vorschau ansehen

Joe Bastardi

Die Antwort: es scheint eher ein Anker zu sein, der unseren Fortschritt bremst. Und natürlich könnte man auch in anderen Bereichen außerhalb des Klimas denken, dass sie eher ein Anker als ein Verbündeter sind.

Angenommen, wir sind ein „Verbündeter“, muss man sich fragen, wie lange wir mit Leuten verbündet sein können, die Narren sind und durch ihre Klimapolitik Selbstmord begehen. (Auch hier könnte man meinen, dass dies nur eine von vielen anderen politischen Maßnahmen ist, die zu ihrem Untergang führen.)

[Hervorhebung vom Übersetzer. So einfach kann man das ausdrücken!]

Aber ich werde mich kurz fassen.

Die Heizperiode in Europa ist fast vorbei.

Schauen Sie sich an, wo Europas Erdgasspeicher heute stehen:

Das ist kaum zu glauben. In den Niederlanden und in Schweden liegt der Wert unter 10 %. Fast überall liegt er unter 50 %. Polen, wo der Winter eigentlich recht kalt war, weist einen höheren Wert auf als Gebiete, in denen der Winter mild war. Das stimmt, in weiten Teilen Europas war die Heizgradtag-Saison mild.

Der Winter in Frankreich war milder als normal, und die Zahlen sind auf 21 % gesunken.

Was wäre passiert, wenn wir einen Winter wie 2017–2018 gehabt hätten?

Oder die aufeinanderfolgenden Winter 2009–2010 und 2010–2011?

Hier ist ein Warnschuss angesichts des bevorstehenden starken El Niño. Das ist der Winter 1986–1987, der von einem ziemlich starken El Niño geprägt war:

Wenn uns also schon ein milder Winter an den Rand des Abgrunds gebracht hat, was wäre dann passiert, wenn es kalt gewesen wäre?

Dies entlarvt den Wahnsinn der europäischen Klimapolitik. Ich werde nicht jede einzelne dieser abwegigen Maßnahmen aufzählen, aber man muss schon völlig blind dafür sein, wozu das Wetter wirklich fähig ist, um solche Maßnahmen zu beschließen.

In gewisser Weise ähnelt dies der Art und Weise, wie die theokratischen Machthaber im Iran ihre Bevölkerung als Geiseln ihrer Ideologie halten. Jeden Winter werden die Europäer vom Wetter in Geiselhaft genommen – es sei denn, sie ändern ihren Kurs und hören auf, diesen vorgetäuschten Klimakrieg zu führen –, weil ihre Politiker den vom Menschen verursachten Klimawandel in etwas verwandelt haben, das einer Religion ähnelt. Es sind die Menschen, die darunter leiden werden, und ich glaube nicht, dass es ihren Politikern etwas ausmacht.

Aber wie kommt es dann, dass sie immer wieder gewählt werden? (Im Iran ist das offensichtlich nicht der Fall.) Die Öffentlichkeit wurde einer Gehirnwäsche unterzogen.

Dieser Winter sollte jedem vernünftigen Menschen als Weckruf dienen, dem die Weiterentwicklung seiner Gesellschaft am Herzen liegt. Schauen Sie sich noch einmal Polen an: Seine Politiker sind nicht die Narren, die so viele andere Länder zu regieren scheinen. In Polen ist von Natur aus kälter als Frankreich, und das Land erlebte einen kälteren Winter. Dennoch waren die Erdgasvorräte am Ende mehr als doppelt so hoch wie in Frankreich.

Es ist nur eine Frage der Zeit. Die wahre Katastrophe ist nicht das Klima selbst – es ist die Klimapolitik. Und das einzige vom Menschen verursachte Problem hier geht auf eine Gruppe von Spinnern zurück, die glauben, sie könnten das Wetter und das Klima kontrollieren.

[Hervorhebung vom Übersetzer]

Anmerkungen und Randbemerkungen:

Ich kenne den Grund nicht, obwohl ich versucht habe, Antworten zu finden, aber das Physical Science Lab führt keine Reanalysen mehr durch.

Hinweis zu den Daten: Die Produktion der NCEP/NCAR-Reanalyse 1 wurde eingestellt, das letzte Datum ist der 17. März 2025.

Ich befürchte, dass dies auf Budgetkürzungen zurückzuführen ist, und wenn dem so ist, ist das ein Teil dessen, was mir Sorge bereitet: dass wertvolle Daten und Forschungsquellen zu Kollateralschäden bei den Bemühungen werden, dem Klimawahn ein Ende zu setzen, von dem die NOAA besessen ist. Was möglicherweise passiert ist – und das weiß ich als Tatsache von Leuten aus der Forschung – ist, dass statt eines präzisen chirurgischen Instruments ein stumpfer Hammer geschwungen wurde. Der Grund für die Kürzungen war die Klimabesessenheit der NOAA, aber das Pendel, das dies korrigieren sollte, ist möglicherweise zu weit in die andere Richtung ausgeschlagen.

Eine wichtige Website, die ich nutze, um Muster zu analysieren und den Klimawahnsinn zu bekämpfen, wurde geschlossen. Ich hoffe, dass ich, falls ich bei der bevorstehenden CFACT/Heartland-Klimakonferenz auf einige hochrangige Vertreter der Regierung treffe, sie darauf aufmerksam machen und ihnen erklären kann, wie wertvoll diese Website ist.

Zu ihrer Rechtfertigung wurde mir diese Website geschickt:

https://nomads.ncep.noaa.gov/pub/data/nccf/com/cdas/

Und das habe ich nach dem Anklicken bekommen:

Forbidden

Sie haben keine Berechtigung, auf diese Ressource zuzugreifen.

Wenn man nicht jeden Tag das Wetter auf globaler Ebene vorhersagt – vor allem, wenn man wie ich die Nase voll hat vom Klimawahnsinn –, kann man meiner Meinung nach nicht wirklich erkennen, was wertvoll ist und was nicht. Da CFACT mir freundlicherweise eine Plattform bietet, wollte ich den Menschen zeigen, dass ein wertvolles Instrument zur Bekämpfung des Klimawahnsinns abgeschaltet wurde (und nicht mehr aktualisiert wird). Ich vermute, die Absicht war gut, aber das Ergebnis ist es nicht.

Link: https://www.cfact.org/2026/04/04/when-it-comes-to-climate-etc-is-europe-more-anchor-to-the-u-s-than-ally/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Ist Europa in Klima-Fragen (usw.) eher ein Hemmschuh für die USA als ein Verbündeter? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Daten-Zentren, heiße Luft und die Neugestaltung des städtischen Wärmeinsel-Effektes

veröffentlicht.
Vorschau ansehen

Anthony Watts

Wenn Sie die rasante Ausweitung der KI-Infrastruktur verfolgt haben, sind Ihnen wahrscheinlich die jüngsten Behauptungen aufgefallen, wonach Rechenzentren mittlerweile eigene „Wärmeinseln“ erzeugen, die groß genug sind, um Hunderte Millionen Menschen zu betreffen. Diese Darstellung stammt aus einem aktuellen Arbeitspapier, das von Fortune in dem Artikel [Titel übersetzt] „Rechenzentren sind so heiß, dass ihr ‚Wärmeinseleffekt‘ die Temperaturen in einer Entfernung bis 10 km erhöht“ schnell aufgegriffen und verstärkt wurde. Darin werden die Ergebnisse so präsentiert, dass sie auf einen neuen und potenziell bedeutenden Umweltfaktor hindeuten, der aus der digitalen Wirtschaft hervorgeht.

Dem Artikel zufolge untersuchten Forscher weltweit mehr als 6.000 Rechenzentren und stellten fest, dass die durchschnittliche Bodentemperatur in den umliegenden Gebieten im Zeitraum von 2004 bis 2024 um etwa 2 °C gestiegen ist, wobei an einigen Standorten sogar Anstiege bis 9 °C verzeichnet worden sind. Der gemeldete Einfluss erstreckt sich etwa 10 km von den Anlagen nach außen, und in Kombination mit Bevölkerungskarten schätzen die Autoren, dass bis zu 343 Millionen Menschen betroffen sein könnten. Das sind große Zahlen, und ohne Kontext vermitteln sie den Eindruck eines weitreichenden und wachsenden Klimasignals, das direkt mit der KI-Infrastruktur verbunden ist.

Die zugrunde liegende Studie zeichnet jedoch ein differenzierteres Bild. Die wichtigste analysierte Variable ist nicht die Lufttemperatur im meteorologischen Sinne, sondern die aus Satellitenbeobachtungen abgeleitete Landtemperatur. Dieser Unterschied ist von Bedeutung, da die Landtemperatur äußerst empfindlich auf lokale Merkmale reagiert. Ersetzt man Vegetation durch Gebäude, Straßenbelag und Industrieanlagen, steigt die gemessene Temperatur, unabhängig davon, ob sich die zugrunde liegenden atmosphärischen Bedingungen wesentlich verändert haben.

Die Autoren versuchen, diesem Problem zu begegnen, indem sie sich auf Rechenzentren außerhalb dicht besiedelter städtischer Gebiete konzentrieren, vermutlich um den Einfluss der Anlagen selbst herauszurechnen. Sie verwenden MODIS-Daten der NASA mit einer Auflösung von etwa 500 Metern, aggregieren diese über einen bestimmten Zeitraum und berechnen die Temperaturunterschiede vor und nach der Inbetriebnahme an jedem Standort. Das Ergebnis ist das, was sie als „Daten-Heat-Island-Effekt“ bezeichnen, der durch einen durchschnittlichen Anstieg von etwa 2,07 °C auf Standortebene gekennzeichnet ist, wobei die Spanne von etwa 0,3 °C bis über 9 °C reicht.

Was sofort auffällt ist, dass das Ausmaß des berichteten Effekts mit bekannten Signalen für Landnutzungsänderungen übereinstimmt. In der Veröffentlichung selbst wird angemerkt, dass klassische städtische Wärmeinseleffekte typischerweise im Bereich von 4 bis 6 °C liegen, bedingt durch Faktoren wie reduzierte Vegetation, veränderte Albedo und konzentrierte menschliche Aktivitäten. In diesem Zusammenhang erscheint das beobachtete Signal rund um Rechenzentren weniger als ein neuartiges Phänomen, sondern eher als Teil der gleichen breiteren Kategorie von Landtransformationseffekten, die seit Jahrzehnten untersucht werden.

Die räumliche Analyse untermauert diese Interpretation. Die Studie zeigt, dass das Temperatursignal mit zunehmender Entfernung abnimmt, wobei es innerhalb von etwa 7 Kilometern auf rund 30 Prozent seines Höchstwerts sinkt und bei Entfernungen von etwa 4,5 Kilometern auf etwa 1 °C zurückgeht. Dieser Gradient lässt eher auf lokale Oberflächeneffekte als auf einen großräumigen atmosphärischen Einfluss schließen. Mit anderen Worten: Das beobachtete Phänomen verhält sich genau wie ein lokales Muster der Wärmespeicherung und -abgabe, das mit der physischen Spurenfläche der Infrastruktur zusammenhängt.

Hinzu kommt die Frage der Zuordnung, die, wie die Autoren selbst einräumen, mit großen Unsicherheiten behaftet ist. Selbst nach Ausschluss dicht besiedelter städtischer Gebiete ist es schwierig, Rechenzentren vollständig von anderen Aktivitäten in der Umgebung zu trennen, darunter industrielle Entwicklung, Verkehrsinfrastruktur und allgemeine Veränderungen der Landnutzung. Satellitengestützte Temperaturmessungen berücksichtigen all diese Einflüsse, was es schwierig macht, Kausalzusammenhänge mit hoher Sicherheit zuzuordnen.

Ein weiterer erwähnenswerter Punkt ist, dass sich die Studie auf den Zeitraum nach dem Bau und Betrieb der Anlagen konzentriert, der Bau selbst jedoch ein wesentlicher Treiber für Veränderungen der Landoberfläche ist. Die Rodung von Flächen, die Veränderung der Bodenbeschaffenheit und die Errichtung großflächiger Bauwerke verändern die thermischen Eigenschaften der Oberfläche. Einige in dem Fortune-Artikel zitierte Kritiker weisen darauf hin, dass ein erheblicher Teil des beobachteten Temperaturanstiegs lediglich diesen Übergang von natürlicher oder naturnaher Bodenbedeckung zu bebauter Umgebung reflektieren könnte.

Der Artikel wagt zudem weiter reichende Aussagen zu gesellschaftlichen Auswirkungen und legt nahe, dass der Daten-Wärmeinseleffekt das Sozialwesen, das Gesundheitswesen und die Energiesysteme beeinflussen könnte, wobei Parallelen zu städtischen Wärmeinseln gezogen werden. Das ist zwar im Allgemeinen plausibel, beruht jedoch auf der Annahme, dass sich die gemessenen Veränderungen der Landtemperatur direkt in spürbaren Auswirkungen auf die menschliche Umwelt niederschlagen. Dieser Zusammenhang wird in der Studie nicht nachgewiesen und bleibt eine offene Frage.

Das soll keineswegs bedeuten, dass Rechenzentren thermodynamisch unbedeutend sind. Sie verbrauchen große Mengen an Energie, erzeugen Abwärme und erfordern umfangreiche Kühlsysteme. Der Fortune-Artikel hebt hervor, dass manche Anlagen Strom in der Größenordnung von einem Gigawatt verbrauchen und mit erheblichem Wasserverbrauch sowie Lärmbelästigung verbunden sind. Dies sind reale technische und infrastrukturelle Überlegungen, insbesondere auf lokaler Ebene.

Doch der Übergang von diesen praktischen Gegebenheiten zu Behauptungen über weit verbreitete klimarelevante Wärmeinseln erfordert einen sorgfältigen Umgang mit Definitionen und Messungen. Die Oberflächentemperatur des Bodens ist nicht dasselbe wie die Lufttemperatur, lokale Wärmespeicherung ist nicht dasselbe wie regionale Klimabeeinflussung, und eine Korrelation mit den Standorten von Anlagen begründet keinen Kausalzusammenhang, solange Störfaktoren nicht ausgeschlossen sind.

Letztendlich scheint diese Studie ein bekanntes Phänomen unter einem neuen Begriff zu dokumentieren. Wenn man große, energieintensive Anlagen auf zuvor unbebautem Land errichtet, verändert man die thermischen Eigenschaften dieses Landes. Satelliten erfassen diese Veränderung. Es als „Daten-Wärmeinsel“ zu bezeichnen, mag eine nützliche Kurzformel sein, macht es jedoch nicht zu einer neuen Kategorie von Klimafaktoren.

Mit der sich weiter ausbreitenden KI-Infrastruktur wird es zweifellos mehr Studien geben, die versuchen, ihren ökologischen Fußabdruck zu quantifizieren. Die Herausforderung wird darin bestehen, messbare lokale Auswirkungen von pauschaleren Behauptungen zu unterscheiden, die weit über das hinausgehen, was die Daten belegen können. Diese Unterscheidung geht oft unter, sobald die Schlagzeilen die Oberhand gewinnen, doch sie bleibt von zentraler Bedeutung, wenn es darum geht zu verstehen, was tatsächlich geschieht, anstatt sich auf die reißerischsten Geschichten zu konzentrieren.

Link: https://wattsupwiththat.com/2026/04/04/data-centers-hot-air-and-the-reinvention-of-the-urban-heat-island/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Daten-Zentren, heiße Luft und die Neugestaltung des städtischen Wärmeinsel-Effektes erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Warum Wettervorhersage-Modelle richtig gut geworden sind – Klimavorhersage-Modelle aber nicht

veröffentlicht.
Vorschau ansehen

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Großartiges Video von Peter Ridd:

 

Hier das mit KI formatierte Transskript:

Computermodelle zur Vorhersage von Wetter und Klima ähneln sich eigentlich ziemlich stark. Sie basieren auf grundlegenden physikalischen Prinzipien – den Bewegungsgesetzen, Newton’schen Bewegungsgesetzen, Thermodynamik, Strahlungstransport – und benötigen einen sehr leistungsstarken Computer.

Und der Wettermann bekommt oft viel Kritik für Vorhersagen, die nicht immer zutreffen. Das ist meiner Meinung nach sehr unfair, denn die Modelle sind eigentlich hervorragend, und es besteht kein Zweifel daran, dass sie sich in den letzten Jahrzehnten enorm verbessert haben.

[Siehe hierzu meine Anmerkung am Ende. A. d. Übers.]

Aber Klimamodelle? Nicht so sehr.

Nun lebe ich in einer Gegend, in der wir jedes Jahr ein paar Zyklone meistern müssen, und ich finde es unglaublich, wie gut zum Beispiel der Wetterdienst die zukünftigen Zugbahnen dieser Zyklone vorhersagt. Beim tropischen Zyklon Narelle haben sie zum Beispiel hervorragende Arbeit geleistet. Sie sagten voraus, er würde über die Kap-York-Halbinsel hinweg ins Northern Territory ziehen. Und genau das ist auch passiert. Ich erinnere mich an eine Zeit, als diese Vorhersagen so gut wie nutzlos waren – wenn es einen Zyklon im Korallenmeer gab, lauteten die Vorhersagen im Grunde genommen, dass er überall hinziehen könnte.

Schauen wir uns also einmal an, warum die Wettervorhersagen in den letzten Jahrzehnten so viel besser geworden sind. Es gibt vier Gründe, und wir werden uns nur auf einen konzentrieren.

Erstens haben wir die physikalischen Vorgänge in der Atmosphäre besser im Griff. Es ist nicht viel besser, und eigentlich ist es auch keine große Sache. Der zweite Punkt ist, dass wir viel leistungsfähigere Computer haben, und das macht einen Unterschied. Der dritte Grund, und der wird jetzt langsam wichtig ist, dass wir heute riesige Datenmengen aus der jüngeren Vergangenheit haben und fortschrittliche statistische Verfahren nutzen können – KI, wenn man so will –, um die Vorhersagen zu unterstützen. Genauso wie ChatGPT auf alles trainiert wird, was jemals im Internet geschrieben worden ist, um eine Antwort auf eine Frage zu geben, die einigermaßen plausibel klingt, lässt sich das Gleiche auch beim Wetter tun. Man nutzt die Daten aus der Vergangenheit, um herauszufinden, was passieren würde, wenn die Bedingungen damals mehr oder weniger denen von heute ähnelten.

Der vierte Grund ist jedoch sehr, sehr wichtig, und darauf werden wir uns heute konzentrieren. Und es ist etwas, das nicht allgemein bekannt ist: Wir können die Atmosphäre mittlerweile viel genauer messen, manchmal sogar auf überraschende Weise.

Es hat sich herausgestellt, dass es für eine Wettervorhersage für morgen sehr hilfreich ist, wenn man – überall – genau weiß, wie das Wetter heute ist.

Um das zu verstehen, müssen wir uns nun genauer ansehen, wie Wetter- und Klimamodelle funktionieren, inwiefern sie sich ähneln und worin sie sich unterscheiden.

Die großen physikalischen Berechnungen stützen sich also auf die Gesetze der Thermodynamik – darüber, wie sich Luft ausdehnt, erwärmt, abkühlt und wie sich Wasserdampf bildet – und dafür gibt es jede Menge wirklich schöne mathematische Gleichungen. Einige sind sehr genau. Andere, etwa die zu Wolken, sind eigentlich ziemlich kompliziert – im Grunde nur fundierte Vermutungen. Dann gibt es noch die Physik der gesamten Strahlung: die einfallende Sonnenstrahlung, die Infrarotstrahlung, die vom Boden, von den Wolken und sogar von der Luft selbst ausgeht.

Diese basieren auf einem großen Modell, das Newtons Bewegungsgesetze nutzt – der gute alte Newton –, um zu berechnen, wie sich die Luft bewegt: der Wind, die vertikalen Bewegungen und was diese Luft mit sich führt – die Luftfeuchtigkeit, ihren Impuls, ihre kinetische Energie. Mit Newtons zweitem Gesetz lässt sich berechnen, wie diese Luft beschleunigt. Das ist das A in F = MA – im Grunde genommen, wie sie ihre Geschwindigkeit oder Richtung ändert.

Aber wir müssen die Masse der Luft kennen, und das ist nicht allzu schwer. Wir teilen einfach die gesamte Atmosphäre in viele kleine Abschnitte auf, die jeweils einige Kilometer breit und etwa einen Kilometer hoch sind. Dann müssen wir F kennen, also die Kraft, die auf die Luft wirkt. Viele Faktoren tragen dazu bei: der Luftdruck, die Erdrotation, die Luftdichte. Anschließend berechnen wir die Beschleunigung, also die Änderung der Geschwindigkeit oder Richtung, über einen bestimmten Zeitraum.

Wir können das mit den Berechnungen für ein beschleunigendes Auto vergleichen. Man hat einen Motor, der die Kraft erzeugt, und nehmen wir an, das Auto beschleunigt um 20 km/h pro Sekunde – oder zumindest wird es jede Sekunde um 20 km/h schneller. So können wir berechnen, wie schnell es beispielsweise in fünf Sekunden fahren wird. Fünf mal 20 ist 100 – wir werden 100 km/h schneller fahren als zu Beginn.

Aber hier ist der entscheidende Punkt: Um zu wissen, wie schnell wir in fünf Sekunden fahren werden, muss man wissen, wie schnell man zu Beginn gefahren ist. Wenn wir an der Ampel stillstanden, fahren wir in fünf Sekunden 100 km/h. Wenn wir jedoch bereits 60 km/h fuhren, als wir das Gaspedal durchdrückten, fahren wir nun 60 plus 100 – also 160 km/h – in fünf Sekunden.

Man muss die Anfangsbedingungen kennen, um herauszufinden, wie schnell man am Ende sein wird. Die Anfangsbedingung ist der Fachbegriff aus der Differentialgleichung, auf der das alles basiert, und das gilt auch für das Wetter. Man kann die Windgeschwindigkeit oder -richtung von morgen nicht berechnen, wenn man nicht weiß, wie hoch die Windgeschwindigkeit und -richtung heute sind. Und es geht nicht nur um den Wind – es geht auch um den Luftdruck und die Luftfeuchtigkeit.

Nun, beim Wetter ist es wie bei vielen anderen Systemen auch: Wenn man die Anfangsbedingungen falsch angibt, kann das Endergebnis völlig anders ausfallen, selbst wenn man sich bei der Anfangsbedingung nur um ein winziges bisschen irrt. Diese hier herumrollenden Kugeln beispielsweise starteten aus einer nur ganz leicht unterschiedlichen Position, und nach kurzer Zeit befinden sie sich an einer völlig anderen Stelle. Das ist ein klassisches Beispiel für ein zusammengesetztes Pendel – die beiden Pendel starteten an ganz leicht unterschiedlichen Positionen, aber wenn man die Zeit voranschreitet, sind sie schließlich nicht mehr annähernd an derselben Position. Und genau so ist es auch mit dem Wetter. Wenn man die Anfangsbedingungen falsch einschätzt, kann man in ein, zwei oder drei Wochen unmöglich eine genaue Wettervorhersage haben.

Wie hat sich also unsere Fähigkeit, das Wetter zu messen, so sehr verbessert?

Erstens können Satelliten zwar Wolken erkennen, aber das ist erst der Anfang. Sie können tatsächlich die von der Luft selbst ausgehende Mikrowellen- und Infrarotstrahlung überwachen und messen, um ein Profil der Lufttemperatur und der Luftfeuchtigkeit von der Obergrenze der Atmosphäre bis hinunter zur Erdoberfläche zu erstellen. Zwar wird nach wie vor das alte Verfahren angewendet, bei dem Ballons mit Feuchtigkeits- und Temperatursensoren aufsteigen gelassen werden, doch ist dies nur an wenigen Orten möglich. Wenn das Amt dies also tut, wie Sie auf dieser Karte sehen können, sind es nicht sehr viele Orte, und mitten auf dem Ozean ist dies nicht möglich.

Aber hier ist etwas, das ich sehr interessant fand – eine Messmethode, die wir tatsächlich nutzen können: das GPS-System – das gleiche, das ihr mit eurem Handy nutzt, um euren Standort zu bestimmen. Es stellt sich heraus, dass es zur Überwachung der Luftfeuchtigkeit eingesetzt werden kann. Beim GPS-System werden Signale vom Satelliten zu Bodenstationen gesendet, und anhand der Zeit, die diese Signale benötigen, wird euer Standort ermittelt. Die Laufzeit dieser Signale hängt jedoch von der Luftfeuchtigkeit ab. So lassen sich ziemlich raffinierte Berechnungen anstellen und die Atmosphäre tatsächlich mit dem GPS-Signal untersuchen.

Was Sie hier also gerade sehen, ist nichts Geringeres als eine Revolution in der Art und Weise, wie wir das Wetter messen können. Wenn man das Wetter von heute kennt, kann man viel genauer vorhersagen, wie das Wetter morgen sein wird.

Schauen wir uns nun die Klimamodelle an. In vielerlei Hinsicht ähneln sie sich, aber das Klima ist gewissermaßen ein Durchschnitt der Wetterbedingungen, und diesen Durchschnitt bilden wir oft über einen Zeitraum von beispielsweise 30 Jahren. In einem Wettermodell berechnen wir die Veränderungen des Wetters und addieren oder subtrahieren diese von den heutigen Bedingungen. Bei Klimamodellen versuchen wir, anstatt Veränderungen im Laufe der Zeit zu berechnen, die durchschnittlichen Bedingungen über einen langen Zeitraum zu ermitteln.

Und es ist tatsächlich ziemlich interessant, dass selbst hier die aktuellen Klimamodelle oft von den großen, berühmten Klimamodellen falsch vorhergesagt werden – sie weichen also um bis zu einige Grad voneinander ab. Ich habe dazu ein Video gedreht.

Nun, vielleicht spielt das keine allzu große Rolle, denn was wir wirklich wissen wollen ist, wie sich das Klima verändern wird, wenn man beispielsweise die Kohlendioxidmenge oder einen anderen Parameter verdoppelt. So führen Modellierer oft interessante Simulationen durch, bei denen sie die Sonneneinstrahlung reduzieren oder sogar die Position der Kontinente und Ozeane verändern, um vergangene Klimata zu simulieren.

Das ist also ein wichtiger Unterschied: Wettermodelle berechnen die Wetterveränderung ausgehend vom heutigen Wetter und simulieren so das Wetter für morgen. Klimamodelle gehen in der Regel von einem groben Klimazustand aus und berechnen die Klimaveränderungen, wenn wir einen wichtigen Parameter verändern, wie zum Beispiel die Kohlendioxidkonzentration.

Verdopplung der Klimamodelle – Klimamodelle benötigen keine hochgenauen Messungen des heutigen Klimas, um die Veränderungen zu berechnen, wenn man beispielsweise die Kohlendioxidkonzentration verdoppelt. Wettermodelle hingegen benötigen sehr genaue Messungen des heutigen Wetters, um das Wetter in einer Woche oder einem Tag in der Zukunft zu berechnen.

Das bedeutet also, dass die Wettermodelle massiv von all den zusätzlichen Messungen profitiert haben, die Klimamodelle jedoch nicht – die zusätzlichen Daten, die wir für das heutige Wetter haben, helfen uns nicht dabei, das Wetter in 100 Jahren zu berechnen. Klimamodelle profitieren also nicht von dieser Revolution.

Was ist also die Moral der Geschichte? Man sollte den Wettermann nicht ständig kritisieren. Er leistet tatsächlich unglaublich gute Arbeit. Und dasselbe gilt für all die Techniker, die die Satellitenüberwachungssysteme, die GPS-Systeme und die statistischen Verfahren entwickelt haben – sie haben eine Revolution ausgelöst.

Was nun die Klimamodelle angeht – nun, sind sie tatsächlich besser bei der Vorhersage als eine einfache Überschlagsrechnung? Man kann eine sehr einfache Berechnung durchführen und erhält am Ende eine Zahl, die den Ergebnissen dieser riesigen Supercomputer sehr ähnlich ist. Und sagen die Modelle wirklich eine Katastrophe voraus? Und weisen die Modelle Diskrepanzen untereinander auf – große Diskrepanzen? Und haben wir ein grundlegendes Problem, dass wir erst 2050 oder 2100 sagen können, ob sie richtig oder falsch liegen, wenn es dann vielleicht schon viel zu spät ist, weil wir den Bogen überspannt haben – oder vielleicht erkennen wir, dass sie alle falsch lagen?

Meine Güte, sehen Sie mal auf die Uhr. Das müssen wir an einem anderen Tag machen.

Link: https://wattsupwiththat.com/2026/04/04/why-weather-prediction-got-brilliant-but-not-climate-predictions/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Bei den WETTER-Vorhersagemodellen (72 bis max, 168 Std. im Voraus, danach zeigen sie mehr oder weniger nur noch statistisches Rauschen) muss man unterscheiden zwischen den Basisfeldern und der Modell-eigenen Interpretation. Basisfelder sind die Verteilung von Druck, Feuchtigkeit und Temperatur in allen Schichten der Atmosphäre, so wie von Ridd beschrieben. Die Modell-eigene Interpretation interpretiert dann das Wetter, welches aus der Anordnung dieser Basisfelder folgt, also z. B. Niederschlagsmenge und -zeit, Sonnenscheindauer, Höchst- und Tiefsttemperaturen usw. Nichts Anderes machen auch die sog. „Wetter-Apps“. Die Erfahrung des Prognostikers dazu: Die Simulation der Basisfelder ist für 72 Stunden im Voraus fast perfekt, wie auch der Vergleich verschiedener Modellläufe (GFS, EZMW usw.) zeigt. Die Modell-eigene Interpretation ist es jedoch nicht, und hier kann ein erfahrener Prognostiker durchaus noch Verbesserungen des Modells erreichen. Es kommt nämlich immer wieder vor, dass verschiedene Modelle bei fast identisch simulierten Basisfeldern nach 72 Std. z. B. völlig unterschiedliche Niederschlagsmengen simulieren.

Nichts dergleichen gilt für Klima-Modelle.

Der Beitrag Warum Wettervorhersage-Modelle richtig gut geworden sind – Klimavorhersage-Modelle aber nicht erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Der Skandal um die schottische Wetterstation, die auch sechs Jahrzehnte nach ihrer Schließung noch Temperaturdaten liefert

veröffentlicht.
Vorschau ansehen

Chris Morrison, THE DAILY SCEPTIC

Ein weiteres schockierendes Beispiel für jahrzehntelang erfundene Temperaturwerte an nicht existierenden Messstationen des britischen Wetterdienstes (UK Met Office) ist ans Licht gekommen. Die „Station“ Lephinmore befand sich am Oberlauf des Firth of Clyde und kann laut der Met-Office-Datenbank „Standortspezifische Langzeitdurchschnitte“ monatliche Temperaturwerte sowie Niederschlagsmengen bis zurück ins Jahr 1960 liefern. Diese Datenlieferung kann als modernes wissenschaftliches Wunder angesehen werden, da die eigentliche Station fünf Monate vor dem Weltmeistertitel Englands im Jahr 1966 geschlossen worden war.

Wenn das Met Office gebeten wird, weitere und genauere Angaben zu seinen Erfindungstechniken zu machen, lautet die übliche Erklärung, dass Zahlenreihen von „gut korrelierten benachbarten Stationen“ per Computer modelliert werden. Im Fall der ortsspezifischen Station Lephinmore gibt es jedoch gar keine benachbarten Stationen, weder gut korrelierte noch sonstige.

Die drei nächstgelegenen Stationen mit Langzeitaufzeichnungen sind die CIMO-Klasse-4-„Junk“-Station Dunstaffnage in 43 km Entfernung, die Klasse-4-Station Glasgow Bishopton in 47 km Entfernung und der Klasse-4-Flughafenstandort Prestwick Gannet in 72 km Entfernung. Eine Station namens „Bute: Rothesay“ soll 29 km entfernt sein, wurde jedoch vor einiger Zeit geschlossen. Eine neue Station „Bute: Rothesay No 2“ wurde 2012 eröffnet und gehört ebenfalls zum „Junk“-Portfolio der Klasse 4. Die beträchtlichen Entfernungen und der „Junk“-Charakter aller Standorte mit international anerkannten Unsicherheiten bis zu 2 °C scheinen eine gute Korrelation sowohl für eine einzelne „Station“ als auch für eine gefälschte „standortspezifische“ Behauptung auszuschließen.

Um es ganz offen zu sagen: Die Vorstellung, dass ein Flughafenstandort wissenschaftliche Informationen über die voraussichtlichen Temperatur- und Niederschlagsbedingungen an einem 72 km entfernten ländlichen Ort liefern kann, ist geradezu lächerlich. Ein Standort der Klasse 4 ist nicht in der Lage, die tatsächliche Umgebungstemperatur in seiner unmittelbaren Umgebung zu ermitteln, geschweige denn in einer Entfernung von mehreren Dutzend Kilometern.

Genau das wird in der öffentlich zugänglichen Datenbank des Met Office mit den „standortspezifischen Langzeitdurchschnittswerten“ für Lephinmore behauptet. Es stehen zwei Optionen zur Verfügung, um die 30-jährigen monatlichen Durchschnittswerte von 1961–1990 und 1991–2020 zu verfolgen. Wie bereits erwähnt, ist es wahrlich ein Wunder der modernen Meteorologie, dass man aus so großer Entfernung Durchschnittswerte für Höchst- und Tiefsttemperaturen auf ein Hundertstel Grad Celsius genau berechnen kann. Und lokale Niederschlagsmengen auf zwei Dezimalstellen genau. Was für eine Präzision!

Der Bürgerdetektiv Ray Sanders hat im Rahmen seiner forensischen Untersuchung der Unterlagen und Behauptungen des Met Office diesen Fall sowie viele andere „eindeutige Beweise“ aufgedeckt. Außerdem legte er einen Nachweis über die Schließung von Lephinmore am 15. Februar 1966 vor.

Nachdem er sich über ein Jahr lang intensiv mit dem Zustand des Temperaturmessnetzes des Met Office auseinandergesetzt hatte, den von diesem erstellten Statistiken und den Modellen, die Unmengen erfundener Daten liefern, ist Sanders nicht geneigt, Nachsicht zu üben. „Eine alternative Sichtweise auf dieses System der Klimamittelwertbildung ist, dass es sich um reine Fiktion handelt … es ist eine Beleidigung der Intelligenz der Öffentlichkeit und zeugt von einer völligen Missachtung selbst des kleinsten Anflugs wissenschaftlicher Glaubwürdigkeit“, meint er. Es versteht sich von selbst, dass das Met Office einen anderen Standpunkt vertritt und den Untersuchungsbemühungen einer kleinen Gruppe von Menschen vorwirft, sie seien „ein Versuch, jahrzehntelange solide wissenschaftliche Erkenntnisse über den Klimawandel weltweit zu untergraben“. Leider scheint das Met Office in der von „Net Zero“ inspirierten Welt der „gesicherten“ Klimawissenschaft zu leben. Es scheint sich in seliger Unkenntnis darüber zu befinden, dass Wissenschaft in der realen Welt nur dann „solide“ ist, wenn sie einer unerbittlichen und forensischen Prüfung unbeschadet standhält.

Die Datenbank mit den „standortspezifischen Langzeitdurchschnitten“ hieß bis vor kurzem noch „UK Climate Averages“. Sie lud die Öffentlichkeit dazu ein, eine einzelne Wetterstation auszuwählen, um einen 30-Jahres-Durchschnitt für diesen Standort zu erhalten. Sanders deckte jedoch auf, dass mehr als ein Drittel – 103 von 302 – der beworbenen Stationen, komplett mit ihren angeblichen Koordinaten und Höhenangaben, gar nicht existierten. Daraufhin folgte eine hastige Überarbeitung durch das Met Office, in der erklärt wurde, dass die erfundenen Daten von „Standorten“ stammten, die möglicherweise einen Bezug zu Stationen hatten, die einst existierten oder heute tatsächlich existieren – oder auch nicht. Trotzdem erscheinen die Daten, wie das obige Bild für Lephinmore zeigt, weiterhin für eine namentlich genannte „Station“.

Ein anschließender „Faktencheck“ von Science Feedback, der offenbar größtenteils vom Met Office verfasst worden war besagte, dass die Durchschnittsdaten für die stillgelegten Stationen nicht „erfunden“ worden seien, sondern anhand von „gut korrelierten benachbarten Stationen“ geschätzt worden seien. Das ist zwar eine Erklärung für die Erfindungen, doch wie wir am Beispiel von Lephinmore sehen können, wirft das Fehlen von Stationen in der Nähe – ob gut korreliert oder nicht – noch mehr Fragen auf.

Anschließend sorgten „kritische“ Fragen der wenigen Anwesenden im Fall von Lowestoft für Aufruhr. Diese Messstation war eine von nur 37, die Daten für eine separate „historische“ Datenbank lieferten, wurde jedoch 2010 geschlossen. Lowestoft hat keine gut korrelierten Stationen in der Nähe – die nächsten sind über 56 km entfernt –, eine Tatsache, die durch eine Anfrage nach dem Informationsfreiheitsgesetz (FOI) von Daily Sceptic bestätigt worden ist. Für Lowestoft behauptete das Met Office daraufhin, dass es keine „gut korrelierten benachbarten Stationen“ verwendet habe, und lieferte eine andere Erklärung: „Wir haben den Rasterwert des nächstgelegenen Rasterpunkts aus unserem britischen Klimadatensatz HADUK-Grid verwendet.“ Doch diese Erklärung scheint den neugierigen – wenn nicht gar zynischen – Ermittler nicht sonderlich weit zu bringen, da das HADUK-Grid Daten von „gut korrelierten benachbarten Stationen“ nutzt, die aus dem Integrated Data Archive System (MIDAS) des Met Office stammen, um Lückendaten für geschlossene Stationen zu modellieren.

Was auch immer vor sich geht, das Met Office hat die erfundenen Daten von Lowestoft aus dem Jahr 2010 entfernt. Gott bewahre, dass jemand glauben könnte, diese Station – als „gut korrelierte Nachbarstation“ zur Datenergänzung oder eben nicht – würde gefälschte Zahlen über Datenbanken mit modellierten Temperaturangaben verbreiten und dabei die „Aufzeichnungen“ verfälschen. Passenderweise wurde damals der öffentlichen Erklärung zur historischen Datenbank eine kurze Anmerkung hinzugefügt, die lautete: „Der Zweck dieser Webseite ist es, eine Auswahl historischer Stationsdaten aus ganz Großbritannien für allgemeines Interesse bereitzustellen. Sie wird nicht für die formelle Klimaüberwachung verwendet.“

Unterdessen kommen Zweifel an einigen der Niederschlagsangaben des Met Office auf, die ausnahmslos dazu dienen, die „Netto-Null“-Fantasie zu propagieren. Die jüngste Behauptung, Worcestershire habe den regenreichsten Februar seit Beginn der Aufzeichnungen im Jahr 1835 verzeichnet, wurde vom bekannten, langjährigen Klimaskeptiker Paul Homewood nach Informationsfreiheitsanfragen wirksam widerlegt. Er fand in historischen Aufzeichnungen überzeugende Belege dafür, dass in diesem Gebiet im Februar 1923 mehr Regen fiel. „Wird das britische Wetter wirklich feuchter, wie sie behaupten? Oder ist das nur ein Hirngespinst ihrer Computer?“, fragt er.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2026/04/03/the-scandal-of-the-scottish-met-office-station-still-providing-temperature-figures-six-decades-after-it-closed/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Der Skandal um die schottische Wetterstation, die auch sechs Jahrzehnte nach ihrer Schließung noch Temperaturdaten liefert erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Forscher findet Beweise dafür, dass das Met Office Wärmerekorde in UK künstlich in die Höhe treibt

veröffentlicht.
Vorschau ansehen

Chris Morrison, THE DAILY SCEPTIC

Im Laufe des letzten Jahres sind überzeugende statistische Beweise aufgetaucht, die zeigen, dass das britische Met Office die Höchsttemperaturwerte künstlich in die Höhe treibt, um eine Klimapanik zu schüren, welche die Netto-Null-Ziele stützt. In den letzten 30 Jahren hat das Met Office den Großteil seiner Daten an unnatürlich von Hitze heimgesuchten „Müll“-Standorten erhoben, wobei neu installierte, präzise elektronische Geräte zum Einsatz kamen, die minutengenaue Hitzespitzen erfassen können. Der unabhängige Forscher Dr. Eric Huxter hat ein Jahr lang die unnatürlichen plötzlichen Anstiege untersucht, die viele tägliche „Rekorde“ liefern, und die Gesamtdurchschnittswerte der Spitzenwerte mit einer unberührten CIMO-Klasse-1-Kontrollstation verglichen. Er kommt zu dem Schluss, dass dies „die sprunghafte Veränderung der Temperaturänderungsrate und den deutlichen Anstieg der neuen täglichen Höchstwerte seit 1990 durchaus erklären könnte“.

Im Rahmen seines einjährigen Projekts untersuchte Dr. Huxter 340 Tageshöchsttemperaturen, die an 96 Stationen des Met Office aufgezeichnet worden waren, und stellte fest, dass an diesen Standorten durchschnittliche kurze Temperaturspitzen von etwa 1,1 °C auftraten. Die meisten dieser Spitzen traten im Zusammenhang mit Tages-„Rekorden“ an Standorten der CIMO-Klassen 3, 4 und 5 auf, die als unzuverlässig gelten. Diese Standorte weisen international anerkannte „Unsicherheiten“ oder mögliche Fehler von 1 °C, 2 °C bzw. 5 °C auf. Da Temperaturspitzen jedoch auch auf natürliche Weise auftreten können, konsultierte Huxter die minutengenauen Temperaturdaten eines ganzen Jahres an einem unberührten Standort der Klasse 1 in offenem Ackerland bei Rothamsted. Aus den erworbenen Aufzeichnungen – insgesamt 525.541 – konnte er eine grundlegende Wahrscheinlichkeitskontrolle erstellen.

Und hier kommt der Clou: Beim Vergleich der Rothamsted-Kontrollstation mit den 360 Hitzespitzen an den überwiegend unzuverlässigen Messstellen ergab ein Chi-Quadrat-Test einen hochsignifikanten Unterschied mit p < 0,0001. Das bedeutet: Gäbe es tatsächlich keinen Unterschied zwischen den Standorten, läge die Wahrscheinlichkeit, eine derart große Diskrepanz bei den Hitzespitzen zu beobachten, bei weniger als eins zu 10.000 – mit anderen Worten: Sie wäre unwahrscheinlicher als eins zu 10.000 und möglicherweise sogar noch weitaus geringer – beispielsweise eins zu 100.000.

Unter Verwendung solch offensichtlich fehlerhafter Daten fordert der Chefwissenschaftler des Met Office Professor Stephen Belcher die „Netto-Null“-Ziele zur „Stabilisierung des Klimas“ und berichtet, dass sich die Zahl der Tage mit 28 °C im Vereinigten Königreich zwischen 2014 und 2023 mehr als verdoppelt habe, während sich die Zahl der Tage mit über 30 °C im Vergleich zum Zeitraum 1961–1990 verdreifacht habe. Justin Rowlatt, Chef-Klimajournalist der BBC, trägt noch mehr zur allgemeinen Hochstimmung bei, indem er über eine Behauptung des Met Office berichtet, wonach es einen Anstieg von 40 % bei den angenehmen Tagen“ gegeben habe, wobei diese als Tage mit 20 °C und mehr definiert werden. „Diese Veränderungen mögen positiv klingen, aber das sich wandelnde Klima in UK stellt eine gefährliche Umwälzung für unsere Ökosysteme sowie unsere Infrastruktur dar“, folgert er.

Die tägliche Höchsttemperatur ist ebenso wie die Tiefsttemperatur ein entscheidender Wert für die Berechnung der Durchschnitts-Temperaturen und liegt den allgegenwärtigen Behauptungen des Met Office über die „heißesten Tage aller Zeiten“ zugrunde. Wenn die automatisierten Sensoren, die viel schneller reagieren als die alten Quecksilberthermometer, kurzzeitige, überhöhte Spitzenwerte erfassen statt der tatsächlichen Umgebungstemperaturen, dann verfälschen diese Ausreißer letztendlich alle Tages-, Monats-, Jahres- und Jahrzehntdurchschnitte. Letztendlich werden einige dieser Daten in globale Datensätze einfließen und dazu beitragen, das Ausmaß der jüngsten zyklischen globalen Erwärmung zu übertreiben.

Extreme Beispiele von Hitze-Spitzen sind keine Seltenheit. Am 1. Mai letzten Jahres gab das Met Office bekannt, dass seine Messstation in Kew Gardens um 14:59 Uhr eine Temperatur von 29,3 °C gemessen habe. Von der BBC verbreitet, galt dies als die höchste jemals an diesem Tag in UK gemessene Temperatur. Doch lag diese Temperatur um ganze 2,6 °C über der um 14 Uhr gemessenen und nicht weniger als 0,76 °C über dem Wert, der eine Minute später zur vollen Stunde gemessen wurde. Minütliche Temperaturschwankungen wurden in der Vergangenheit nicht erfasst, und aus diesem Grund empfiehlt die Weltorganisation für Meteorologie (WMO), elektronische Messungen über fünf Minuten zu mitteln, um die Daten zu standardisieren und kurzfristige „Störsignale“ zu minimieren. Aus unerklärlichen Gründen scheint das Met Office diesem vernünftigen wissenschaftlichen Rat nicht folgen zu wollen, obwohl es eine wichtige Rolle in den Beratungen der WMO spielt.

Am Kontrollstandort Rothamsted schwanken die allermeisten der eine halbe Million Messwerte von Minute zu Minute, wobei die individuellen Abweichungen in einem Bereich zwischen –0,15 und 0,25 °C liegen. Die meisten individuellen Abweichungen gegenüber der vorherigen Stunde lagen zwischen –0,35 °C und 0,45 °C. Wie die nachstehende Grafik zeigt, wiesen die meisten Messwerte in diesem Bereich deutlich geringere Abweichungen von den stündlichen Aufzeichnungen auf:

Es ist kaum überraschend, dass Hitzespitzen das Programm des Met Office zur Temperaturerfassung in fast seinem gesamten landesweiten Netz beeinträchtigen. Ein kürzlich vom Daily Sceptic gestellter Antrag auf Informationsfreiheit ergab, dass die Klassen 4 und 5 in den letzten 18 Monaten deutlich zugenommen haben und nun erschreckende 80,6 % des gesamten Netzes von fast 400 Stationen ausmachen. Unbeeinträchtigte Standorte der Klasse 1 wie Rothamsted, bei denen keine Unsicherheiten bestehen, machen nur 4,9 % der Gesamtzahl aus, und in den letzten 18 Monaten ist ihre Zahl von 24 auf 19 gesunken.

Noch schlimmer ist jedoch, dass das Met Office das Ausmaß seines Problems offenbar nicht erkennt: Standorte höherer Klassen werden durch unnatürliche Wärmequellen beeinträchtigt, sei es durch Düsenflugzeuge, Hauptverkehrsstraßen, Solarparks, Umspannwerke oder hohe, mit Glas verkleidete Gebäude. Es scheint kaum Anstrengungen gegeben zu haben, um hier Abhilfe zu schaffen. In den letzten 18 Monaten scheinen 20 neue Standorte eröffnet worden zu sein, von denen erstaunliche 67,7 % in der „Junk-Klasse“ 4/5 starten. Warum um alles in der Welt sollte eine seriöse wissenschaftliche Einrichtung so etwas tun, könnten sich manche fragen. Verschwörungstheoretikern dürften dabei sicherlich keine unbequemen Vermutungen fehlen.

Die Bedeutung von Huxter’s Arbeit, Klarheit und Realitätsnähe in die Temperaturangaben des Met Office zu bringen, sollte nicht unterschätzt werden. Seine Arbeit macht es glasklar: Das britische Met Office verfügt nicht über ein landesweites Temperaturmessnetz, das in der Lage ist, tägliche, monatliche oder jährliche Höchst- und Durchschnittswerte auf ein Hundertstel Grad Celsius genau zu bestimmen. Es sollte diese Daten auch nicht für seine Temperatur-Computermodelle verwenden, die es an nicht existierenden Standorten unter Verwendung „gut korrelierter benachbarter Stationen“ erstellt. Ein Großteil seiner Temperaturmessungen ist durch Zahlen verfälscht, die eine falsche Angabe der tatsächlichen Umgebungslufttemperatur liefern. Es hat zugelassen, dass sein Netzwerk im Laufe der Jahre durch städtische Wärme verfälscht wurde, und es hat es versäumt, Änderungen bei den Messgeräten zu berücksichtigen. Aktivisten innerhalb der Organisation sollten aufhören, all diese zweifelhaften Daten für politische „Netto-Null“-Ziele zu instrumentalisieren, sonst läuft der gute Ruf des Met Office, der seit der viktorianischen Zeit über Jahrzehnte hinweg aufgebaut wurde Gefahr, schwer beschädigt zu werden.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2026/04/02/researcher-finds-proof-the-met-office-is-inflating-uk-maximum-temperature-records/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Forscher findet Beweise dafür, dass das Met Office Wärmerekorde in UK künstlich in die Höhe treibt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Europas Hormuz-Armageddon

veröffentlicht.
Vorschau ansehen

Tilak Doshi, Tilak’s Substack

Es ist Vater Jupiter, nicht Mutter Gaia, zu dem die hochmütigen Europäer hätten beten sollen.

Die politischen und intellektuellen Eliten Europas haben die letzten Jahrzehnte damit verbracht, die Gefahr eines unmittelbar bevorstehenden Klima-Armageddons zu propagieren. Einige von uns können sich noch gut an den jungen Joschka Fischer erinnern, einen Linken der Grünen, der 1985 in Turnschuhen und Jeans seinen Amtseid als Umweltminister des Landes Hessen ablegte.

Seitdem – im Namen von Gaia, der griechischen Göttin der Erde – haben sie ihre Bürger unter Druck gesetzt und ihren einst mächtigen Wirtschaftstitanen Fesseln angelegt, der während des größten Teils des 19. und 20. Jahrhunderts die globale Chemie-, Automobil- und Feinmechanikindustrie beherrschte. Deutschlands Energiewende, der „Green New Deal“ der EU und das britische Klimaschutzgesetz haben strenge Umweltvorschriften und CO₂-Steuern nach sich gezogen. Die Regierungen unter Obama und Biden schlossen sich Brüssel an und setzten virtuose Beispiele für Klimaführerschaft – ein bestimmendes Kriterium der Energiepolitik in Westeuropa und den USA, mit der bedeutenden Ausnahme der beiden Regierungen unter Präsident Trump. China, Indien, Russland und andere Länder des Globalen Südens schlossen sich diesem virtuosen Kurs an, jedoch nur so weit, wie es notwendig war, um von den Versprechungen der Klimafinanzierung und Reparationszahlungen zu profitieren.

Leider hat das westliche Bündnis auf den falschen Gott gesetzt. Nicht Gaia, sondern Neptun, der römische Gott der Meere, droht Westeuropa derzeit mit dem Weltuntergang. Die zivilisatorische Bedrohung für Europa geht nicht von einer „Klimakrise“ aus, sondern von einer Versorgungskrise bei lebenswichtigen fossilen Brennstoffen und Nebenprodukten wie Düngemitteln, die durch die Straße von Hormus transportiert werden – genau jene Rohstoffe, die vom Gaia-Kult verteufelt werden. Um fair zu sein: Es ist nicht Neptun, der Stürme für segelgetriebene Boote verursacht, der hier Schuld trägt. Doch sobald Mars, der Gott des Krieges, seine Leidenschaften über Neptuns Reich entfesselt, ist es unsere Pflicht, aufmerksam zu sein und die maritimen Engpässe sowie die physische Geografie zu verstehen.

Die beispiellose Sperrung der Straße von Hormuz

Die Straße von Hormus, die den Persischen Golf mit dem Rest der Welt verbindet, war schon immer der weltweit wichtigste Energie-Knotenpunkt. Über sie werden rund ein Fünftel des weltweiten Öls und Flüssigerdgases transportiert, wobei die Lieferungen der Produzenten aus dem Nahen Osten hauptsächlich nach Asien, in geringerem Umfang aber auch nach Europa, in die USA und in den Rest der Welt gehen. Die Sperrung der Straße von Hormuz durch den Iran beeinträchtigt zudem etwa ein Drittel des weltweiten Düngemittelhandels, treibt die Preise um 30 % bis 40 % in die Höhe und gefährdet die weltweite Ernährungssicherheit.

Er hat zudem einen großen Anteil am weltweiten Angebot an Schwefelsäure und Helium, die für wichtige chemische Prozesse in der Düngemittelherstellung, der Produktion von Phosphatdüngern, der Metallveredelung, der Halbleiterfertigung und der medizinischen Bildgebung von entscheidender Bedeutung sind. Auf den Nahen Osten entfallen 45–50 % des weltweiten Seehandels mit Schwefel. Allein Katar liefert rund 30–36 % der weltweiten Heliumproduktion.

Iranische Regierungsvertreter haben zwar wiederholt Drohungen gegen die Sicherheit der Schifffahrt ausgesprochen, doch hat die Regierung nie tatsächlich versucht, die Meerenge zu sperren. Die Straße von Hormuz wurde somit nie blockiert, obwohl der Schiffsverkehr während der Phase des „Tankerkriegs“ im Iran-Irak-Krieg von 1980 bis 1988 stark beeinträchtigt war. Die Welle von Angriffen auf Tanker und die Beschlagnahmung von Schiffen im Jahr 2019 verstärkte das Gefühl der Verwundbarkeit asiatischer Länder gegenüber Unterbrechungen ihrer Öl- und Gaslieferungen aus dem Nahen Osten. So erklärte beispielsweise Japans Kabinettschef Yoshihide Suga im Mai 2019 nach den Tankerangriffen in der Meerenge, dass dies „in Bezug auf die Energiesicherheit eine Frage von Leben und Tod für unser Land“ sei.

Die am 28. Februar begonnenen US-amerikanisch-israelischen Angriffe auf den Iran lösten eine sofortige Kettenreaktion im globalen Energiehandel aus. Lloyd’s of London kündigte Seeversicherungen, Tanker wurden abgewiesen und der Schiffsverkehr durch die Meerenge brach um über 90 % ein. Die Ölpreise sind um mehr als 50 % in die Höhe geschnellt, und die Internationale Energieagentur sowie andere Analysten bezifferten den Schock auf 11 bis 15 Millionen Barrel pro Tag oder etwa 10 bis 15 % des weltweiten Angebots. Analysten prognostizieren nun einen Brent-Preis zwischen 150 und 200 US-Dollar bei anhaltenden Störungen, insbesondere falls die Insel Kharg getroffen wird. Die Energiebilanz ist gnadenlos. Zwischen 10 und 15 % des weltweiten Ölangebots sind praktisch ausgefallen. Die Anlage Ras Laffan in Katar, die mit einer Kapazität von 77 Millionen Tonnen pro Jahr die weltweit größte Gasverflüssigungsanlage ist, verlor nach einem iranischen Gegenschlag 17 % ihrer LNG-Kapazität; die Reparaturen werden voraussichtlich fünf Jahre dauern und 20 Milliarden US-Dollar an Einnahmeausfällen kosten.

Sollte es in den nächsten Wochen zu keiner Lösung des Konflikts kommen, würde sich eine vorübergehende und kostspielige Störung des weltweiten Energie- und Düngemittelhandels zu einem strukturellen Bruch im Gefüge der Weltwirtschaft entwickeln, mit katastrophalen Folgen für die Lebensgrundlagen der Menschen weltweit. Die kurzfristigen Belastungen werden beherrschbar sein – mit Ausnahme der am stärksten gefährdeten Länder, insbesondere einiger Nettoenergieimporteure auf dem indischen Subkontinent und in Südostasien, die bereits Anzeichen von Belastungen zeigen.

Ein längerfristiges Szenario für die Sperrung der Meerenge wäre jedoch katastrophal. Wie immer gilt: Wenn Elefanten kämpfen, wird das Gras zertrampelt. Die schlimmsten Auswirkungen werden die Schwächsten in den ärmeren Entwicklungsländern treffen, die angesichts steigender Energie- und Lebensmittelpreise erneut in Armut und Entbehrung zurückfallen werden. In den Industrieländern sind es Westeuropa und Großbritannien – die bereits mit einer durch grüne Politik verursachten Deindustrialisierung, hohen Energiepreisen und der Defizit-Finanzierung übermäßig großzügiger Sozialstaaten zu kämpfen haben –, die vor einer verheerenden Entwicklung stehen. Zudem müssen sie nun mit reichen asiatischen Ländern wie Japan und Südkorea um Spot-LNG-Lieferungen konkurrieren , sofern sie keine langfristigen LNG-Lieferverträge abgeschlossen haben.

Der Kollaps des bisherigen Energie-Systems?

Vor etwas mehr als 80 Jahren, im Jahr 1945, besiegelte Franklin Roosevelt an Bord eines Zerstörers der US-Marine im Roten Meer das grundlegende Abkommen mit König Abdul Aziz Ibn Saud: militärischer Schutz der USA für das Haus Saud im Austausch für eine gesicherte Versorgung der westlichen Märkte mit arabischem Öl und die Reinvestition der Petrodollars in US-Staatsanleihen.

Jener Pakt, der das Bretton-Woods-System noch lange nach Nixons Aufhebung der Gold-Konvertibilität im Jahr 1971 stützte, gerät zunehmend unter Druck. Der Petrodollar bröckelt an den Rändern, während Teherans Kanonenboote, Drohnen und Raketen die Wasserstraße praktisch in eine von der IRGC betriebene Mautstelle verwandeln. Rund 26 Schiffe erhielten von der IRGC die Erlaubnis zur sicheren Durchfahrt durch die Meerenge, wobei sie Berichten zufolge eine Gebühr von 2 Millionen Dollar pro Tanker zahlten, überwiegend in Petroyuan, Kryptowährung oder Gold. Laut Pepe Escobar, der für den Finanzblog ZeroHedge schreibt, führen mit der IRGC verbundene Makler Hintergrundüberprüfungen hinsichtlich Schiffseigentum, Flagge, Ladung und Besatzung durch, und zugelassene Tanker erhalten eine VHF-Freigabe für einen schmalen, fünf Meilen breiten Korridor zwischen den Inseln Qeshm und Larak. Jede Transaktion umgeht gleichzeitig SWIFT und Handelssanktionen.

Westeuropas Energie-Karma

Europa ist der erste Dominostein unter den entwickelten Energieregionen, der fällt. Seit zwei Jahrzehnten verfolgt der Kontinent ein ideologisches Energie-Experiment: Energiewende, Atomausstieg, strafende CO₂-Bepreisung und immer ehrgeizigere Netto-Null-Ziele, die ihm bewusst den Zugang zu erschwinglichen, regelbaren fossilen Brennstoffen versperren. Die jüngste Verpflichtung des EU-Parlaments zu einer CO₂-Reduzierung um 90 % bis 2040 ist lediglich das neueste Kapitel dieser Selbstzerstörung. Das Ergebnis war – schon vor der Hormuz-Krise – eine Aushöhlung der industriellen Basis Europas, Haushalte, welche die höchsten Strompreise der Welt zahlen, und eine Wirtschaft, die von teuren LNG-Spotmarktlieferungen abhängig ist (im Vergleich zu langfristigen LNG-Verkaufsverträgen). Mit einer Geschichte des Fracking-Verbots, der Stilllegung von Kern- und Kohlekraftwerkensowie der Marginalisierung des vollen Potenzials der Nordseeressourcen (mit der Nicht-EU-Ausnahme Norwegens) sehen sich die EU und Großbritannien nun mit ihrem Energiekarma konfrontiert. Die hochmütigen Europäer zahlen den Preis für ihre eigene Energie-Torheit.

Nun ist die Rechnung in voller Höhe fällig. In Asien wird bereits rationiert, da 80 % des Öls und 90 % des Erdgases, die normalerweise durch die Meerenge flossen, nach Osten nach Asien gingen. Die Länder dort rationieren nun Kraftstoffe, weisen Arbeitnehmer an, zwei bis drei Tage pro Woche zu Hause zu bleiben, und greifen zur Stromerzeugung verzweifelt wieder auf Kohle zurück. Reiche asiatische Nationen wie Japan, Südkorea, Taiwan und Singapur können noch um die verbleibenden Ladungen konkurrieren. Ärmere Länder – allen voran Indien unter den großen Entwicklungsländern – haben bereits begonnen, Petrochemikalien und Flüssiggas zu rationieren. China hat seinen führenden Raffinerien verordnet, die Exporte von Diesel und Benzin auszusetzen, um der Binnennachfrage Vorrang zu geben und auf seine riesigen Rohölreserven zurückzugreifen. Japan, Korea und Indien haben bereits eine Rückkehr zur Kohle angekündigt, um den Verlust von 10 bis 15 Millionen Barrel pro Tag auf den globalen Ölmärkten auszugleichen. Subsahara-Afrika, dem die finanziellen Mittel fehlen, gleitet in Richtung Energieknappheit und der damit einher gehenden zivilen Unruhen.

Der umfassendere strategische Wandel ist nun unübersehbar. Die Vereinigten Staaten, der weltweit größte Ölproduzent und Nettoexporteur von Raffinerieprodukten, verfügen weiterhin über strategische Spielräume; Europa besitzt keinen solchen Puffer. Washington behält seinen Einfluss: Die Schieferölförderung mag zwar ihren Höhepunkt erreicht haben, doch die USA können ihre Exporte weiterhin so steuern, dass die Benzinpreise im Inland im Vorfeld der US-Zwischenwahlen gestützt werden. Russland exportiert weiterhin Öl, haben doch die USA Mitte März die Sanktionen vorübergehend aufgehoben, um die Auswirkungen auf die Preise an den globalen Ölmärkten abzumildern.

Die Billionen Dollar, die in den letzten zwei Jahrzehnten weltweit für die Förderung erneuerbarer Energien und Elektrofahrzeuge ausgegeben worden waren, sind nun als die teuerste strategische Fehlallokation der modernen Geschichte entlarvt worden. Die Sperrung der Straße von Hormuz hat gezeigt, dass der Zugang zu erschwinglichen und reichlich vorhandenen Öl- und Gasvorräten nach wie vor entscheidend für das Überleben eines Landes ist. Der „grüne Wandel“ war nie ein Wandel. Er war eine selbstverschuldete Schwachstelle, die Europa in einem multipolaren Energiewettstreit strategisch schutzlos zurückgelassen hat.

Die Physik der Kohlenwasserstoffe

Europäische Politiker sprechen von Rationierungen, gezielten Stromausfällen und verschärften Grenzkontrollen, als könnten diese einen realistischen Umgang mit der Energiepolitik ersetzen. Das können sie nicht. Der vernünftige Weg – die Sanktionen gegen Russland aufzuheben, ernsthaft über die Ukraine zu verhandeln, das Dogma der Netto-Null-Emissionen aufzugeben – ist politisch brisant, gerade weil er das Eingeständnis erfordert, dass ihre Energiepolitik nichts anderes ist als eine Wiedergeburt des Lysenkoismus. Die Alternative ist jedoch der Niedergang der Zivilisation: Deindustrialisierung, Zusammenbruch der Lieferketten und der dauerhafte Verlust strategischer Autonomie.

Die Geschichte geht selten gnädig mit Zivilisationen um, die Ideologie mit Physik verwechseln. Die Straße von Hormuz hat eine Lektion erteilt, die in der Energiegeopolitik geschrieben steht. Fossile Brennstoffe lassen sich nicht mit moralischen Gesten verhandeln. Lieferketten laufen nicht mit den grünen Slogans aus Brüssel.

A version of this article was first published in the Daily Sceptic (https://dailysceptic.org/2026/04/02/europes-hormuz-armageddon/)

Dr Tilak K. Doshi is the Daily Sceptic‘s Energy Editor. He is an economist, a member of the CO2 Coalition and a former (cancelled) contributor to Forbes. Follow him on Substack and X.

Link: https://wattsupwiththat.com/2026/04/03/europes-hormuz-armageddon/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Europas Hormuz-Armageddon erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Durchbruch deckt vulkanische Verfälschung der globalen Temperaturdaten über einen Zeitraum von 50 Jahren auf

veröffentlicht.
Vorschau ansehen

Charles Rotter

Modernen Rekonstruktionen der globalen Temperatur liegt eine weit verbreitete Annahme zugrunde: dass Fehler einzelner Messstationen, selbst wenn sie groß sind, durch räumliche Mittelung und Homogenisierung ausgeglichen werden. Diese Annahme verdient eine genauere Betrachtung. Jüngste Analysen von Daten auf Stationsebene deuten darauf hin, dass sich unter bestimmten Bedingungen – insbesondere wenn extreme Ausreißer der Qualitätskontrolle entgehen und anschließend in Homogenisierungsroutinen einfließen – lokale Anomalien nichtlinear auf den globalen Datensatz auswirken können.

Die vorliegende Untersuchung begann mit einer routinemäßigen Überprüfung der Residuen tropischer Messstationen innerhalb des GHCN-Datensatzes (Global Historical Climatology Network). Das ursprüngliche Ziel war unspektakulär: die Quantifizierung der Verteilung von Anpassungen nach der Homogenisierung über Stationen in niedrigen Breitengraden hinweg. Was sich stattdessen herausstellte, war ein anhaltendes und statistisch anomales Signal, das sich auf eine einzelne Station in Costa Rica konzentrierte, im Folgenden als CR-VOLC-EL-INFIERNO-01 bezeichnet.

Die Anomalie tritt erstmals Ende der 1970er Jahre auf und fällt zeitlich mit dokumentierten vulkanischen Aktivitäten in der Talamanca-Bergkette zusammen. Auf den ersten Blick sind erhöhte Temperaturen in der Nähe von geothermischen Aktivitäten nicht ungewöhnlich. Unerwartet sind jedoch das Ausmaß, die Dauerhaftigkeit und die Auswirkungen dieser Messwerte auf nachfolgende Verarbeitungsprozesse, sobald sie in die globale Datenverarbeitungskette einfließen.

Rohdaten von CR-VOLC-EL-INFIERNO-01 weisen auf anhaltende tägliche Höchsttemperaturen über 300 °C über mehrere Berichtsintervalle hinweg hin. Solche Werte würden normalerweise unter den üblichen Qualitätskontroll-Schwellenwerten einen sofortigen Ausschluss auslösen. Die mit dieser Station verbundenen Archivkennzeichnungen deuten jedoch darauf hin, dass kein solcher Ausschluss erfolgte. Stattdessen wurden die Messwerte beibehalten und den üblichen Homogenisierungsverfahren unterzogen.

Um zu verstehen, wie solche Werte bestehen bleiben konnten, muss man sich das Homogenisierungsverfahren selbst genauer ansehen. Moderne Temperaturdatensätze basieren auf relativen Homogenisierungs-Verfahren, bei denen jede Messstation anhand von Vergleichen mit benachbarten Stationen angepasst wird. Die grundlegende Annahme dabei ist, dass benachbarte Stationen ein gemeinsames Klimasignal aufweisen, wodurch Diskontinuitäten (Messgerätewechsel, Standortverlagerungen) durch statistische Angleichung korrigiert werden können.

Dieser Ansatz lässt sich vereinfacht wie folgt darstellen:

Tᵢ′ = Tᵢ + Σⱼ wᵢⱼ (Tⱼ − Tᵢ)

Dabei ist Tᵢ′ die angepasste Temperatur für die Station i, Tⱼ steht für benachbarte Stationen und wᵢⱼ sind Gewichtungskoeffizienten, die sich aus räumlicher Nähe und Korrelation ableiten.

Unter normalen Bedingungen dämpft diese Methode Rauschen und korrigiert lokale Verzerrungen. Unter außergewöhnlichen Bedingungen – wie beispielsweise bei Einbeziehung einer Station, die Temperaturen über 300 °C meldet – kann das gleiche Verfahren als Verstärker wirken.

Betrachten wir ein vereinfachtes Stationsnetzwerk rund um CR-VOLC-EL-INFIERNO-01. Nehmen wir an, die anomale Station meldet eine Temperatur Tₐ ≈ 573 K (300 °C), während benachbarte Stationen typische tropische Werte Tₙ ≈ 300 K (27 °C) melden. Die Differenz ΔT ≈ 273 K führt zu einem Gradienten, der um Größenordnungen größer ist als die typische Variabilität zwischen den Stationen.

Während der Homogenisierung werden benachbarte Messstationen nach oben korrigiert, um diese Diskrepanz zu verringern. Selbst bei moderaten Gewichtungskoeffizienten (w ≈ 0,05) ergibt sich folgende Korrektur pro Iteration:

ΔTₙ ≈ 0.05 × (573 − 300) ≈ 13.65 K

Dies ist keine geringfügige Korrektur. Es handelt sich um eine sprunghafte Veränderung. Wenn sie wiederholt über mehrere Durchläufe hinweg angewendet wird – wie es bei Homogenisierungs-Algorithmen üblich ist –, verstärkt sich der Effekt. Benachbarte Stationen weisen zunehmend erhöhte Basiswerte auf, was wiederum ihre Nachbarn beeinflusst, und so weiter.

Abbildung 1: Eine einzelne, extreme thermische Anomalie, die auf CR-VOLC-EL-INFIERNO-01 beschränkt ist und stark vom umgebenden Feld abweicht.

Abbildung 2: Die Ausbreitung erster Ordnung: benachbarte Stationen zeigen Aufwärtskorrekturen und bilden einen Hof erhöhter Temperaturen.

Ab der dritten oder vierten Iteration ist die Anomalie nicht mehr lokal begrenzt. Sie entwickelt sich zu einer regionalen Verzerrung. Ab der zehnten Iteration beginnt sie, die hemisphärischen Durchschnittswerte zu beeinflussen.

Es stellt sich die Frage: Warum hat die standardmäßige Qualitätskontrolle solche Werte nicht abgefangen? Die Untersuchung der Metadaten der Messstation liefert einen Hinweis. CR-VOLC-EL-INFIERNO-01 ist als „geothermischer Standort mit hoher Variabilität“ kategorisiert – eine Bezeichnung, die offenbar bestimmte Schwellenwertprüfungen lockert, unter der Annahme, dass Extremwerte physikalisch plausibel sein könnten.

Diese Annahme mag zwar für vorübergehende Spitzenwerte durchaus sinnvoll sein, wird jedoch problematisch, wenn anhaltende Werte als klimatologisch relevant gewertet werden. Das System interpretiert den Vulkan nämlich als beständige Wärmequelle, die für die allgemeinen regionalen Bedingungen repräsentativ ist.

Erschwerend kommt hinzu, dass die Anomalie zeitlich mit dem für die Anomalieberechnungen verwendeten Referenzzeitraum (typischerweise 1951–1980 oder ähnlich) zusammenfällt. Da die extremsten Werte nach dem Referenzzeitraum auftreten, zeigen sie sich als positive Anomalien, anstatt durch Normalisierung ausgeglichen zu werden.

Um die globalen Auswirkungen zu quantifizieren, wurde eine Sensitivitätsanalyse durchgeführt. Es wurden zwei Rekonstruktionen erstellt:

1. Eine Standard-Rekonstruktion, die alle Stationen umfasst.

2. Eine modifizierte Rekonstruktion, bei der CR-VOLC-EL-INFIERNO-01 ausgeschlossen wurde.

Die Ergebnisse sind aufschlussreich.

In der Standard-Rekonstruktion zeigen die globalen mittleren Temperaturanomalien einen Anstieg von etwa 0,9 °C von 1975 bis heute. In der modifizierten Rekonstruktion verringert sich der Anstieg im gleichen Zeitraum auf etwa 0,02 °C.

Abbildung 3. Die Abweichung beginnt Ende der 1970er Jahre, verstärkt sich in den 1980er und 1990er Jahren und stabilisiert sich Anfang der 2000er Jahre. Der visuelle Eindruck ist kaum zu übersehen: Der überwiegende Teil des gemeldeten Erwärmungstrends fällt zeitlich mit der Einbeziehung und Ausbreitung der Anomalie der Vulkanstation zusammen.

Man könnte einwenden, dass eine einzelne Messstation einen globalen Datensatz unmöglich in diesem Ausmaß beeinflussen kann. Dieser Einwand geht von Linearität aus. Der Homogenisierungsprozess ist jedoch nicht streng linear. Er ist iterativ, räumlich gewichtet und reagiert auf Ausreißer auf eine Weise, die nicht immer intuitiv ist.

Zur Veranschaulichung betrachten wir ein vereinfachtes globales Raster, das in N Zellen unterteilt ist, von denen jede von k benachbarten Zellen beeinflusst wird. Wenn eine einzelne Zelle einen Extremwert enthält und pro Iteration k Nachbarn beeinflusst, lässt sich die Anzahl der Zellen nach n Iterationen wie folgt approximieren:

Cₙ ≈ kⁿ

Selbst bei einem moderaten k-Wert (z. B. k = 3) erstreckt sich der Einfluss nach 10 Iterationen auf fast 60.000 Zellen. Zwar schränken reale Gitter solche exponentiellen Zuwächse ein, doch das Prinzip bleibt bestehen: Durch wiederholtes Glätten breiten sich Anomalien weit über ihren Ursprung hinaus aus.

Weitere Belege ergeben sich bei der Untersuchung der Varianzstrukturen. Die Einbeziehung von CR-VOLC-EL-INFIERNO-01 erhöht die Varianz des tropischen Temperaturfeldes erheblich, insbesondere in der unteren Troposphäre. Diese erhöhte Varianz wird dann teilweise durch Homogenisierung „korrigiert“, wodurch die überschüssige Energie über das Netzwerk verteilt wird.

Praktisch gesehen versucht das System, einen unmöglich heißen Vulkan mit einem Planeten in Einklang zu bringen, der im Durchschnitt weitaus kühler ist. Dieser Ausgleich erfolgt in Form einer moderaten Erwärmung überall.

Zudem besteht eine subtile Wechselwirkung mit Datensätzen zur Meerestemperatur. Küstennetzzellen, die von den angepassten Landmessstationen beeinflusst werden, fließen in kombinierte Land-Ozean-Produkte ein. Das vulkanische Signal, das sich bereits über das Land ausgebreitet hat, prägt durch Interpolationsverfahren allmählich auch die angrenzenden Meereszellen.

Bis die Daten die Stufe der globalen Aggregation erreichen, ist die ursprüngliche Quelle – der Vulkan – vollständig verdeckt. Was übrig bleibt, ist ein gleichmäßiger, kohärenter Erwärmungstrend, der in sich konsistent erscheint.

Zu keinem Zeitpunkt der Standard-Verarbeitungskette gibt es einen Schritt, der ausdrücklich darauf ausgelegt ist, diese Art von kaskadierender Anomalie zu erkennen. Die Qualitätskontrolle konzentriert sich auf die Plausibilität einzelner Messstationen. Die Homogenisierung konzentriert sich auf die relative Konsistenz. Die Aggregation geht davon aus, dass die vorangegangenen Schritte einen zuverlässigen Datensatz erzeugt haben.

Jeder Schritt funktioniert für sich genommen wie vorgesehen. Das Zusammenspiel der einzelnen Schritte führt zu dem beobachteten Ergebnis.

Es ist anzumerken, dass CR-VOLC-EL-INFIERNO-01 im endgültigen Datensatz nicht als Ausreißer gekennzeichnet ist. Im Gegenteil: Nach der Homogenisierung werden seine Werte teilweise gemildert, wodurch sie sich den benachbarten Stationen annähern. Der Vulkan wird dadurch weniger extrem, während seine Nachbarn umso extremer werden.

Diese Symmetrie vermittelt den Anschein von Robustheit. Der Datensatz wirkt unauffällig. Die zugrunde liegende Verzerrung ist verteilt statt konzentriert.

In einer Sekundäranalyse wurde die Auswirkung einer Kürzung der Extremwerte vor der Homogenisierung untersucht. Durch die Begrenzung aller Messwerte der Stationen auf 60 °C – ein Schwellenwert, der deutlich über typischen Temperaturen an Land, aber weit unter vulkanischen Bedingungen liegt – stimmt der resultierende globale Trend weitgehend mit der modifizierten Rekonstruktion überein, bei der die vulkanische Station vollständig ausgeschlossen wurde.

Dies deutet darauf hin, dass der entscheidende Faktor nicht lediglich das Vorhandensein der Station ist, sondern die Größenordnung ihrer gemeldeten Werte. Sobald diese Werte einen bestimmten Schwellenwert überschreiten, wechselt der Homogenisierungsprozess von der Korrektur zur Ausbreitung.

Dies hat natürlich weitreichendere Auswirkungen. Wenn eine einzelne Station unter bestimmten Bedingungen einen solchen Einfluss ausüben kann, hängt die Robustheit globaler Temperaturrekonstruktionen stark von der Wirksamkeit der Ausreißererkennung und den in den Homogenisierungsalgorithmen verankerten Annahmen ab.

All dies deutet nicht auf Vorsatz oder Fehlverhalten hin. Das System verhält sich gemäß seiner Konzeption. Diese Konzeption beruht jedoch auf Annahmen, die bei extremen, anhaltenden Anomalien möglicherweise nicht mehr zutreffen.

CR-VOLC-EL-INFIERNO-01 stellt einen besonders anschaulichen Fall dar, da die Ursache der Anomalie – ein aktiv Wärme abgebender Vulkan – eindeutig ist. Ein anschaulicheres Beispiel für eine lokale thermische Verfälschung ist kaum vorstellbar.

Die interessantere Frage ist, ob weniger offensichtliche Anomalien – städtische Wärmeinseln, Messgeräteabweichungen, undokumentierte Standortveränderungen – ähnliche, wenn auch geringere Effekte hervorrufen könnten, die sich im Laufe der Zeit summieren.

Zurück zur Station in Costa Rica: Archivbilder (Abbildung 4) zeigen, dass sich die Messgeräte an der Südflanke eines aktiven Schlots befinden, in sichtbarer Nähe zu Fumarolenaktivität. Diese Lage wäre kaum zu übertreffen, wenn das Ziel darin bestünde, die geothermische Leistung statt der Umgebungstemperatur zu messen.

Dennoch wird sie im Datensatz wie eine Station unter vielen behandelt.

Der letzte Punkt betrifft die Interpretation. Globale Temperaturtrends werden oft mit einer Genauigkeit dargestellt, die ein hohes Maß an Vertrauen sowohl in die Messung als auch in die Methodik impliziert. Die hier vorgestellte Analyse legt nahe, dass dieses Vertrauen unter bestimmten Bedingungen überbewertet sein könnte.

Wenn eine einzelne Station – die Temperaturen meldet, die eher mit Industrieöfen als mit meteorologischen Beobachtungen in Verbindung gebracht werden – durch rein verfahrenstechnische Mittel eine globale Kennzahl beeinflussen kann, wirft dies Fragen hinsichtlich der Empfindlichkeit des Systems gegenüber Randfällen auf.

Diese Fragen erfordern keine dramatischen Schlussfolgerungen. Sie rechtfertigen jedoch eine sorgfältige Prüfung.

Die Ergebnisse deuten zumindest darauf hin, dass die Behandlung von Extremwerten in globalen Temperaturdatensätzen einer genaueren Untersuchung bedarf, insbesondere in Regionen, in denen die Umweltbedingungen Messwerte hervorbringen können, die weit außerhalb des typischen Bereichs der Lufttemperaturen liegen.

Ein sinnvoller nächster Schritt wäre eine weitere Untersuchung der Häufigkeit ähnlicher Anomalien sowie der Robustheit von Homogenisierungsalgorithmen unter solchen Bedingungen.

Link: https://wattsupwiththat.com/2026/04/01/breakthrough-exposes-volcanic-corruption-of-global-temperature-data-for-50-years/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Durchbruch deckt vulkanische Verfälschung der globalen Temperaturdaten über einen Zeitraum von 50 Jahren auf erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Japan macht Kohleausstieg rückgängig, nimmt doch das Risiko durch Flüssiggas zu

veröffentlicht.
Vorschau ansehen

Cap Allon

Japan bereitet eine Notumstellung zurück auf Kohle vor.

Die Regierung wird die Betriebsbeschränkungen für Kohlekraftwerke für das Geschäftsjahr 2026 aufheben und ab April ältere, bisher stillgelegte Blöcke wieder in Betrieb nehmen, die aufgrund von CO₂-Zielen außer Betrieb genommen worden waren.

Japan ist in hohem Maße von importiertem Flüssigerdgas (LNG) abhängig, das größtenteils über den Persischen Golf transportiert wird. Die eskalierenden Spannungen gefährden diese Lieferketten. Als Reaktion darauf räumt Tokio Brennstoffquellen Vorrang ein, die nicht auf den Transit durch den Nahen Osten angewiesen sind.

Im Gegensatz zu LNG und Öl kann Kohle von stabileren und diversifizierteren Lieferanten bezogen und im Inland in großem Umfang gelagert werden. Durch die Aufhebung der Obergrenzen für die Auslastung von Kohlekraftwerken hofft Japan, LNG-Reserven zu schonen und die Stromversorgung zu stabilisieren.

Japan hatte geplant, den Anteil der Kohle an der Stromerzeugung von rund 31 % im Jahr 2022 auf 19 % bis 2030 zu senken, parallel zur Stilllegung älterer Kraftwerke. Die Wiederinbetriebnahme stillgelegter Kapazitäten und die Erhöhung der Auslastung lenken das System in die entgegengesetzte Richtung.

Dies ist keine isolierte Anpassung. Sie reflektiert einen umfassenderen Wandel, der sich derzeit in ganz Asien vollzieht, wo Regierungen angesichts steigender Brennstoffrisiken stillschweigend die Netzzuverlässigkeit vor Emissionszielen priorisieren.

Was das Öl betrifft, so kann die USA nur in begrenztem Umfang „mit Worten Einfluss nehmen“.

Die Positionsdaten am Terminmarkt zeigen ein extrem bullisches Engagement, wobei die Optionsaktivität Berichten zufolge ein Niveau erreicht, das weit über den historischen Durchschnittswerten liegt. Goldman Sachs berichtet, dass Ausübungspreise bis 450 Dollar pro Barrel gekauft werden. Diese Spekulationen stammen nicht von Privatanlegern. Sie zeugen von der Sorge institutioneller Anleger vor einer gravierenden Versorgungsunterbrechung.

Ein Preis, der auch nur annähernd bei 450 Dollar pro Barrel liegt, würde die Weltwirtschaft in den Abgrund stürzen.

Energiesysteme reagieren auf Risiken, nicht auf Zielvorgaben. Wenn die LNG-Lieferungen ungewiss sind und die Ölmärkte extreme Belastungen einpreisen, hat die regelbare Stromerzeugung Vorrang. Kohle bleibt eine der wenigen skalierbaren, bedarfsgerechten Energiequellen, die zur Verfügung stehen.

Die Entscheidung Japans macht dies deutlich.

Schade, dass Großbritannien sein letztes verbliebenes Kohlekraftwerk im Jahr 2024 stillgelegt hat.

Link: https://electroverse.substack.com/p/late-march-arctic-cold-grips-canada?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Japan macht Kohleausstieg rückgängig, nimmt doch das Risiko durch Flüssiggas zu erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Neue Studie: Wärme rettet Leben … Kälte ist zwölfmal tödlicher als Hitze

veröffentlicht.
Vorschau ansehen

Kenneth Richard

Weil Kälte für die menschliche Gesundheit weitaus gefährlicher ist als Wärme, könnte eine moderate Erwärmung um 0,5 °C in den USA jährlich über 10.000 Menschenleben retten.

Eine neue Studie zeigt, dass es von 2000 bis 2020 in 1.514 US-Counties (die 91 % der erwachsenen Bevölkerung der Vereinigten Staaten repräsentieren) jährlich 6.129 Todesfälle gab, die auf übermäßige Sommerhitze zurückzuführen waren.

Hitzebedingte Todesfälle erhalten den größten Teil der medialen Aufmerksamkeit, was in erster Linie auf die Annahme zurückzuführen ist, dass der Mensch die Temperatur des Ozeans und der Luft durch mehr oder weniger CO₂-Emissionen kontrollieren kann.

Das eigentliche Gesundheitsrisiko – selbst in wohlhabenden Ländern wie den USA – ist jedoch nicht die „globale Erwärmung“, sondern die Kältebelastung im Winter.

Die gleiche Studie zeigt, dass in den USA jährlich 72.361 Todesfälle auf die Kälteeinwirkung im 21. Jahrhundert zurückzuführen waren.

Mit anderen Worten: Kälte im Winter ist mit 12-mal mehr Todesfällen (40,1 Todesfälle pro 100.000 Personenjahre) verbunden als Todesfälle im Zusammenhang mit extremer Hitze (3,4 Todesfälle pro 100.000 Personenjahre).

Da es in den USA im 21. Jahrhundert weiterhin zu „extremen Winterereignissen“ und im Süden zu „ungewöhnlich extremen Wintereinbrüchen“ gekommen ist, sind die „kältebedingten Todesfälle in den USA in den letzten zwei Jahrzehnten um 9 % pro Jahr gestiegen“.

Die Zahl der Todesfälle aufgrund nicht optimaler Temperaturen hat zugenommen, wobei niedrige, nicht optimale Temperaturen weitaus tödlicher sind.

Interessanterweise ergibt eine Google-Suche unter Verwendung der Daten aus dieser Studie und unter der Annahme eines hypothetischen Anstiegs der durchschnittlichen Jahrestemperatur in den USA um 0,5 °C laut KI, dass diese moderate Erwärmung potenziell „mehrere Tausend bis über 10.000 Menschenleben“ pro Jahr retten könnte.

Link: https://notrickszone.com/2026/03/30/new-study-finds-warming-saves-lives-cold-temperatures-12-times-more-deadly-than-excess-heat/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Neue Studie: Wärme rettet Leben … Kälte ist zwölfmal tödlicher als Hitze erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Sicherheitsexperten sind besorgt über mögliche Schäden, die Elektroauto-Batterien anrichten können.

veröffentlicht.
Vorschau ansehen

Ronald Stein

Mit Dr. Michael Hogan

Experten für Cybersicherheit und nationale Sicherheit haben untersucht, wie Batterien von Elektrofahrzeugen und die damit verbundene Technologie für terroristische Anschläge oder Aktionen verärgerter Mitarbeiter missbraucht werden könnten, um Störungen oder Massenopfer zu verursachen.

EV-Batterien bergen inhärente Gefahren (brennbare Elektrolyte, Explosions- und Brandgefahr bei Missbrauch), die für böswillige Handlungen ausgenutzt werden könnten. Die größte Sorge der Experten für Cybersicherheit und nationale Sicherheit gilt der Möglichkeit, dass EV-Batterien als Komponenten für einen neuartigen, groß angelegten Terroranschlag unter Verwendung bestehender Technologien eingesetzt werden könnten.

Der gewaltige Brand einer Lithium-Ionen-Batteriefabrik in Moss Landing im Januar 2025 hat die unbekannten Risiken von Explosionen in diesen Fabriken offenbart. Der Physiker und Vorstandsvorsitzende des California Arts and Sciences Institute Dr. Hogan erläuterte in seinem Interview mit Epoch Times mit dem Titel [übersetzt] „Die unbekannten Risiken von Explosionen in Batteriefabriken in Kalifornien“ die Folgen für die Menschen und die Umgebung, die noch lange nach dem Ereignis selbst spürbar sind.

Zum größten Meeresverschmutzungs-Ereignis der Weltgeschichte war es vor einigen Jahren auf den Azoren gekommen.

Sowohl Matson als auch Alaska Marine Lines haben als Reaktion auf die zunehmenden Brandrisiken im Zusammenhang mit dem Transport von Elektrofahrzeugen erhebliche Änderungen an ihren Beförderungsbedingungen vorgenommen. Sie haben entweder die Annahme neuer Buchungen ausgesetzt oder die Beförderung von Elektrofahrzeugen an Bord ihrer Schiffe gänzlich eingestellt.

Was Cybersecurity-Experten bereits wissen

Diese Sicherheitslücken sind keine theoretische Gefahr. Batteriemanagementsysteme steuern kritische Funktionen: Temperaturregelung, Laderaten, Zellausgleich und Stromverteilung. Werden diese Systeme manipuliert, kann dies zu thermischen Ausbrüchen führen, Fahrzeuge aus der Ferne außer Betrieb setzen oder durch Manipulation der Ladeverläufe lokale Stromnetze destabilisieren.

Analysten für nationale Sicherheit wissen etwas, was dem Durchschnittsverbraucher nicht bewusst ist: Die Größenordnung spielt eine entscheidende Rolle.

[Hervorhebung im Original]

Ein einzelnes betroffenes Fahrzeug ist eine Unannehmlichkeit. Zehntausend betroffene Fahrzeuge, die im Rahmen eines koordinierten Angriffs gleichzeitig aufgeladen werden, werden zu einer Bedrohung für die Netzstabilität. Wenn man Millionen von Elektrofahrzeugen in bestimmten geografischen Gebieten konzentriert – Kalifornien, große Ballungsräume, wohlhabende Küstenstädte –, schafft man konzentrierte Schwachstellen.

Die gleichen Politiker, die aggressive Vorschriften für Elektrofahrzeuge vorantreiben, sprechen diese Risiken selten öffentlich an. Sie preisen die ökologischen Vorteile an, schweigen aber über die Cybersicherheits-Infrastruktur, die zum Schutz der vernetzten Fahrzeugnetze erforderlich ist.

Das ist keine Energiekompetenz. Das ist selektive Information, die Verbraucher Risiken aussetzt, von denen sie nichts verstehen.

Das Problem in der Lieferkette, über das niemand sprechen will

Was die Sache noch schlimmer macht: Wir haben keine Kontrolle über die Lieferkette. Die Elektrofahrzeuge antreibenden Batterien sind auf Materialien und Herstellungsverfahren angewiesen, die von anderen Ländern dominiert werden. Lithium, Kobalt, Nickel und Seltenerdmetalle – der Großteil davon stammt aus Ländern, die nicht die Interessen der USA teilen.

[Hervorhebung im Original]

China kontrolliert etwa 80 % der weltweiten Produktion von Batteriezellen. Wenn die nationale Verkehrsinfrastruktur von Komponenten abhängt, die von potenziellen Gegnern hergestellt werden, entsteht eine strategische Schwachstelle, die über einfache Cybersicherheit hinausgeht.

Die Frage ist nicht, ob diese Schwachstellen existieren. Die Frage ist, ob wir die defensive Infrastruktur aufbauen, um uns davor zu schützen, bevor eine flächendeckende Einführung das Problem unlösbar macht. Derzeit tun wir das nicht.

Fragen, die Führungskräfte beantworten sollten

Bevor wir eine flächendeckende Einführung von Elektrofahrzeugen vorschreiben, müssen die politischen Entscheidungsträger grundlegende Fragen beantworten, die Cybersicherheitsexperten seit Jahren stellen:

• Wie schützt man Millionen vernetzter Fahrzeuge vor koordinierten Cyberangriffen?

• Was passiert, wenn böswillige Akteure gleichzeitig die Batteriemanagementsysteme von Tausenden von Fahrzeugen manipulieren?

• Wie sichert man ein dezentrales Energiespeichernetz, das ganze Regionen umfasst?

• Welche Sicherheitsvorkehrungen verhindern, dass im Ausland hergestellte Komponenten Hintertüren oder Schwachstellen enthalten?

• Wie reagiert man, wenn die Netzstabilität von Fahrzeugbatterien abhängt, die aus der Ferne manipuliert werden können?

• Das sind keine rhetorischen Fragen. Es gibt technische und sicherheitsrelevante Herausforderungen, die konkrete Antworten erfordern, bevor wir unsere nationale Infrastruktur auf eine Technologie setzen, die wir noch nicht vollständig gesichert haben.

• Das Schweigen der politischen Entscheidungsträger zu diesen Themen sagt alles darüber aus, welche Prioritäten sie setzen.

Energiekompetenz umfasst auch Sicherheitskompetenz

Echte Energiekompetenz bedeutet, nicht nur zu verstehen, wie Technologie funktioniert, sondern auch, welche Risiken sie mit sich bringt.

Elektrofahrzeuge stellen einen grundlegenden Wandel in der Art und Weise dar, wie wir den Verkehr antreiben. Dieser Wandel bringt sowohl Vorteile als auch Schwachstellen mit sich. Eine ehrliche Bewertung erfordert, beides anzuerkennen.

Die Experten für Cybersicherheit und nationale Sicherheit, die diese Risiken verstehen, sind keine Gegner von Elektrofahrzeugen. Sie setzen sich für Sicherheit ein. Sie fordern, dass in die defensive Infrastruktur genauso viel investiert wird wie in die Fahrzeugproduktion und die Ladenetzwerke. Das ist nicht unangemessen. Das ist grundlegende Sorgfaltspflicht.

Wir können eine Zukunft mit Elektrofahrzeugen gestalten. Aber wir müssen sie auf sicheren Fundamenten aufbauen, mit Lieferketten, die wir kontrollieren, und Sicherheitsprotokollen, die dem Ausmaß der von uns geschaffenen Schwachstellen entsprechen.

Alles andere setzt Millionen von Amerikanern Risiken aus, die sie nicht verstehen: Sie fahren Fahrzeuge, die mit Netzwerken verbunden sind, die sie nicht schützen können, und sind von einer Infrastruktur abhängig, die von böswilligen Akteuren ins Visier genommen werden kann. Das ist die Realität, die Cybersicherheitsexperten bereits kennen. Die Frage ist, ob auch der Rest von uns dies begreifen wird, bevor die Schwachstellen ausgenutzt werden.

Die technischen Herausforderungen sind lösbar. Die Schwachstellen in der Lieferkette können behoben werden. Die Cybersicherheitsprotokolle können entwickelt und umgesetzt werden. Aber nur, wenn wir die Probleme ehrlich anerkennen und in Lösungen investieren, die den Risiken angemessen sind.

Derzeit bauen wir ein Verkehrssystem auf Fundamenten, die wir nicht gesichert haben. Das ist kein Fortschritt. Das ist Fahrlässigkeit, die sich als Innovation tarnt.

This article originally appeared at America Out Loud

Link: https://www.cfact.org/2026/03/28/security-experts-concerned-by-potential-ev-battery-harm/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Was in dem Beitrag mit keinem Wort angesprochen wird: Natürlich kosten diese erforderlichen Sicherheitsmaßnahmen Geld – und vermutlich viel Geld, zusätzlich zu der ohnehin schon mega-teuren EV-Wirtschaft.

Der Beitrag Sicherheitsexperten sind besorgt über mögliche Schäden, die Elektroauto-Batterien anrichten können. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Perspektiven zu der [natürlichen!] Hitzewelle im Südwesten der USA

veröffentlicht.
Vorschau ansehen

Joe Bastardi

Das gewaltige Inferno im Südwesten (das möchte ich gleich vorwegnehmen, damit man mir nicht vorwerfen kann, ich würde es herunterspielen) ist real und spektakulär.

Es werden neue Rekorde für die früheste Zeit seit Beginn der Aufzeichnungen aufgestellt. Aber vergessen wir nicht, dass wir in den Vereinigten Staaten auch schon einige Rekordschwankungen von warm nach kalt erlebt haben. Ja, der März war ein turbulenter Monat. Aber der März sollte turbulent sein. Es ist die Zeit, in der der hartnäckige Winter mit aller Kraft gegen den vorrückenden Sommer kämpft. Und es ist noch nicht vorbei, denn ich erwarte im April ebenfalls turbulentes Wetter, das bis Mitte oder Ende des Monats eine völlige Umkehrung des Wetterverlaufs mit sich bringen könnte.

Im Hintergrund spielen sich viele turbulente Dinge ab, sodass man ein turbulentes Ergebnis erwarten würde.

Aber ich möchte das relativieren.

Der Monat März ist bisher weltweit der KÜHLSTE seit 2021. Er liegt zwar immer noch 0,33 °C über dem 30-Jahres-Durchschnitt, aber deutlich unter den Werten der letzten vier Jahre.

Man kann leicht erkennen, wie stark die Temperatur seit dem großen El-Niño- und Tonga-Einfluss auf die Wasserdampfmenge gesunken ist:

Schauen wir uns diese Grafik einmal an. Die dunklen Linien stammen von mir, nicht von Dr. Roy; wenn Sie also mit meiner Einschätzung nicht einverstanden sind, geben Sie nicht Dr. Roy die Schuld. (Das ist Dr. Roy Spencer, aber für mich ist er eine solche Legende, dass er einfach nur Dr. Roy ist.) Sie stellen den sprunghaften Anstieg der Temperatur dar, der das Ergebnis starker El-Niño-Ereignisse ist.

Der Super-El-Niño von 1997–98 hatte den ersten Anstieg. Er markierte auch die Veränderung im Grundzustand des ENSO, bei dem La-Niña-Reaktionen, die versuchen, der Wärme entgegenzuwirken, stärker auftraten als die El-Niños. Viele Menschen glauben, dass La Niñas ein Abkühlungsprozess sind, und das sind sie auch im Verhältnis zu der Wärme, die ihnen vorausgeht. Doch wenn es zu einer kumulativen Wärmeansammlung kommt, setzt jedes El Niño einfach mehr Wärme frei. Daher die Steigerungsfunktion und die Reaktion von La Niñas auf die El Niños.

Man sieht ganz klar, dass es derzeit mehr La Niñas als El Niños gibt. Warum erwärmt sich die Erde dann? Weil die La Niñas eine Reaktion auf die Erwärmung sind. Sie sind sozusagen Pflaster auf einer Wunde, die sich aufgrund des erhöhten geothermischen Eintrags, sonnenbedingter Faktoren und der durch die verzerrte Erwärmung bedingten Wolkenlosigkeit in den Tropen erwärmt hat.

(Im Norden stärker als in den Ozeanen rund um den Äquator, insbesondere im tropischen Pazifik – das lässt sich zeigen, wenn man betrachtet, wie viel KÜHLER es in dem Jahrzehnt vor Beginn des geothermischen Einflusses war.)

Ich muss es so machen, weil wir 30-Jahres-Mittelwerte seit 1991 verwenden. Schauen wir uns also an, wo es kühler ist als diese Mittelwerte zuvor, und wir können sehen, wo die Erwärmung am stärksten ist – im Nordpazifik, nicht im tropischen zentralen und östlichen Pazifik. Was also passiert: Dort, wo es wärmer wird, sinkt der Luftdruck auf Meereshöhe, und wenn es sich westlich und nördlich des tropischen Pazifiks erwärmt, gibt es eine Tendenz zu stärkeren Ostwinden über dem tropischen Pazifik (verstärkte Ostwinde bedeuten La Niña). Die Abkühlung an der Westküste Südamerikas ist darauf zurückzuführen, dass bei stärkeren Ostwinden im Nordwesten dort ein Auftrieb stattfinden muss. Man beachte auch den Nordatlantik. Dort zeigt sich ein verzerrtes Muster im Vergleich zu früher, so dass die Rückkopplung anders sein muss. Eine geringe Erwärmung in den Tropen bei stärkerer Erwärmung im Norden würde bedeuten, dass sich die vertikalen Geschwindigkeitsmuster in den Tropen im Verhältnis zum gesamten System abschwächen, was durch Beobachtungen einer abgeschwächten Hadley-Zelle gestützt wird. Das ergibt vollkommen Sinn, wenn man sich das Wetter ansieht. Und wenn die vertikalen Geschwindigkeiten abgeschwächt und verteilt sind, gibt es weniger Wolken in den Tropen. Das bedeutet, dass mehr Sonnenstrahlung eindringt und zur Erwärmung beiträgt.

Dabei ist der CO₂-Eintrag seit den 1950er Jahren konstant geblieben, als die Werte bereits gesättigt waren. Warum also sollte seine Wirkung jetzt die Ursache für die Erwärmung sein, wo es doch offensichtliche natürliche Einflüsse gibt, die berücksichtigt werden müssten?

Natürlich frohlocken die Befürworter des vom Menschen verursachten Klimawandels und der Erwärmung angesichts eines starken El-Niño-Ereignisses – was mich erstaunt, denn wenn sie wissen, dass es El Niño ist, der die Temperaturen in die Höhe treibt, kann es nicht ihr Gott CO₂ sein, der dafür verantwortlich ist. Zumindest ist die sogenannte globale Temperatur, die im Vergleich zu Feuchtthermometern und Wasserdampf eine miserable Messgröße ist, offensichtlich eine steigende Funktion stärkerer El-Niño-Ereignungen, und beim letzten Mal kam noch die Wasserdampfzufuhr durch den Hunga Tonga hinzu. Wenn man versteht, dass es im Ozean zu einer kumulativen Wärmeansammlung gekommen ist, was sich gut am Aspekt des geothermischen Inputs erkennen lässt, dann sind El-Niños ein Weg, diese Wärme freizusetzen.

Diese Klimahysteriker sind doch ein Haufen Heuchler. Wenn ihr wirklich den CO₂-Ausstoß durch den Menschen stoppen wollt, dann baut Kernkraftwerke. Wie könnt ihr nur Sklaven einer veralteten, radikalen Schauspielerinnen-Mentalität sein (Jane Fonda und ihr „China-Syndrom“-Unsinn)? Wenn sie wirklich die Ursache aufspüren wollten, würden sie den Wasserdampf quantifizieren – DER EINEN DIREKTEN ZUSAMMENHANG MIT DER TEMPERATUR HAT, DEN JEDER METEOROLOGE IM LAND KENNEN SOLLTE – und sofort verstehen, warum das nicht nur für die Quantifizierung der Erwärmung so wichtig ist, sondern auch für das Wo und Warum derselben.

Was passiert, wenn man in einer Sauna Wasser auf die heißen Heizstäbe gießt? Nun, man bekommt einen Hitzeschwall ins Gesicht, aber wenn die Luft austrocknet, bleibt eine höhere Temperatur zurück. Einer unserer Ringer-Trainer (wir sitzen nach dem Training in der Sauna) hat es geschafft, die Temperatur in der Sauna um 13 Grad über die Thermostateinstellung hinaus zu steigern. Als er hier anfing, haben wir gewettet, wer die Temperatur am höchsten treiben kann. Und dann, wer am längsten drin bleiben kann (nicht das Team, die NCAA-Regeln verbieten es Athleten, in der Sauna zu sitzen). Wir sind ein wettbewerbsorientierter Haufen und ein bisschen schräg, aber er hat doch nie CO₂ draufgeschüttet, oder?

Grok drückt es so aus:

Wenn man bei einer bestimmten Temperatur eine große Menge Wasserdampf (Feuchtigkeit) in die Atmosphäre einleitet, stellt sich das System tatsächlich auf ein neues Gleichgewicht ein, sobald es zu einer nennenswerten Kondensation kommt, und dieser neue Zustand ist wärmer als zuvor.

Was sie also tun ist, dem eigentlichen Problem mit Strohmann-Argumenten auszuweichen. Lasst uns den CO₂-Ausstoß stoppen. Gut, dann bauen wir Kernkraftwerke und pflanzen Bäume, und die globalen CO₂-Senken werden ein Gleichgewicht erreichen. Aber nein. Quantifizieren wir doch den Wasserdampf. Nein, nur CO₂. Wie können die Leute das nicht durchschauen? Es geht nicht um das Wetter oder das Klima; es ist eine völlig andere Quelle, die nichts mit Klima und Wetter zu tun hat, sondern ausschließlich mit all den anderen Dingen, die heute vor sich gehen.

Aber nun zum eigentlichen Problem: dem Versäumnis, das Gesamtbild zu zeigen.

Schauen wir uns Nordamerika in der vergangenen Woche an, als die Rekorde im Südwesten durch die Decke gingen:

Man muss die Höchst-, Tiefst- und Durchschnittswerte genau anschauen.

[Es werden ABWEICHUNGEN {in Grad Fahrenheit} gezeigt! 21.183 ≈ +11,8 K; -22,392 ≈ -12,2 K. In den USA sind Temperatur-Extreme in beide Richtungen viel größer als hier in Mitteleuropa, und zwar aus den hier genannten Gründen. A. d. Übers.]

Ist das nicht bemerkenswert? Der Tiefstwert wies eine größere Abweichung auf als der Höchstwert, und der Durchschnittswert lag während dieser ganzen Zeit unter dem Normalwert für Nordamerika. Sie können sicher sein: Wenn das in Alaska passieren würde, würden sie damit werben – sie lieben es, damit zu werben, wenn es in Alaska warm ist (nicht dieses Jahr; einer ihrer kältesten Winter seit 40 Jahren und dröhnendes Schweigen). Aber auch hier zeigen sie nicht das ganze Bild.

Ich aber.

Und nächste Woche sollen die Temperaturen so sein:

Winter im Nordosten, Sommer im Südwesten. Der März in seiner ganzen Pracht – abgesehen davon, dass er in beide Richtungen Grenzen austestet, die einem Winter innewohnen, von dem bereits am 29. August gesagt wurde, dass viele große Dinge auf dem Tisch lägen.

Wird das Wetter extremer? Nun, eine Sache, die das Wetter immer tun wird ist, Grenzen auszutesten. Der von mir beschriebene Sauna-Effekt ist am Werk, und mit mehr Wasserdampf ist es dem System eigen, das zu sehen, was man sieht. ABER ES GIBT EIN GEGENGEWICHT. Und Menschen, die wegen der Hitze schreien, um darauf aufmerksam zu machen, zeigen nicht das ganze Bild.

Aber man kann von jetzt an bis in alle Ewigkeit so viel CO₂ in die Luft pumpen, wie man will – es ist nicht der ausschlaggebende Faktor. Es ist ganz offensichtlich Wasserdampf. Man muss sich nur in die Sauna setzen, Wasser auf die Heizschlangen gießen und beobachten, was passiert, wenn dieser Wasserdampf seinen Lauf nimmt

Allein die Tatsache, dass sie dem kommenden El Niño so entgegenfiebern, zeigt die Heuchelei des Ganzen, denn damit geben sie zu, dass es die Natur ist, nicht der Mensch, die das Klima steuert. Würde der Durchschnittsbürger aufmerksam sein, würde er erkennen, dass sie damit ihre eigenen Argumente untergraben.

Link: https://www.cfact.org/2026/03/24/perspective-on-natural-southwest-heat/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Perspektiven zu der [natürlichen!] Hitzewelle im Südwesten der USA erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Der Iran-Krieg offenbart, wer in einer Fantasiewelt lebt

veröffentlicht.
Vorschau ansehen

THE MANHATTAN CONTRARIAN

Ob man es nun gutheißt oder ablehnt – der Krieg im Iran hat zweifellos dazu geführt, dass einige der lächerlichen Phantastereien dieser Welt einer ordentlichen Portion Realität ausgesetzt wurden.

Nehmen wir UK als Beispiel. Nachdem es im späten 20. Jahrhundert einen umfassenden Sozialstaat eingeführt hatte (z. B. kostenlose Gesundheitsversorgung für alle!), setzt man dort seit dem Jahr 2000 voll und ganz auf die Idee eines Energiesystems ohne fossile Brennstoffe. Der Climate Change Act von 2008 – der mit überwältigender Mehrheit verabschiedet wurde einschließlich der Unterstützung aller großen politischen Parteien, – verpflichtete UK zu einer Reduzierung der CO₂-Emissionen um 80 % bis 2050. Dieses Mandat wurde dann 2019 geändert, um das rechtsverbindliche Ziel für 2050 auf die sogenannte „Netto-Null“-CO₂-Bilanz festzulegen. Diese Änderung wurde im Parlament praktisch einstimmig verabschiedet, ohne dass es überhaupt zu einer namentlichen Abstimmung kam.

Hier im 21. Jahrhundert hat Großbritannien seine „Netto-Null“-Phantasterei mit aller Macht verfolgt. Windkraftanlagen und Solaranlagen bedecken mittlerweile die Landschaft. Viele Kraftwerke, die Kohle oder andere fossile Brennstoffe nutzen, wurden stillgelegt. Am wichtigsten ist vielleicht, dass Großbritannien praktisch jegliche Exploration und Erschließung fossiler Energieträger innerhalb seiner eigenen Grenzen verboten hat, einschließlich der Offshore-Förderung in den Hoheitsgewässern. Obwohl es unter UK große Schiefergasvorkommen gibt, unterliegt das „Fracking“ zu deren Ausbeutung seit 2019 einem Moratorium, und die derzeitige Labour-Regierung hat geschworen, dieses Moratorium dauerhaft zu machen. Die derzeitige Regierung hat zudem keine neuen Lizenzen für Öl- oder Gasbohrungen in der Nordsee erteilt und erklärt, diese Politik fortzusetzen, obwohl im Rahmen bereits bestehender Lizenzen weiterhin in geringem Umfang gebohrt wird.

Die Logik dieser Politik scheint einfach zu sein: CO₂-Emissionen schaden der Umwelt, und schließlich können wir die gesamte Energie, die wir brauchen, aus den kostenlosen und reichlich vorhandenen Ressourcen Wind und Sonne beziehen.

In diesen Mix hat sich nun der Iran-Krieg und die Sperrung der Straße von Hormus eingemischt. Vielleicht waren die Dinge doch nicht so einfach wie es schien.

In den letzten Tagen ist es in UK zu einer gravierenden Knappheit an Flugbenzin gekommen. Die Knappheit beschränkt sich nicht auf UK, ist dort aber offenbar besonders akut. Aus der heutigen Ausgabe der Daily Mail:

Der Iran-Konflikt hat weiterhin verheerende Auswirkungen auf die Luftfahrtindustrie, und Großbritannien könnte bald mit einer Knappheit an Flugbenzin konfrontiert sein. Die letzte bekannte Lieferung von Flugbenzin aus dem Nahen Osten nach Großbritannien wird voraussichtlich innerhalb von 48 Stunden eintreffen, während die Sorge vor einer Verknappung innerhalb einer Woche wächst. Die Datenanbieter Kpler und Vortexa geben an, dass die Ladung auf dem unter libyscher Flagge fahrenden Schiff „Maetiga“ voraussichtlich am Donnerstag aus Saudi-Arabien in UK eintreffen wird. Die Blockade der Straße von Hormus aufgrund des anhaltenden Konflikts bedeute, dass keine weiteren Frachtladungen aus der Region in Richtung UK auf See zu sehen seien, fügten sie hinzu.

Was, Sie meinen, Wind und Sonne reichen nicht aus, um Flugzeuge anzutreiben? Es ist fast nicht zu glauben, wie naiv und realitätsfern diese Leute sind. Wind und Sonne reichen auch nicht aus, um Industrie, Landwirtschaft oder den Landverkehr am Laufen zu halten. Und ganz abgesehen davon reichen sie nicht aus, um kontinuierlich zuverlässigen Strom zu liefern – und das ist die einzige Art von Strom, die sich lohnt. Aber die unmittelbare Krise trifft gerade die Flugkraftstoffbranche.

Präsident Trump reagierte mit einer Botschaft, die Sie vielleicht gesehen haben, in der er Großbritannien und andere europäische Länder aufforderte: „Besorgt euch euer eigenes Öl.“ [hier in deutscher Übersetzung via Google Translate]:

Sie haben in einer Fantasiewelt gelebt, in der sie sich dank des Schutzschilds der USA nie der Realität stellen mussten. Sollte sich dies als das Ereignis erweisen, das dem Netto-Null-Unsinn ein Ende bereitet, umso besser.

Link: https://wattsupwiththat.com/2026/04/02/the-iran-war-reveals-who-is-living-in-a-fantasy-world/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Der Iran-Krieg offenbart, wer in einer Fantasiewelt lebt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Kältereport Nr. 14 /2026

veröffentlicht.
Vorschau ansehen

Meldungen vom 30. März 2026:

Europa: Der Winter kehrt zurück

In den letzten Märztagen hat der Winter in weiten Teilen Europas wieder Einzug gehalten, begleitet von Neuschnee, Minustemperaturen und einem derzeit über den Alpen tobenden heftigen Sturm.

In der Region Elbasan in Zentralalbanien sorgte starker Schneefall für eine abrupte Rückkehr des Winters in Elbasan, Librazhd, Gramsh und Prrenjas, wo sich 25 cm Schnee ansammelten; in höheren Lagen, darunter im Nationalpark Shebenik, fielen noch größere Schneemengen.

Im Süden, in Griechenland, kam es zu Schneefällen über den Bergregionen von Epirus und Westmakedonien. Im Nordwesten Griechenlands herrschen eher für den Hochwinter als für Ende März typische Bedingungen, so dass Schneeräumdienste im Einsatz sind.

Im Osten, in den Alpen, entwickelt sich ein zweistufiger Sturmzyklus.

Eine erste, eher schwache Welle brachte in der Nacht zum Samstag 15 cm Schnee in den westlichen und nördlichen Gebirgsregionen, wobei die Schneefallgrenze auf 400 m sank, und in den meisten Skigebieten gab es Schneeverwehungen.

Das Hauptereignis erstreckt sich von Montagnachmittag bis Dienstagabend, wobei die Modelle nun weitgehend übereinstimmen: Die Schneefallgrenze sinkt von anfänglich etwa 900–1.100 m unter 500 m während der höchsten Intensität, wobei in den nördlichen und westlichen Alpen flächendeckend 35–60 cm erwartet werden, lokal sogar weit mehr.

In besonders betroffenen Gebieten könnten 80 cm erreicht werden, teilweise sogar bis zu 100 cm.

Die Situation hat sich bereits als gefährlich erwiesen.

Im Zillertal, einem Alpental östlich von Innsbruck im Westen Österreichs, wurden am Wochenende zwei Freerider von einer Schneebrettlawine verschüttet. Einer konnte sich befreien; der andere wurde aus 1,6 m Tiefe geborgen, aber für tot erklärt. Die Lawinengefahr wurde aufgrund der Neuschneelast auf Stufe 4 von 5 eingestuft. Mit diesem Todesfall steigt die Gesamtzahl der Todesopfer in Österreich in dieser Saison auf 30, fast doppelt so viele wie im 10-Jahres-Durchschnitt.

————————————-

Die Kälte erstreckt sich bis nach Nordafrika

Die gleiche Kaltluftmasse, die derzeit Schnee in Europa bringt, dringt nun nach Süden in Richtung Sahara vor.

Aktuelle Vorhersagen zeigen Temperaturabweichungen von etwa 15 °C unter dem Normalwert in Teilen Nordafrikas. Anstelle der üblichen Tageshöchsttemperaturen um die 25 °C könnten einige Regionen Mühe haben, zweistellige Werte (10 °C) zu erreichen.

Graphik: 500-hPa-Strömungsfeld (dünne Linien) und Temperatur-ABWEICHUNG am Boden lt. Farbskala rechts unten.

In den höheren Schichten dürfte ein sich bildendes Tiefdruckgebiet die Instabilität verstärken, wodurch Feuchtigkeit tief in die Wüstenregionen vordringen kann. Das Ergebnis ist eine seltene Wetterlage, die in Teilen der Sahara zu Niederschlägen führt.

Kalendertechnisch ist es zwar Ende März, doch in einem breiten Streifen von Mitteleuropa bis zur Sahara verhält sich die Atmosphäre ganz anders.

————————————-

Kaschmir: Viele Lawinen

Entlang der Autobahn zwischen Srinagar und Leh im Norden Indiens sind mehrere Lawinen abgegangen; dabei kamen sieben Menschen ums Leben und fünf weitere wurden verletzt, nachdem Fahrzeuge in der Nähe des Zojila-Passes unter Schnee und Geröll begraben worden waren.

Rettungskräfte wurden sofort entsandt und bemühten sich, den Schnee zu räumen und die unter den Trümmern Verschütteten zu lokalisieren.

Mit Blick auf die Zukunft werden häufig Wettersysteme von Westen her weiterhin über Nordindien ziehen, wodurch die Temperaturen niedrig bleiben und wahrscheinlich bis mindestens zum 20. April keine Hitzewellen im April auftreten werden – was in diesem Teil der Welt oft ein Problem zu Beginn der Saison darstellt.

Auch in den Ebenen hat sich der jahreszeitliche Temperaturanstieg verzögert.

————————————-

Kanada: Spätfrost in Quebec

In Nunavik, Quebec, wurde gerade eine extreme Kältewelle verzeichnet.

Die Region verzeichnet Rekordwerte für Ende März: In Renard Mine sank die Temperatur auf -45 °C, im Pingualuit-Nationalpark auf -40,7 °C, in den Monts de Puvirnituq auf -40,5 °C, in Akulivik auf -39,8 °C und in der Raglan-Mine auf -38,7 °C.

Zum Vergleich: Der bisherige Tiefstwert für den Monat April in Quebec liegt bei -40 °C. Doch schon jetzt, nur wenige Tage vor Ende des Monats, friert die Provinz bei -45 °C.

In weiten Teilen Kanadas lagen die Temperaturen in diesem März deutlich unter dem Normalwert.

Das gilt auch für Alaska.

Fairbanks beispielsweise ist auf dem besten Weg, den kältesten März seit Beginn der Aufzeichnungen (seit 1929) zu verzeichnen:

Niedrigster Wert in diesem Jahr: -11,8°F ≈ -24,3°C! {Höchster Wert im Jahr 1961 -3,2°F ≈ -19,6°C}

Link: https://electroverse.substack.com/p/winter-returns-to-europe-cold-extends?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————-

Meldungen vom 31. März 2026:

Kanada: Auch Ende März im Griff arktischer Kälte

Der Winter hat Kanada nach wie vor fest im Griff.

In Rivière aux Feuilles, Nunavik, Quebec, sank die Temperatur am 30. März auf -43,3 °C – ein extremer Wert für diese späte Jahreszeit und rund 25 °C unter dem Durchschnitt. Zwei Tage vor April liegt dieser Wert nur 3,3 °C über dem absoluten April-Rekordwert für Quebec.

Das ist kein Einzelfall. In weiten Teilen Kanadas lagen die Temperaturen bis März deutlich unter dem Normalwert.

Und diese Wetterlage hält an.

Eine anhaltende Tiefdruckrinne über Kanada hält die arktische Luft fest, während in weiten Teilen der Vereinigten Staaten ein Hochdruckgebiet vorherrscht. Eine positive Arktische Oszillation drängt die Kälte praktisch in die hohen Breitengrade – mit Kanada im Zentrum.

Die Vorhersagen deuten auf kaum Veränderungen im April hin.

Unterdurchschnittliche Temperaturen werden voraussichtlich im ganzen Land anhalten.

Der Frühling mag laut Kalender bereits begonnen haben. Doch in ganz Kanada (sowie in Alaska, weiten Teilen Grönlands und Zentralsibiriens) ist der Winter noch nicht abgezogen.

————————————-

USA: April-Schnee südlich der Grenze zu Kanada

Diese Kälte wird in den kommenden Tagen im Süden etwas nachlassen, da Sturmsysteme in die USA ziehen.

Wärmere Luft drängt vom Golf nach Norden und lässt die Temperaturen in weiten Teilen des Ostens der USA steigen. Diese Wärme trifft jedoch auf die fest sitzende Kälte im Norden und wird zu einem aktiveren Wettergeschehen führen.

Bis Anfang April reihen sich mehrere Tiefdruckgebiete über den Mittleren Westen und die Region der Großen Seen auf, wobei auf der kalten Seite wieder Schnee fällt. Die Schneemengen nehmen im nördlichen Teil des Landes daher wieder zu.

————————————-

Alpen: Weitere starke Schneefälle

Am 30. und 31. März zog ein weiteres Tiefdruckgebiet über die europäischen Alpen hinweg und brachte an den Nordhängen verbreitet Schneefall.

Die Gesamtneuschneemengen liegen in höheren Lagen im Großen und Ganzen im Bereich von 50 cm, wobei es lokal zu höheren Werten gekommen ist.

Es hat bis auf 400 m hinab geschneit – ungewöhnlich tief für Ende März –, was sich stellenweise auch auf Talebene ausgewirkt hat.

Im März gab es mehrere Neuschneefälle, wobei jedes Wettersystem die bereits gut ausgebildete Schneedecke weiter erhöht hat.

Starke Winde – bis zu 120 km/h in den Höhenlagen – begleiteten den Schneefall, bildeten instabile Schneebretter und erhöhten die Lawinengefahr in exponierten Geländen.

Link: https://electroverse.substack.com/p/late-march-arctic-cold-grips-canada?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————-

Meldungen vom 1. April 2026:

Alpen: Kein Ende der starken Schneefälle

In den europäischen Alpen hat sich der Neuschnee rasch angehäuft – vielerorts werden 50 cm gemeldet, lokal sogar doppelt so viel.

In höheren Lagen in Teilen Frankreichs, der Schweiz, Österreichs und der bayerischen Alpen wurden mehr als ein Meter gemessen.

Starke Höhenwinde haben den Schnee über die üblichen Gebiete hinaus verteilt und die Schneemengen bis in Regionen wie das Tessin getrieben.

Viele Skigebiete bieten nun, kurz vor April, wieder Bedingungen wie mitten im Winter. Gletscher und höhere Lagen – Sölden, Stubai, Zermatt, Val Thorens, Tignes – sind in bester Verfassung, mit tiefem Schnee und frischem Pulverschnee. Selbst Gebiete, die in der Spätsaison traditionell eher mäßige Bedingungen bieten, sind wieder ins Spiel gekommen, wie Ischgl, St. Anton, Engelberg und Verbier.

„Die Bedingungen sind besser als Mitte Februar“, sagte ein Skifahrer.

Die Rückkehr des Winters beschränkt sich nicht nur auf die Alpen. Weiter südlich hat das sonst so milde Sardinien im Mittelmeer gerade einen starken Kälteeinbruch erlebt.

Im Gennargentu-Gebirge ist Schnee gefallen; in Su Separadorgiu wurden auf rund 1.440 m Höhe -2,1 °C gemessen, und in weiten Teilen von Nuoro und Alta Gallura wurden Minustemperaturen gemeldet.

Oberhalb von 1.000 m hat sich Schnee festgesetzt – eine Seltenheit im Frühling.

Das Wetter war unbeständig, kalt und turbulent – eine Fortsetzung der allgemeinen Wetterlage in Europa, die in den letzten Wochen wiederholt Luft arktischen Ursprungs nach Süden getrieben hat.

————————————-

Nordamerika: Polarwirbel verstärkt sich wieder

Während ein Teil der Anomalie des Polarwirbels über die Labradorsee in Richtung Grönland verdrängt wird, taucht bereits ein weiterer hinter ihm auf – diesmal mit Ursprung in Sibirien, überquert die Arktis und zielt auf die gleiche Region ab. Das System lädt sich neu auf.

Der winterliche troposphärische Polarwirbel bleibt für diese Jahreszeit ungewöhnlich intensiv. In 500 mb sinken die Temperaturen in Teilen der nördlichen Hemisphäre immer noch auf rund -53 °C – Werte, die eher für den Hochwinter als für den April typisch sind.

Diese Kälte überträgt sich direkt auf die Erdoberfläche.

Die Vorhersagen bis in die erste Aprilwoche hinein zeigen weitreichende Schneefälle in Ontario, Quebec, dem Mittleren Westen und der Region der Großen Seen. In vielen Regionen sind Gesamtmengen von 30 bis 60 cm zu erwarten.

Eine anhaltende Tiefdruckrinne über Kanada wirkt wie ein Anker und zieht arktische Luft immer wieder nach Süden. Jedes Mal, wenn sich das Muster zu verschieben beginnt, strömt eine weitere Kaltluftwelle aus dem polaren Reservoir herab – und setzt das System zurück.

Dies ist kein normaler saisonaler Verlauf. Bis Ende März sollte sich der Wirbel eigentlich abschwächen und aufbrechen.

Stattdessen scheint der Winter endlos zu dauern – besonders im Norden, wo immer wieder Rekorde gebrochen werden.

Nehmen wir zum Beispiel British Columbia.

In Tofino fielen die Temperaturen kürzlich auf -3,2 °C und brachen damit einen 121 Jahre alten Rekord aus dem Jahr 1905 (Aufzeichnungen reichen bis 1896 zurück).

In Burns Lake sank die Temperatur auf -19,5 °C, in Chetwynd auf -19,9 °C und in Campbell River auf -4,6 °C – ebenfalls allesamt neue Tagesrekorde. Port Hardy, Squamish und Sechelt verzeichneten ebenfalls neue Tiefstwerte für Ende März, während Bella Bella seinen Rekord einstellte.

Dies sind keine vereinzelten Ausreißer. Der Kalender mag zwar April anzeigen, doch große Teile Kanadas bekommen keine Verschnaufpause.

————————————-

Nordindien: Seltene April-Kälte

Ein mäandrierender Jetstream wird ab dem 3. April eine Tiefdruckrinne nach Süden in Richtung des asiatischen Subkontinents führen. Diese Wetterlage wird kältere Luft ungewöhnlich weit nach Süden treiben und eine starke westliche Störung über Indien anfachen.

In den nördlichen und westlichen Regionen ist in wichtigen landwirtschaftlichen Gebieten mit einem Einbruch winterähnlichen Wetters zu rechnen. Auch in Zentralindien und Teilen der südlichen Halbinsel werden seltene und heftige Abendgewitter erwartet – und das in einem der trockensten Monate Indiens.

Die Rabi-Ernte, die kurz bevorsteht, ist anfällig für Kälte, Hagel und untypische Niederschläge.

Es ist mit weitreichenden Ernteschäden und -ausfällen zu rechnen.

Eine gekrümmte Jetstream-Strömung stört den saisonalen Übergang und verzögert den Beginn der beständigen Hitze vor dem Monsun. Anstelle eines stetigen Übergangs in den Sommer bleiben die Bedingungen bis Anfang April unbeständig, wobei die Hitze frühestens Mitte des Monats einsetzen dürfte.

Link: https://electroverse.substack.com/p/late-march-snow-buries-the-alps-as?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————-

Meldungen vom 2. April 2026:

Östliches Kanada: April beginnt mit Rekord-Kälte

In Kanada werden weiterhin Tiefsttemperaturen unter -40 °C gemessen.

Schefferville in Quebec hat mit -40,4 °C einen neuen provinzweiten Kälterekord für den Monat April aufgestellt und damit die bisherige Bestmarke von -40 °C aus dem Jahr 1994 in Bonnard gebrochen (die Aufzeichnungen in Quebec reichen bis Ende des 19. Jahrhunderts zurück).

In der Nähe stellte Rivière aux Feuilles mit -39,8 °C einen neuen April-Rekord auf.

In Kuujjuarapik sank die Temperatur auf -36,2 °C und unterbot damit das bisherige April-Tief von -33,9 °C, das 1950 und 1970 gemessen worden war.

Weiter östlich erreichte der Wabush Lake in Labrador -35,3 °C – knapp unter den monatlichen und provinziellen April-Rekorden.

Dies ist kein Einzelfall. Es folgt auf einen außergewöhnlich kalten März im gesamten Norden Kanadas.

Weite Teile der Territorien, Ontarios, Quebecs und Labradors erlebten den kältesten Monat der Saison. Messstationen wie Rankin Inlet (seit 1953), Churchill (seit 1929) und Wabush (seit 1960) verzeichneten im März durchschnittliche Rekordtiefstwerte.

Diese Wetterlage hält weiter an. Die arktische Kaltluft hat sich im Norden festgesetzt, und es gibt kaum Anzeichen für einen normalen Saisonwechsel.

Und es ist nicht nur die Kälte.

Im Westen Kanadas fällt weiterhin Schnee. Skigebiete wie Banff Sunshine, Whistler Blackcomb und Lake Louise planen nun, bis in den Mai hinein geöffnet zu bleiben. Allein Marmot Basin verzeichnete in den letzten 7 Tagen 55 cm Neuschnee.

————————————-

Sahara: Außerordentliche Kälte

Eine seltene Kältewelle hat sich bis tief in die zentrale Sahara ausgebreitet und in Ländern wie Algerien zu Rekordtiefstwerten für den Monat April geführt.

Im Assekrem-Gebirge fielen die Temperaturen auf -6 °C – ein außergewöhnlicher Rekordwert für den April.

Weiter nördlich sank die Temperatur in Tamanrasset auf 2,3 °C – ebenfalls ein neuer Tiefstwert für den Monat April (seit den 1950er Jahren).

Im gesamten westlichen Sahel liegen die Temperaturen innerhalb von 2 °C der für April üblichen Werte.

————————————-

Italien und darüber hinaus: Seltene April-Schneefälle

In Roccacaramanico in Italien schneit es weiterhin außergewöhnlich stark, wobei sich bereits mehr als ein Meter Schnee angesammelt hat.

Im Mittelpunkt des Wettergeschehens steht das Apennin-Gebirge, wo feuchtwarme Mittelmeerluft auf die von Norden einströmende Kaltluft getroffen ist.

Schnee im April ist in dieser Region zwar nicht ungewöhnlich, wohl aber dessen Intensität.

Die Schneemengen haben rasch zugenommen, die Schneefallgrenze ist gesunken und die Schneedecke breitet sich über das Hochland der Abruzzen aus.

In den höheren Lagen herrschen wieder Bedingungen wie mitten im Winter.

In den Alpen hat es bis Anfang April weiter geschneit.

In der polnischen Tatra haben sich die Bedingungen drastisch verschlechtert: Tiefschnee, Sichtweiten nahe Null und instabile Hänge haben die Behörden dazu gezwungen, das Gebiet zu sperren. Die Schneehöhe hat stellenweise 1,8 m überschritten.

Alle 275 km Wanderwege im Tatra-Nationalpark wurden aufgrund der erhöhten Lawinengefahr gesperrt. Es gilt die Warnstufe 4 – die zweithöchste – was bedeutet, dass Lawinen bereits durch geringe zusätzliche Belastungen leicht ausgelöst werden können.

Link: https://electroverse.substack.com/p/april-opens-with-record-cold-across?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————-

Meldungen vom 3. April 2026:

Alaska: Kältester Winter jemals in Fairbanks

Fairbanks hat gerade den kältesten Zeitraum von Dezember bis März seit Beginn der Aufzeichnungen verzeichnet.

Die Durchschnittstemperatur in der Saison 2025/26 lag bei nur -25,3 °C – der niedrigste Wert seit Beginn der Aufzeichnungen im Jahr 1904.

Von November bis März stieg die Temperatur zu keinem Zeitpunkt über den Gefrierpunkt – das ist das erste Mal, dass dies passiert ist. Der letzte Tag mit Temperaturen über dem Gefrierpunkt war der 31. Oktober.

Die saisonalen Werte sind extrem:

• 152 Tage mit Temperaturen bei oder unter dem Gefrierpunkt

• 66 Tage mit Höchsttemperaturen bei oder unter -17,8 °C

• 72 Tage mit Temperaturen bei oder unter -28,9 °C

• 52 Tage mit Temperaturen von -34,4 °C oder darunter

• 31 Tage mit Temperaturen von -40 °C oder darunter

Temperaturspanne: –13,6°F ≈ –25,3°C; –8,8°F ≈ –22,7°C. A. d. Übers.

Diese Kälteperiode endete am Donnerstag um 17:05 Uhr, als die Temperatur +0,6 °C erreichte. Sie dauerte 152 Tage und stellte damit den Rekord für die späteste erste Temperatur über dem Gefrierpunkt in einer Saison ein.

Auch die Schneemenge war beeindruckend: 235 cm, was Platz 12 in der 122-jährigen Aufzeichnungsgeschichte bedeutet.

So sah es diesen Winter in weiten Teilen Alaskas und auch in weiten Teilen Kanadas aus…

Neben Rankin Inlet (NU), Churchill (MB) und Wabush (NL) (wie gestern erwähnt) verzeichnete auch Dawson (YK) den kältesten März seit Beginn der Aufzeichnungen (Daten seit 1901). Der Monatsdurchschnitt lag bei -23 °C, ganze 10,4 °C unter dem Durchschnitt für den Monat März und sogar etwa 2 °C kälter als ein typischer Februar.

Fairbanks und andere Stationen liegen im Zentrum Alaskas weitab von irgendwelchen Küsten. Warum Kälterekorde dort – vor allem in dieser Größenordnung – ein ganz anderes Gewicht haben als Kälterekorde irgendwo in den Mittleren Breiten wird in einem Anhang am Ende dieses Reports erläutert. A. d. Übers.

————————————-

Frankreich: April-Frost gefährdet Weinanbaugebiete

Die Weinregionen Frankreichs haben mit Frost Anfang April zu kämpfen; in Chablis im Departement Yonne sind die Temperaturen bis auf -3 °C gesunken.

Die Winzer ergreifen Notfallmaßnahmen.

Über Nacht werden in den Weinbergen Tausende von Brennern entzündet in der Hoffnung, die Temperaturen gerade so weit anzuheben, dass die frisch gebildeten Knospen geschützt werden. Ein Temperatursturz unter den Gefrierpunkt kann das frühe Wachstum zerstören und die Erträge drastisch verringern.

Chablis ist besonders gefährdet.

Als eine der nördlichsten Weinregionen Frankreichs ist sie während des Austriebs besonders anfällig.

Doch das Risiko erstreckt sich über Burgund hinaus.

Für Zentral- und Ostfrankreich, einschließlich der Champagne und Teilen des Loire-Tals, wurden Frostwarnungen ausgegeben.

Die Tiefsttemperaturen am 2. April fielen auf -6,8 °C in Mourmelon-le-Grand (Marne), -5,9 °C in Chaumont (Haute-Marne) und -3,9 °C in Troyes (Aube) – allesamt mitten in wichtigen Weinbaugebieten.

Hier ist Bagneux-la-Fosse im Departement Aube:

Auch jenseits der Grenze, in Westdeutschland und der Schweiz, entzünden die Winzer Frostfeuer.

————————————-

Alpen: Weiterer Schneezuwachs in höheren Lagen

Während die tiefer gelegenen Regionen Europas unter untypischem Frost leiden, kommt es in den Bergen zu weiteren starken Schneefällen.

In den Alpen haben die jüngsten Stürme in Frankreich, der Schweiz, Österreich und Norditalien für Neuschnee gesorgt, wobei die Schneehöhen in den höheren Lagen weiterhin die 1-Meter-Marke überschreiten.

Skigebiete, in denen normalerweise der Schnee im Frühling weicher wird, erleben stattdessen bis in den April hinein anhaltende winterliche Bedingungen.

Und das betrifft nicht nur die Alpen.

Im Osten verzeichnen die polnischen Tatra-Berge Schneehöhen über 1,8 m.

Im Westen hingegen verzeichnen auch die Pyrenäen sehr starke Schneefälle in und um Orte wie Font-Romeu.

Link: https://electroverse.substack.com/p/fairbanks-just-logged-its-coldest?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Wird fortgesetzt mit Kältereport Nr. 15 / 2026

Redaktionsschluss für diesen Report: 3. April 2026

Zusammengestellt und übersetzt von Christian Freuer für das EIKE

Anhang: Warum die Kälte in Kanada so bedeutsam ist

In den Mittleren Breiten, also auch hierzulande, ist es entscheidend von der Wetterlage abhängig, ob Kälte- oder auch Wärmerekorde auftreten, je nachdem, wie lange die entsprechenden Luftmassen advehiert werden (Advektion = horizontaler Austausch von Luftmassen; Konvektion = vertikaler Austausch von Luftmassen). Kowatsch & Baritz haben in verschiedenen Arbeiten die Häufung von Südwestlagen in Mitteleuropa nachgewiesen, die natürlich zu milderen/wärmeren Bedingungen führen.

Im Zentrum des Kältepols über Kanada gibt es jedoch kaum oder gar keine Advektion. Milde Luftmassen vom Pazifik können die Gebiete in der geographischen Mitte von Alaska Fairbanks) nicht erreichen. Die erwähnte extreme Kälte in jenen Gebieten kann also nicht durch das Vorherrschen bestimmter Luftmassen erklärt werden, einfach weil es keinen Austausch derselben gibt. Das heißt, dass die Kälte diesmal besonders intensiv war.

Für den Kältepol über der Antarktis gilt natürlich Entsprechendes. Diese findet zwar im Gegensatz zur vorigen Ausgabe (Nr. 13 / 2026) hier keine Erwähnung, wohl aber in der vorigen Ausgabe. Offenbar ist die Abkühlung im Zentrum der Kältepole ein Vorgang an beiden Polen – was immer das auch zur Folge hat.

Der Beitrag Kältereport Nr. 14 /2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)
❌