NEWS 23

🔒
❌
Stats
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.

☐ ☆ ✇ EIKE

„Umweltfreundliche“ Energie schlachtet Wildtiere

veröffentlicht.
Vorschau ansehen

Vijay Jayaraj

Zahlreiche Studien von Biologen und Ornithologen bringen unmissverständlich die wachsende Besorgnis über das Töten von Vögeln und anderen Lebewesen durch sogenannte umweltfreundliche Technologien zum Ausdruck. Viele der Forscher lehnen das Konzept alternativer Energiequellen zwar nicht grundsätzlich ab, geben jedoch nicht mehr vor, dass Wind- und Solarenergie harmlos seien.

Der grundlegende Mangel dieser Technologien ist ihre geringe Energiedichte. Um die gleiche Menge an zuverlässigem Strom zu erzeugen wie ein mit Erdgas betriebener Generator oder ein Kernkraftwerk, benötigen Wind- und Solaranlagen Tausende Hektar zusätzliches Land. Das ist eine Frage der Physik. Doch in der Eile, willkürliche „Netto-Null“-Ziele zu erreichen, wird die Umwelt zerstört, die angeblich geschützt werden soll.

Wind- und Solaranlagen vernichten Wildtiere, zerstören Lebensräume, fragmentieren Ökosysteme und hinterlassen ökologische Verwüstungen, die weit über das hinausgehen, was die grüne Lobby bereit ist anzuerkennen. Die Darstellung von Politikern und finanzstarken Umwelt-NGOs – dass Wind- und Solarenergie die Retter der Natur seien – ist eine Lüge. Die Daten belegen, dass diese Projekte Wildtiere nicht nur verdrängen, sondern sie in industriellem Ausmaß töten.

Eine schockierende Untersuchung offenbart das Ausmaß dieser Eingriffe. Wind- und Solarparks überschneiden sich weltweit mit 2.310 bedrohten Amphibien-, Vogel-, Säugetier- und Reptilienarten. Dies entspricht 36 % der weltweit bedrohten Arten. Die „grüne“ Utopie wird auf den Gräbern der Schwachen errichtet.

Eine Studie, welche die Auswirkungen von Projekten im Bereich „erneuerbarer“ Energien analysierte ergab, dass 2.206 in Betrieb befindliche Anlagen 886 Schutzgebiete, 749 „Schlüsselgebiete für die Biodiversität“ und 40 einzigartige Wildnisgebiete geschädigt hatten. Die Forscher prognostizieren eine Ausweitung dieser Auswirkungen um 30 %, weil natürliche Rückzugsgebiete weiter industrialisiert werden.

Eine weitere Studie untersuchte 84 begutachtete Studien zu Onshore-Windparks und dokumentierte 160 Fälle von Artenverdrängung, von denen Vögel, Fledermäuse und verschiedene Säugetierarten betroffen waren.

Für den Steinadler, ein Symbol wilder Erhabenheit, bedeutet dies den Tod. Im Westen der Vereinigten Staaten haben sich die dokumentierten Todesfälle zwischen 2013 und 2024 von 110 auf 270 mehr als verdoppelt.

Eine Untersuchung von 42 afrikanischen Raubvogelarten ergab einen Rückgang um 88 % über einen Zeitraum von 20 bis 40 Jahren. Die Studie identifizierte Windparks als einen der Hauptfaktoren. In China hat der Ansturm auf Windenergie nach dem Bau von Windparks zu einem Rückgang der gesamten Vogelpopulationen um fast 10 % geführt. Im Kreis Changdao, der an einer wichtigen Zugroute für 330 Vogelarten liegt, berichteten lokale Gemeinden von rückläufigen Vogelpopulationen und vermehrter Schädlingsaktivität. In einem erstaunlichen Eingeständnis des Scheiterns wurden 80 Windkraftanlagen abgerissen, um das Ökosystem zu retten.

Jüngste Forschungsergebnisse zeigen, dass großflächige Solaranlagen in feuchten Regionen einen fast vollständigen Zusammenbruch der Vegetation verursachen. Die Solarmodule schirmen die Sonne ab, verändern das Mikroklima und führen zu Bodeninstabilität. Ohne Wurzeln, die den Boden festhalten, geht die Grundlage des Ökosystems verloren.

In Wüsten-Ökosystemen stören lokale Veränderungen durch Solaranlagen die Wachstumszyklen der Pflanzen und das Leben der Mikroorganismen, welche die Wüste gesund halten. In China hat der Ausbau der Photovoltaik zu Fragmentierung und Lebensraumverlust auf einer Fläche von mehr als 2.100 Quadratmeilen an landwirtschaftlichen, sandigen und grasbewachsenen Gebieten geführt.

Der Ausbau der Solarenergie in intakten Landschaften verringert den Artenreichtum. Umzäunungen schaffen unüberwindbare Barrieren, die Tiere einschließen und den für gesunde Populationen notwendigen Genfluss verhindern.

In den Vereinigten Staaten führt allein die Solarenergie Schätzungen zufolge jährlich zum Tod von 37.800 bis 138.600 Vögeln. Warum? Weil riesige Felder aus Solarmodulen aus der Luft wie Wasser aussehen.

Eine Studie aus Polen bestätigt diesen „Seeneffekt“ und zeigt, dass Photovoltaikparks aufgrund ihrer wasserähnlichen Reflexionen Wasservögel anziehen. Diese Vögel fliegen hinab, in der Erwartung eines kühlen Sees, und prallen stattdessen gegen glühend heißes Glas. Die Studie identifizierte an sechs Standorten 70 gefährdete Vogelarten, wobei sich das hohe Kollisionsrisiko auf einen Umkreis von 200 Metern um die Anlagen konzentriert.

Die Mojave-Wüstenschildkröte, eine uralte Überlebenskünstlerin in rauen Umgebungen, ist dem Solarboom zum Opfer gefallen. Von 2004 bis 2014 schrumpfte der Bestand dieser Art um 39 %. Großflächige Solaranlagen haben rund 100.000 Acres ihres Lebensraums zerstört. Wir vertreiben eine Art, die seit Millionen von Jahren in der Mojave-Wüste lebt, um Platz für Solarmodule zu schaffen, die in 20 Jahren veraltet sein werden.

Wir müssen die rücksichtslose Ausweitung von Energieprojekten mit geringer Dichte in wertvollen Ökosystemen stoppen. Der „grüne“ Wandel ist rot gefärbt vom Blut der Lebewesen, die wir eigentlich schützen sollten.

Originally published in The Blaze on March 27,  2026.

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India. He served as a research associate with the Changing Oceans Research Unit at University of British Columbia, Canada.

Link: https://wattsupwiththat.com/2026/04/08/eco-friendly-energy-slaughtering-wildlife/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag „Umweltfreundliche“ Energie schlachtet Wildtiere erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

NOAA: Die Wahrscheinlichkeit eines „starken El Niño“ steigt – und schon läuft die Hype-Maschine an

veröffentlicht.
Vorschau ansehen

Cap Allon

Die NOAA schätzt die Wahrscheinlichkeit für ein „starkes“ El-Niño-Phänomen bis zum Herbst derzeit auf etwa 50:50.

Man beachte den klein gedruckten Hinweis rechts unten! Übersetzung: „Stärkere Ereignisse bedeuten nicht immer stärkere Auswirkungen auf Wetter und Klima. Stärkere Ereignisse machen es wahrscheinlicher, dass es zu bestimmten Auswirkungen kommt“.

Und mehr brauchte es nicht – schon schreien die Schlagzeilen wie von selbst um die Wette. „Super-El-Niño“. „Godzilla-El-Niño“. Eine weitere Runde angstgeschürter Berichterstattung, die auf einem Szenario basiert, das vielleicht gar nicht eintritt.

Sogar einige Klimaforscher melden Widerspruch an.

Der Begriff „Super-El-Niño“ entspricht nicht dem wissenschaftlichen Standard. Er ist Mediensprache. Er bezieht sich grob auf Niño3.4-Anomalien, die über 2 °C hinausgehen, aber diese einzelne Kennzahl ist nur ein kleiner Ausschnitt eines viel größeren Systems. Sie erfasst die Meerestemperaturen in einer Region des östlichen Pazifiks. Sie erfasst nicht die gesamte atmosphärische Dynamik, die tatsächlich die Wetterauswirkungen bestimmt.

Und entscheidend ist, dass sie sich nicht zuverlässig in Auswirkungen an Land niederschlägt.

Es gibt eindeutige historische Beispiele. Der starke El Niño von 1997–98 hatte in Teilen Australiens relativ geringe Auswirkungen auf die Niederschlagsmengen. Gleichzeitig haben schwächere Ereignisse weitaus schwerwiegendere Dürrebedingungen verursacht. Stärke auf dem Papier ist nicht gleichbedeutend mit Auswirkungen in der Realität.

Dann ist da noch der Zeitpunkt.

Diese Prognosen werden im April erstellt, also mitten in der bekannten „Herbst-Vorhersagebarriere“. Dies ist die unzuverlässigste Zeit des Jahres für ENSO-Prognosen. Die Modelle versprechen hier regelmäßig zu viel. Die Prognosen für 2017 deuteten zuversichtlich auf ein starkes und anhaltendes El Niño hin. Was folgte, war schwach und von kurzer Dauer.

Die ehrliche Antwort heute: vielleicht.

Stattdessen erleben wir eine Übertreibung, denn ein starker El Niño ist gut fürs Geschäft. Er würde wahrscheinlich die globalen Temperaturwerte (vorübergehend) in die Höhe treiben. Er nährt die Erzählung. Er füllt die Schlagzeilen.

Aber El Niño dämpft typischerweise auch die Hurrikanaktivität im Atlantik. Die Windscherung nimmt zu. Die Entwicklung von Stürmen wird erschwert. Oft folgen ruhige Saisons. Das passt natürlich nicht ins Drehbuch. Wenn sich also ein starker El Niño bildet, ist zu erwarten, dass dieser Aspekt ein oder zwei Jahre lang ignoriert wird, während ein Temperaturanstieg in den Vordergrund gerückt wird.

Die Daten sprechen von einem 50:50-Verhältnis.

Die Schlagzeilen sind bereits in voller Hype-Stimmung:

Link: https://electroverse.substack.com/p/polar-vortex-holds-canada-in-winter?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag NOAA: Die Wahrscheinlichkeit eines „starken El Niño“ steigt – und schon läuft die Hype-Maschine an erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Umwelt-Aktivisten kämpfen vor Gericht gegen unseren Lebensstandard

veröffentlicht.
Vorschau ansehen

Craig Rucker

[Ähnlichkeiten mit der DUH hierzulande sind natürlich rein zufällig! A. d. Übers.]

Umweltverbände und Klima-besessene Kommunalverwaltungen führen in ganz Amerika einen aggressiven „Climate Lawfare“ – sie nutzen Klagen, um den Kongress, die ins Stocken geratenen globalen Pläne der UNO, die Politik der Trump-Regierung und Urteile des Obersten Gerichtshofs zu umgehen. Sie sind entschlossen, uns allen ihre Agenda gegen fossile Brennstoffe aufzuzwingen und unseren Lebensstandard zu untergraben.

Mehr als 20 Bundesstaaten, Landkreise und Städte klammern sich an die alarmistische Behauptung, dass der vom Menschen verursachte Klimawandel eine „existenzielle Bedrohung“ darstelle, welche die rasche Abschaffung fossiler Brennstoffe erfordere.

Angestachelt von Gruppen wie EarthRights International, Youth Climate Strike, Sunrise Movement, Extinction Rebellion und dem Environmental Law Institute (das einseitige „Aufklärung“ bei Richtern vorantreibt), verklagen sie eine Handvoll großer Ölkonzerne und behaupten, diese Unternehmen hätten das Klima „gestört“ und Schäden in Milliardenhöhe durch angebliche Wetter- und Erwärmungsereignisse verursacht.

Ihr eigentliches Ziel? „Systemweite Veränderungen“ in unseren Bereichen Energie, Wirtschaft und Gesellschaft – und zwar durch eine indirekte Kohlenstoffsteuer, welche die Preise für fossile Brennstoffe in die Höhe treibt, bis sie sich die meisten Familien nicht mehr leisten können, und zwar nicht nur vor Ort, sondern landesweit.

Ein Paradebeispiel: Nachdem sie von EarthRights International kontaktiert worden waren, schlossen sich Boulder County und die Stadt Boulder mit einem anderen County in Colorado zusammen, um gegen das kanadische Unternehmen Suncor Energy und das US-amerikanische Unternehmen ExxonMobil zu klagen. Sie behaupten, diese Unternehmen hätten Eigentum, Gesundheit und Sicherheit beeinträchtigt, indem sie den Klimawandel mit höheren Temperaturen, mehr Dürren und Waldbränden, schwindenden Schneedecken, verringerten Wasservorräten, Schäden für die Landwirtschaft und Einbußen für die Skibranche angeheizt hätten.

Sie fordern Entschädigungen in Milliardenhöhe für angebliche vergangene und zukünftige „Schäden“. Beamte und Anwälte geben offen zu, dass das Endziel darin besteht, das amerikanische Energiesystem umzugestalten und überall horrend hohe Kosten für fossile Brennstoffe durchzusetzen.

Im Mai 2025 entschied der Oberste Gerichtshof von Colorado, dass diese Klage vor einem staatlichen Gericht verhandelt werden kann. Da diese Unternehmen jedoch landesweit und weltweit tätig sind und ihre Produkte verkaufen, beschränken sich die geltend gemachten Auswirkungen nicht auf Colorado, und die mit der Klage verfolgten Ziele würden Familien in den gesamten Vereinigten Staaten und darüber hinaus hart treffen.

Dieser Fall gehört vor ein Bundesgericht, wo Richter die Ansprüche aus einer breiteren nationalen und internationalen Perspektive in Bezug auf Wissenschaft, Wirtschaft und menschliches Wohlergehen bewerten würden, und nicht vor leicht manipulierbaren lokalen Instanzen und Medienberichten.

Andere machthungrige Gerichtsbarkeiten – Kalifornien, Connecticut, Minnesota, Baltimore, Honolulu und weitere – verfolgen ähnliche Angriffe vor Gericht, unterstützt von denselben Netzwerken. Sie weichen den Kernfragen aus.

Wenn es Bundesbehörden nicht gestattet ist, Angelegenheiten „von großer wirtschaftlicher und politischer Bedeutung“ ohne ausdrückliche Genehmigung des Kongresses zu regeln – wie jüngste Urteile des Obersten Gerichtshofs deutlich gemacht haben –, wie können dann Kommunalverwaltungen und Landesgerichte de facto eine nationale Energie- und Wirtschaftspolitik durchsetzen?

Wie können sie unklare wissenschaftliche Erkenntnisse, nicht vorhandene Gesetze oder vage Formulierungen zu „vernünftigen“ Auslegungen verdrehen, die ihre Befugnisse massiv ausweiten und die Kosten für die Privatwirtschaft landesweit in die Höhe treiben, entgegen den jüngsten Entscheidungen des Obersten Gerichtshofs? Wie kann diese Lawfare-Koalition – im Zusammenspiel mit Umweltaktivisten und wohlwollenden Gerichten – landesweite Vorgaben in Bezug auf fossile Brennstoffe, Klima und Emissionen durchsetzen, wenn der Kongress seit Jahrzehnten nicht handelt oder dies versäumt hat?

Wie können sie die Bedürfnisse und Wünsche von Millionen von Bürgern außer Kraft setzen, deren Heizung, Klimatisierung, Arbeitsplätze, Ernährung, Gesundheit und Lebensstandard durch diesen destruktiven Vorstoß beeinträchtigt werden würden?

Diese Tatsachen erklären, warum Entwicklungsländer wie China und Indien, die fossile Brennstoffe benötigen, um Milliarden Menschen aus Armut, Krankheit und Hoffnungslosigkeit zu befreien, auf der jüngsten UN-Klimakonferenz in Belém, Brasilien (COP30), die mit kaum mehr als bloßen Worten endete, eine unnachgiebige Haltung einnahmen. Öl, Erdgas und Kohle decken nach wie vor 80 Prozent des weltweiten Primärenergiebedarfs. China und Indien bauen monatlich neue Kohlekraftwerke; China verursacht ein Drittel der weltweiten Treibhausgasemissionen, mehr als alle Industrienationen zusammen.

Diese Länder erkennen, dass der eigentliche Schaden dadurch entsteht, dass erschwingliche Energie verboten, auf unzuverlässige erneuerbare Energien gesetzt und wichtige petrochemische Produkte blockiert werden – nicht durch den angeblichen vom Menschen verursachten Klimawandel.

Deshalb hat Präsident Trump die Vereinigten Staaten aus dem Pariser Abkommen und der UN-Klimarahmenkonvention zurückgezogen, kostspielige Vorschriften aufgehoben, die auf übertriebenen Behauptungen über eine „Klimakrise“ beruhten, und die amerikanische Öl- und Gasproduktion auf Rekordniveau gesteigert.

Der Oberste Gerichtshof hat unmissverständlich klargestellt, dass Bundesbeamte keine weitreichenden Vorschriften ohne ausdrückliche Zustimmung des Kongresses erlassen dürfen und keine „vernünftigen Auslegungen“ mehrdeutiger Gesetze vornehmen dürfen, die zu einer Ausweitung der Regulierungsbefugnisse oder zu höheren Kosten führen.

Dennoch versuchen diese lokalen „Lawfare“-Bemühungen, all dies zu umgehen. Genau aus diesem Grund hat der Oberste Gerichtshof im Februar angekündigt, dass er die Berufungen von Suncor und ExxonMobil verhandeln wird, die darauf abzielen, das Verfahren in Colorado und ähnliche lokale Klimamaßnahmen zu beenden.

Eine entschiedene Entscheidung, um diesen überzogenen Einsatz von „Lawfare“ zu stoppen, kann nicht früh genug kommen.

This article originally appeared at DC Journal

Link: https://www.cfact.org/2026/04/04/environmentalists-are-fighting-our-living-standards-in-court/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Wie in anderen ähnlichen Artikeln auch hätte man die eigennützigen und gemeingefährlichen Motive dieser Herrschaften viel mehr hervorheben müssen!

Der Beitrag Umwelt-Aktivisten kämpfen vor Gericht gegen unseren Lebensstandard erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Abrupter Klimawandel – menschgemacht oder natürlich? Klimaschau 256

veröffentlicht.
Vorschau ansehen

Die Behauptung einer nie dagewesenen Geschwindigkeit des Klimawandels gehört zu den erst in den letzten Jahren aufgekommenen Argumenten der Alarmisten in Wissenschaft & Journalismus.
Demnach habe sich durch den Ausstoß von Kohlendioxid der europäischen Industrie die mittlere Erdtemperatur seit 1850 so rasch verändert wie nie zuvor. Aber stimmt das?

Nein – seit geraumer Zeit untersuchen Forscher schnelle Temperaturwechsel im Erdklima. Ein prominentes Beispiel dafür ist die Studie mit dem Titel „Globale atmosphärische Fernwirkungen während Dansgaard-Oeschger-Ereignissen“ einer Arbeitsgruppe um Bradley Markle von der Seattle University im Bundesstaat Washington. Sie erschien 2017 im Fachblatt „Nature Geoscience“.
Bereits vor Jahrzehnten sind vor allem durch die Arbeit des dänischen Forschers Willi Dansgaard und seines Schweizer Kollegen Hans Oeschger abrupte Klimaschwankungen bekannt geworden.

Der Beitrag Abrupter Klimawandel – menschgemacht oder natürlich? Klimaschau 256 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Klimawandel und Intersektionalität

veröffentlicht.
Vorschau ansehen

Climate Litigation Watch

Ist AP die Abkürzung für „Übernommene Propaganda“?

Die Leser von CLW haben sich über die juristische „Schulungsmaschinerie“ auf dem Laufenden gehalten, welche die Klägeranwälte und die mit ihnen verbundenen Wissenschaftler sowie NGO-Aktivisten rasch auf die Beine gestellt hatten, nachdem die Klimaklageindustrie 2018 zwei Niederlagen vor Bundesgerichten hatte hinnehmen müssen. Der Hintergrund dieser „Schulungen“ – derzeit ein heißes Thema, über das hier erstmals im Mai und dann im Oktober 2021 berichtet wurde und seitdem immer wieder – wurde insbesondere in Veröffentlichungen der University of Oregon (siehe z. B. hier), der Oregon State University (hier, hier und hier) und der University of Washington (hier, hier, hier und hier) näher beleuchtet. Letztere hat uns gerade ein weiteres Beispiel dafür geliefert, dass „sie genau die sind, für die wir sie gehalten haben“.

Prof. Kristie Ebi von der University of Washington wurde von den National Academies of Sciences, Engineering and Medicine (NASEM) rekrutiert, um im Team der externen Gutachter der „beschleunigten“ und (wie das GAO in seinen Stellungnahmen hervorhob) von Aktivisten dominierten („von Natur aus bis zur Absurdität widersprüchlichen“) NASEM-Kampagne mitzuwirken, deren Ziel es war, den heimischen „Heiligen Gral“ der Klimabefürworter aufrechtzuerhalten. Das ist das „Endangerment Finding“ von 2009, von der wir alle inzwischen wissen, dass sie von Aktivisten vorgefertigt worden war, die dann in der Regierung freigeschaltet wurden, um eine Agenda voranzutreiben.

Der unvoreingenommene, nachdenklich die Wange streichelnde Wahrheitssucher der UW arbeitete gleichzeitig mit Mitgliedern des Teams der Klimakläger zusammen – von der Gruppe, die als „Anwälte des Rockefeller-Familienfonds“ bekannt ist, bis hin zu Aktivisten und Sachverständigen, die vor Richtern vorgeführt wurden, die an schicke Orte rekrutiert worden waren, um die Sichtweise der Kläger (und nur die Sichtweise der Kläger) anzuhören (und sich davon beeinflussen zu lassen).

Ende letzten Jahres zeichnete sich eine weitere Priorität ab, nämlich die Untergrabung des „Endangerment Finding“ durch das „Red Team“ führender Wissenschaftler, die vom Energieministerium zusammengestellt worden waren und die ursprüngliche Auslassungen sowie Entwicklungen seit 2009 ans Licht brachten. Dies löste zudem eine Notlage aus, der mit der „objektiven“, vom Steuerzahler finanzierten NASEM-Initiative begegnet werden sollte, die nun unter anderem Gegenstand einer Untersuchung durch den Kongress ist.

Dies betrifft vor allem Ersteres, wirft aber auch ein sehr schlechtes Licht auf Letzteres: Eine Reihe von Unterlagen, die „Government Accountability & Oversight“ gerade erhalten hat, erinnert uns zudem an die Rolle als Fürsprecher, die Medienunternehmen in diesen Fragen übernommen haben – von CNN und CBS, die Berater des Klägerteams für „Klimaberichte“ im Fernsehen ausstrahlten und sogar bei sich unterbrachten, über andere traditionsreiche Medien, deren Stiftungen mit beiden Händen von aktivistischen Spenderorganisationen gefüttert werden, bis hin zur ungeschickteren Associated Press (Patient Null bei der Besetzung vermeintlicher Nachrichtenmedien durch Stiftungen, sogar einer der von Facebook zusammengestellten Faktenprüfer“, um die Kontrolle über die Berichterstattung zu behalten).

AP lag natürlich vor weniger als einem Jahrzehnt auf dem Sterbebett, als die Klimaaktivisten-Stiftungen mit Millionenbeträgen einsprangen. Interpretieren Sie das, wie Sie wollen. CLW liest dasselbe heraus, was Ebi andeutet.

Die jüngste Korrespondenz steht hier.

Wer hätte das gedacht?

Link: https://wattsupwiththat.com/2026/04/08/climate-industry-intersectionality/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Klimawandel und Intersektionalität erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

„Erneuerbare“ Energien versorgen Coober Pedy endlich fünf Tage am Stück mit Strom!

veröffentlicht.
Vorschau ansehen

Coober Pedy Hybrid-Energieversorgung aus erneuerbaren Energien

Von Jo Nova

Dies ist die Machbarkeitsstudie für das ganze Land, welche die Regierung hätte durchführen können…

Anstatt leichtsinnige Experimente mit unserem nationalen Stromnetz durchzuführen, hätten wir einen Testlauf machen und eine Kleinstadt umstellen können, um zu sehen, ob es funktioniert. Wenn erneuerbare Energien irgendwo Erfolg haben sollten, dann an einem Ort wie Coober Pedy. Schließlich bieten diese kleinen Wüstengemeinden weite, offene Flächen, viel Sonne, und die neuen erneuerbaren Energien müssen sich nur mit teuren Dieselgeneratoren messen, nicht mit billiger Kohle.

Die Anhänger erneuerbarer Energien feierten letzte Woche, weil es einer Kleinstadt gelungen war, „fast fünf Tage“ lang ausschließlich mit erneuerbaren Energien versorgt zu werden. Fast fünf?!

Man könnte meinen, es handele sich um eine neue Anlage, aber dieses System wurde bereits 2017 errichtet. Im Grunde genommen haben die Einwohner von Coober Pedy neun lange Jahre darauf gewartet, so viel Glück mit dem Wetter zu haben.

Und der bisherige Rekord, den sie mit dieser Ausrüstung aufgestellt haben, stammt aus dem Jahr 2019!

Neuer Rekord: Die traditionsreiche Bergbaustadt wird fast fünf Tage lang ausschließlich mit Wind- und Solarenergie versorgt.

Von Sophie Vorrath, Reneweconomy

In einem LinkedIn- Update vom Dienstag gab EDL bekannt, dass ihr Hybrid-Kraftwerk in Coober Pedy kürzlich 116 Stunden ununterbrochen ohne Diesel betrieben hat. „Das sind fast fünf Tage am Stück Energie für die traditionsreiche australische Bergbaustadt – ausschließlich erzeugt durch Wind-, Solar- und Batteriestrom“, heißt es in dem Beitrag.

Der bisherige Rekord für den längsten ununterbrochenen Betrieb mit 100 Prozent erneuerbarer Energie lag bei 97 Stunden im Dezember 2019.

Es ist sozusagen schon eine lange Zeit her, seit wir das letzte Mal davon etwas gesehen haben.

Und die große Frage lautet: „Wie viel hat das gekostet?“

Coober Pedy ist eine Stadt in der südaustralischen Wüste mit etwa 1.600 Einwohnern. 2009 versuchten sie, für 7 Millionen Dollar eine große Solaranlage zu errichten, doch das Projekt scheiterte. 2014 unternahmen sie einen neuen Versuch, der jedoch die Investitionskosten auf rund 40 Millionen Dollar erhöhte. Das Gesamtprojekt wuchs in den folgenden zwanzig Jahren zu einem wahren Stromabnahmegeschäft mit Kosten von 192 Millionen Dollar an.

Quelle https://edlenergy.com/project/coober-pedy/

Es war so schlimm, dass  die Opposition im Bundesstaat eine Untersuchung forderte, und ein unabhängiger Bericht schätzte, dass sie, wenn sie nur ein anderes Angebot eingeholt hätten, im Laufe der 20-jährigen Betriebszeit 85 Millionen Dollar (von den 192 Millionen Dollar Gesamtkosten) hätten einsparen können.

Oder sie hätten jedem Mann, jeder Frau und jedem Kind 120.000 Dollar geben können, damit diese sich einen eigenen Generator kaufen können…

Und wie viel wurde dadurch in 20 Jahren eingespart?

Warte, bis du hörst:

Ein Sprecher von DSD sagte, das Projekt werde der Regierung voraussichtlich über einen Zeitraum von 20 Jahren 5,4 Millionen Dollar an Kosten für die Dieselstromerzeugung einsparen.

Die Landesregierung gab also rund 100 Millionen Dollar an unnötigen Subventionen aus, um in den nächsten zwei Jahrzehnten 5 Millionen Dollar an Brennstoffkosten einzusparen. Die gute Nachricht: Wir wissen, dass sich der Ausbau unseres nationalen Netzes für erneuerbare Energien nicht lohnt. Die schlechte Nachricht: Wir haben bereits Hunderte von Milliarden Dollar verschwendet, und das völlig unnötig.

Wie lange genau würde Australien ohne Diesel auskommen?

Weitere Machbarkeitsstudien zu Mikronetzen finden Sie hier – beispielsweise für Flinders Island , Alice Springs und Onslow .

Mit freundlicher Genehmigung von Helen D und Jim S.

_____________________________

WEITERE INFORMATIONEN

Das Hybridkraftwerk Coober Pedy hat eine Kapazität von 9,25 MW, davon 1 MW Solarenergie, 4 MW Windenergie und 4,15 MW Dieselenergie.

Weitere Informationen, einschließlich eines Live-Erzeugungsberichts,  sind bei der EDL Coober Pedy verfügbar. (Dort trug die Solarenergie zwischen 3:00 und 4:30 Uhr in Südaustralien 0,3 kW bei).

Coober Pedy Generation at 4:30am SA time. April 7th

https://joannenova.com.au/2026/04/renewables-finally-powers-coober-pedy-for-five-days-straight/

 

Der Beitrag „Erneuerbare“ Energien versorgen Coober Pedy endlich fünf Tage am Stück mit Strom! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Vorstellung einer Theorie der historischen globalen Wolken-Bedeckung

veröffentlicht.
Vorschau ansehen

Charles Blaisdell, PhD ChE

Abstract

Die Verdunstungsrate (Masse/Zeit/Fläche) von Wasser aus den Ozeanen ist höher als die von Land (2,4-fach). Diese Verdunstungsrate von Land umfasst Wasser aus der Vegetation, dem Boden und dem Tau sowie flüssiges Wasser und wird als Evapotranspiration (ET) bezeichnet. Die globale jährliche ET(ga)-Rate der Ozeane ist relativ konstant, während sich die Rate des Landes mit lokalen Veränderungen der Evapotranspiration ändern kann. Aufgrund dieses Unterschieds zwischen Ozean und Land hängt die globale jährliche ET(ga) der Erde von der Größe des Landes und/oder der Fläche des Landes unter dem Sonnenzenit ab (beides ändert sich derzeit nicht). Historisch gesehen sagen Wissenschaftler, dass sich die Größe des Landes und die Achse tatsächlich verändert haben. Dieser Aufsatz stellt eine Theorie vor, die alle drei Ursachen für die Veränderung der ET(ga) der Erde berechnet und aufzeigt, was mit dem Wolkenanteil und der Temperatur der Erde geschehen sein könnte.

Es wird eine sigmoidale Beziehung zwischen dem Wasserdampfdruckdefizit, VPD(ga), der globalen jährlichen Enthalpie, En(ga), und dem globalen jährlichen Wolkenanteil, CF(ga), vorgeschlagen. Ein Modell zeigt mögliche globale Temperaturänderungen aufgrund von Veränderungen der Landmasse der Erde, der Achse, der lokalen ET und Kombinationen aller drei Faktoren.

Ein psychrometrisches Diagramm veranschaulicht die zweistufige Berechnung in diesem natürlichen Klimawandelprozess, um die komplexe Mathematik besser zu verstehen.

Introduction

Die vier grundlegenden Variablen der Atmosphärenwissenschaft sind Temperatur, spezifische Feuchte (SH), Druck und Strahlung. Die ersten drei Variablen werden im Clausius-Clapeyron-Gesetz verwendet, um ihre Energie (Enthalpie, En) und ihre relative Feuchte (RH) usw. zu beschreiben. Auf globaler Tagesbasis unterliegen diese Variablen starken Schwankungen und werden als Wetter bezeichnet. Auf globaler Jahresbasis beruhigt sich die Lage, sodass sich außer dem Klimawandel kaum etwas ändert. Das Clausius-Clapeyron-Gesetz gilt sowohl für tägliche als auch für globale Jahresdaten und lässt sich in einem psychrometrischen Diagramm veranschaulichen, das diese komplizierte Beziehung etwas vereinfacht.

In der wissenschaftlichen Gemeinschaft herrscht Einigkeit darüber, dass der Wolkenanteil die größte Unsicherheit bzgl. des Klimawandels darstellt. Der Wolkenanteil der Erde (etwa 60 %) reflektiert etwa 50 % der Sonnenstrahlen. Vor etwa 1980 konnten kaum Veränderungen des Wolkenanteils beobachtet oder gemessen werden; man ging davon aus, dass der globale Wolkenanteil konstant sei. Satellitendaten seit etwa 1980 deuteten darauf hin, dass der Wolkenanteil möglicherweise abnimmt. Es wurde eine Theorie der „Cloud Reduction Global Warming“ (CRGW) (8) vorgeschlagen, um zu zeigen, wie eine natürliche Abfolge miteinander verbundener atmosphärischer Prozesse die Verringerung der Bewölkung erklären und den beobachteten Temperaturanstieg, den Anstieg der spezifischen Feuchte sowie den Rückgang der relativen Feuchte begründen kann.

Aus der Temperatur und der spezifischen Feuchtigkeit (SH) lässt sich das globale jährliche Dampfdruckdefizit (VPD(ga)) berechnen (8). VPD(ga) ist ein Wert, der angibt, wie nahe die Wasserkonzentration in der Atmosphäre am Taupunkt liegt, wobei Null dem Taupunkt entspricht (hohe Wahrscheinlichkeit für Wolkenbildung) und je größer der Wert ist, desto unwahrscheinlicher ist es, dass sich irgendwo auf der Erde Wolken bilden.

Die Messung des Wolkenanteils, CF(ga), umfasst teilweise bewölkten Himmel, hohe, dünne Wolken, stark reflektierende Regenwolken und viele andere Wolkentypen mit unterschiedlichem Reflexionsgrad. Die Enthalpie, En(ga), ist ein besserer Indikator für die Nichtreflexion und korreliert zudem mit CF(ga). VPD(ga) im Vergleich zu En(ga) ist nicht mit den Einschränkungen von CF(ga) behaftet und wird im Modell verwendet. Es hat sich gezeigt, dass die Gesamtenthalpie der Atmosphäre gleich der ausgehenden Langwellenstrahlung ist (10) und in allen Höhenlagen, einschließlich der Oberflächendaten, proportional zur ausgehenden Langwellenstrahlung ist, siehe (10). Darüber hinaus ist ET(ga) proportional zu SH(ga), sodass eine Änderung von ET(ga) einer Änderung von SH(ga) entspricht und umgekehrt.

Trenberth et al. (2011) (12) dokumentieren die jährliche Gesamtwasserverdunstung (Abbildung 9 in (12)) aus den Ozeanen mit 413 (1000 km³/Jahr) und vom Land mit 73 (1000 km³/Jahr). Die Ozeandaten umfassen Eis und Wolken (62 %) (sowohl Ozeane als auch Land). Diese Messungen lassen sich in ET(ga) pro Einheit der Erdoberfläche umrechnen (1141 (mm/Jahr/% der Erde) für Ozeane und 494 (mm/Jahr/% der Erde) für Land), was einer 2,4-mal höheren ET-Rate der Ozeane entspricht. Dieser Unterschied in der ET von Ozeanen und Land bedeutet, dass jede Veränderung der Landfläche der Erde, des prozentualen Anteils an Land unter dem Sonnenzenit oder einfach nur der Land-ET gemäß der CRGW-Theorie die globale Temperatur verändern kann. Dieser Unterschied zwischen Ozeanen und Land wurde in (18) beobachtet.

Das Modell

Es handelt sich hierbei um ein Modell nach den Grundprinzipien und nicht um ein statistisches Modell, das das Verständnis der vorgeschlagenen Theorie veranschaulichen soll.

Das Modell geht von einem Referenzjahr aus, da ET(ga) und SH(ga) proportional zueinander sind und daher einen konkreten Ausgangspunkt benötigen (NOAA-Daten zwischen 1975 und 2024). Als Nächstes wird eine Fallstudie aus einer der folgenden Optionen oder einer Kombination davon ausgewählt: 1. Änderung der Landfläche, 2. Änderung der Achsenverschiebung des Landes unter dem Sonnenzenit, 3. Änderung der ET des Landes. Jede Fallstudie berechnet die Änderung der ET(ga) (pro Jahr pro Flächeneinheit der Erdoberfläche) ausgehend von den oben genannten ET-Werten für Ozean (und Eis) und Land (1141 und 494). Die Berechnungen finden Sie im beigefügten Excel-Modell. Tabelle 1 enthält einige Fallbeispiele aus dem Modell. Tabelle 2 enthält die Eingabeparameter und die berechneten ET(ga)-Werte.

Das Modell verwendet aus dem Clausius-Clapeyron-Gesetz abgeleitete psychometrische Gleichungen (siehe (8) für die Gleichungen) und eine sigmoidale Kurve von VPD(ga) gegen Enthalpie, En(ga). Die Strategie des Modells folgt dem in den Abbildungen 1 und 4 dargestellten Pfad. Dieser Pfad folgt der adiabatischen (konstante En) Linie bei steigender ET (SH) (nach links) oder sinkender ET (SH) (nach rechts) bis zum Punkt der SH(ga)-Änderung. Anschließend folgt die Linie mit konstanter VPD(ga) bis zu dem in Abbildung 2 vorhergesagten En(ga). (Folgen Sie VPD(ga) nach oben für den Pfad mit abnehmendem SH, nach unten für den Pfad mit zunehmendem SH), siehe Abbildung 4 für eine vergrößerte Ansicht des Pfades.

In Abbildung 2 zeigt der mittlere Teil des Diagramms NOAA-Daten aus (15) für den Zeitraum von 1975 bis 2024. Die oberen und unteren Asymptoten (vollständige Bewölkung und wolkenfreier Himmel, En(ga)) wurden anhand von Albedodaten von Dubal (16) und Loeb (17) berechnet, die auf bekannte Enthalpiedaten (bereinigt um Meeres- und Landflächen) normiert wurden; alle Daten stammen aus dem gleichen Jahr. Die Parameter in der sigmoidalen Gleichung wurden dann (durch Ausprobieren) an die Daten angepasst (20). Besonderes Augenmerk wurde darauf gelegt, dass die sigmoidale Anpassung mit den linearen NOAA-Daten übereinstimmt. Die sigmoidale Kurve ermöglichte es dem Modell, außerhalb des engen NOAA-Bereichs der VPDs zu arbeiten.

Abbildung 1. Psychrometrische Tabelle, die den zweistufigen Prozess der CRGW-Theorie veranschaulicht.

Abbildung 2. Sigmoidale Anpassung der kombinierten NOAA- und CERES-Daten.

Das bemerkenswerte Ergebnis dieses Modells ist, dass ein anfänglicher Rückgang der ET(ga) der Erde zu einem Anstieg der ET(ga) führt. Dieses Verhalten lässt sich im psychrometrischen Diagramm beobachten, wo die SH(ga) zunächst (bei einem negativen Wert von -ET(ga)) auf der adiabatischen En-Linie abnimmt und dann auf der Linie mit konstanter VPD gemäß Abbildung 2 wieder steigt. Der CRGW-Klimawandel ist ein zweistufiger mathematischer Prozess, bei dem die im ersten Schritt verbrachte Zeit gerade lang genug ist, um eine neue VPD zu etablieren und damit die Anpassung des Wolkenanteils einzuleiten. (Psychrometrische Diagramme werden von HLK-Technikern zur Auslegung von Klimaanlagen verwendet; dies ist das erste Mal, dass konstante VPD-Linien in ein psychrometrisches Diagramm aufgenommen wurden, um den Klimawandel zu erklären, siehe Abbildung 4). Der zweistufige Prozess vollzieht sich in jährlichen Zyklen und hinterlässt eine Datenspur auf einer Diagonalen mit dem zweistufigen Verlauf vom Startpunkt zum Endpunkt; wenn die Änderung der ET + oder – ist oder keine Änderung vorliegt, liegen die beobachteten Daten auf der diagonalen Linie. An beiden Enden des sigmoidalen Graphen kann sich dies ändern. Am Ende des zweistufigen Verlaufs müssen die resultierende Temperatur und SH(ga) durch eine Konvergenzroutine berechnet werden, da die psychrometrische Gleichung gemischte Funktionen (logarithmisch und linear) enthält. Siehe beigefügtes Modell für die Gleichungen.

Die VPD(ga) im Vergleich zum Wolkenanteil ist ebenfalls ein sigmoidaler Graphen, siehe Abbildung 3.

Abbildung 3. Sigmoidkurve von VPD im Vergleich zum Wolkenanteil.

Abbildung 4. Verläufe der Veränderung von +/- ET(ga) im Modell.

Andere Modell-Variablen

Plumes entstehen über heißem Land, erreichen die Wolkenhöhe und können sich ausbreiten, sodass sie Gebiete bedecken, die größer sind als die Fläche, von der sie stammen, einschließlich der Ozeane. Je heißer es ist, desto weiter breiten sie sich aus. Plumes mit niedrigem SH verzögern die Wolkenbildung (wie ein schwarzer Parkplatz). Plumes mit hohem SH können Wolken bilden (wie ein Kühlturm). Weitere Informationen zu Plumes finden Sie unter (6). Das Modell verwendet Plume-Faktoren von 1x bis 4x. Über globale Plumes gibt es kaum Forschungsergebnisse, abgesehen davon, dass wir wissen, dass sie existieren. Das Modell zeigt, dass Plume-Faktoren einen großen Einfluss auf die globale Temperatur haben können. Die Plume-Faktoren sind auf 1x für Fälle mit Landflächen festgelegt auf 2x für Land unter dem Zenit der Sonne (wegen der erwarteten wärmeren Luft) und auf 4x für spezielle Parzellen, bei denen größere Plumes erwartet werden (siehe (6)). Das Modell wendet den Plume-Faktor auf die gesamte Erde an.

Die ET (Evaporative Transpiration) von speziellen Parzellen wie UHIs (Urban Heat Islands), Landnutzungsänderungen wie von Wald zu Ackerland oder Tagebau – siehe (8) für weitere Informationen zu speziellen Parzellen – wurde auf der Grundlage von Daten von Mazrooei et al. (2021) (19) geschätzt. ET-Änderungen von +10 bis -50 können verwendet werden.

Die Größe der Sonderparzellen wird auf etwa 5 bis 15 % der gesamten Landmasse der Erde geschätzt und nimmt zu, siehe (19) und (7) für weitere Informationen hierzu.

Nicht im Modell

Schwankungen der Sonneneinstrahlung auf die Erde. Das hätte man leicht hinzufügen können, hat es aber nicht getan.

Vulkane haben ebenfalls historische Auswirkungen auf das Klima, diese scheinen jedoch nur von kurzer Dauer zu sein. Mathematische Ansätze wie in diesem Aufsatz könnten auf die Auswirkungen von Vulkanen auf das Klima anwendbar sein. Feuchte Vulkane (solche, deren Ausstoß viel Wasser enthält) kühlen die Erde ab. Trockene Vulkane (solche, deren Ausstoß nur heißes Gas enthält) lassen Wolken sich auflösen.

Die klimatischen Auswirkungen von CO₂ werden in diesem Aufsatz zwar nicht behandelt. Der Anstieg oder Rückgang von CO₂ kann jedoch ein Indikator für Veränderungen der ET(ga) durch die Vegetation sein. Sinkende CO₂-Werte deuten darauf hin, dass die Vegetation die ET(ga) erhöht (mehr Wolken, kühler), und umgekehrt. Aktuelle Messungen der CO₂-Konzentration zeigen Schwankungen des CO₂-Gehalts im Laufe der Vegetationsperioden.

Modell-Ergebnisse

Die Fallstudien in den Tabellen 1, 2 und 3 zeigen, dass die Temperatur der Erde sehr empfindlich auf die Achsenneigung und die Landfläche reagiert. Dies geht so weit, dass Gletscher durch Veränderungen der Landfläche, die sich im Zenit der Sonne befindet (Achsenneigung), zum Wachsen oder Schrumpfen angeregt werden könnten (siehe (11)), oder durch Veränderungen der Landfläche insgesamt. Beides könnte durch Veränderungen der Vegetation verstärkt werden.

Der Anstieg der ET(ga) durch eine Verringerung der Bewölkung scheint mit dem Verhältnis der ET-Rate der Ozeane zur ET-Rate des Landes zusammenzuhängen; bei den aktuellen Daten beträgt dieses Verhältnis 2–3 : 1.

Das historische Auf und Ab der Gletscher lässt sich mit einer Reihe von Fällen wie den folgenden in Verbindung bringen: Ausgehend von den heutigen Bedingungen dreht man die Erde so, dass weniger Landfläche der Erde der Sonne ausgesetzt ist (mehr Wolken), wodurch sich die Erde abkühlt. Die Vegetation der Erde wird in der Nähe des Sonnenzenits tropischer; (mehr Wolken) die Erde kühlt stärker ab. Gletscher wachsen, Ozeane schrumpfen, mehr Land taucht auf, CO₂ nimmt ab. Schließlich ist genug Land entstanden, so dass die globale ET zunimmt (weniger Wolken). Die Erde dreht sich zurück, sodass wieder mehr Land unter dem Sonnenzenit liegt (weniger Wolken). Die Erde wird weniger tropisch (weniger Wolken) und die Gletscher beginnen zu schmelzen, der Meeresspiegel steigt und die Erde kehrt zu fast den heutigen Bedingungen zurück.

Das Hinzufügen von Wasser zur Atmosphäre könnte das Klima auf die Bedingungen von 1975 zurückbringen, aber es ist sehr viel Wasser.

Machen Sie sich über keinen dieser Fälle Sorgen, sie werden zu unseren Lebzeiten nicht eintreten!

Diskussion

Warum wurde diese Theorie nicht schon früher entdeckt (oder hat sie jemand bereits vorgeschlagen, und der Autor hat sie nur nicht gefunden)? Die Antwort könnte einfach sein: In der Vergangenheit waren Veränderungen der Bewölkung nicht erkennbar. Der aktuelle Klimawandel hat uns die Augen für die mögliche Existenz dieser natürlichen Theorie geöffnet, die darauf wartete, entdeckt zu werden.

Diese Erweiterung der CRGW-Theorie soll ein mögliches Instrument zur Untersuchung historischer Klimaveränderungen sein, um zu erforschen, wie sich der Wolkenanteil im Laufe der Zeit mit den Veränderungen der Erde verändert hat und wie sich zukünftige Veränderungen der Landmasse der Erde auf den Wolkenanteil auswirken könnten.

An die Wissenschaftler, die die Veränderungen der Erde im Laufe der Zeit untersuchen: Wie gut passt diese Theorie zu möglichen historischen Klimaveränderungen im Vergleich zu den Veränderungen der Landmasse der Erde?

Danke, Anthony, für die Förderung der Vielfalt des Denkens.

Bibliographie

            Studien des Autors:

  1. Where have all the Clouds gone and why care? – Watts Up With That?
  2. CO₂ is Innocent but Clouds are Guilty.  New Science has Created a “Black Swan Event”** – Watts Up With That?
  3. More on Cloud Reduction.  CO₂ is innocent but Clouds are guilty (2023). – Watts Up With That?
  4. An Unexplored Source of Climate Change: Land Evapotranspiration Changes Over Time. – Watts Up With That?
  5. VPD, Vapor Pressure Deficit a Correlation to Global Cloud Fraction? – Watts Up With That?
  6. Soundings, Weather Balloons, and Vapor Pressure Deficit – Watts Up With That?
  7. Not that ET!  The Terrestrial ET: EvapoTranspiration, the Unexplored Source of Climate Change – Watts Up With That?
  8. CRGW 101.  A Competitive Theory to CO₂ Related Global Warming – Watts Up With That?
  9.  More Evidence on Vapor Pressure Deficit, Cloud Reduction, and Climate Change – Watts Up With That?
  10. Can Annual Irradiance = Annual Enthalpy? If So, What Does It Show About Climate Change – Watts Up With That?
  11. Slicing the earth to study Cloud Fraction and VPD. – Watts Up With That?

Bibliographie Fortsetzung

  1. Atmospheric Moisture Transports from Ocean to Land and Global Energy Flows in Reanalyses (2011) by Kevin E. Trenberth, John T. Fasullo, and Jessica Mackaro web link Atmospheric Moisture Transports from Ocean to Land and Global Energy Flows in Reanalyses in: Journal of Climate Volume 24 Issue 18 (2011)
  2. “HUMIDITY CONVERSION FORMULAS” by Vaisala Oyj (2013) web link Humidity_Conversion_Formulas_B210973EN-F (hatchability.com)
  3. Climate Explorer web site Climate Explorer: Select a monthly field (knmi.nl) .
  4. Physical Science Laboratory Monthly Mean Timeseries: NOAA Physical Sciences Laboratory
  5. “Radiative Energy Flux Variation from 2001–2020” (2021) by Hans-Rolf Dübal and Fritz Vahrenholt web link: Atmosphere | Free Full-Text | Radiative Energy Flux Variation from 2001–2020 | HTML (mdpi.com)
  6. Norman G. Loeb,Gregory C. Johnson,Tyler J. Thorsen,John M. Lyman,Fred G. Rose,Seiji Kato web link Satellite and Ocean Data Reveal Marked Increase in Earth’s Heating Rate – Loeb – 2021 – Geophysical Research Letters – Wiley Online Library
  7. Figure 4 in 5 above and Met Office Climate Dashboard web Link Humidity | Climate Dashboard (metoffice.cloud)
  8. . “Urbanization Impacts on Evapotranspiration Across Various Spatio-Temporal Scales” (2021) by Amir Mazrooei, Meredith Reitz, Dingbao Wang, A. Sankarasubramanian web link Urbanization Impacts on Evapotranspiration Across Various Spatio‐Temporal Scales – Mazrooei – 2021 – Earth’s Future – Wiley Online Library
  9. StackOverlow Q and A scipy – Fit sigmoid function (“S” shape curve) to data using Python – Stack Overflow

Link: https://wattsupwiththat.com/2026/04/08/proposed-theory-of-historical-global-cloud-cover/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Vorstellung einer Theorie der historischen globalen Wolken-Bedeckung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Ölpreise stürzen nach Trumps Ankündigung eines Waffenstillstands ab

veröffentlicht.
Vorschau ansehen

DCNF, Benjamin Roberts, Redakteur,

Die Ölpreise fielen deutlich unter 100 Dollar, nachdem Präsident Trump am Dienstagabend einen Waffenstillstand im Iran-Krieg verkündet hatte.

Der globale Referenzpreis für Rohöl der Sorte Brent fiel am Mittwoch zum Handelsbeginn von 111 auf 91 US-Dollar. Die US-amerikanische Sorte West Texas Intermediate (WTI) sank um fast 20 % auf 92 US-Dollar.

Die Preise für Brent-Rohöl schossen unmittelbar nach der Operation Epic Fury in die Höhe und stiegen innerhalb eines Monats von 70 auf über 110 US-Dollar. Laut AAA stiegen die Benzinpreise in den USA von 2,98 auf über 4,10 US-Dollar pro Gallone, da die iranischen Vergeltungsmaßnahmen die Straße von Hormus und den globalen Ölhandel lahmlegten.

Der starke Ölpreisverfall könnte sich fortsetzen, wenn die Waffenruhe aufrechterhalten und ein dauerhaftes Abkommen erzielt wird. Für jede 10-Dollar-Senkung des Brent-Preises sinkt der US-Benzinpreis um etwa 24 Cent pro Gallone. Sollte der Konflikt jedoch wieder aufflammen, könnte der Brent-Preis erneut auf frühere Höchststände steigen.

Der Preis für Brent-Rohöl fiel mitten im Krieg unter 100 US-Dollar, nachdem Trump einen vorübergehenden Stopp der US-Angriffe auf iranische Energieanlagen angekündigt hatte . Im Zuge der anhaltenden Auseinandersetzung rechnen Experten mit weiter instabilen Kursen. [Ob sich bei sinkenden Einkauspreisen auch die Kosten für Verbraucher an den Tankstellen ändert, ist wohl eher unklar  – detr Übersetzer.]

https://dailycaller.com/2026/04/08/brent-west-texas-intermediate-crude-futures-oil-prices-trump-iran-israel-ceasefire/

Der Beitrag Ölpreise stürzen nach Trumps Ankündigung eines Waffenstillstands ab erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Wird man aus dem Blackout in Spanien lernen?

veröffentlicht.
Vorschau ansehen

Sozialisten wollen die heilige Kuh „Erneuerbare“ aus dem Schußfeld nehmen

von Edgar L. Gärtner

Bald begehen wir in Europa einen unrühmlichen Jahrestag. Am 28. April vor einem Jahr ging auf der iberischen Halbinsel um die Mittagszeit fast gar nichts mehr. Aufzüge und Beleuchtungen in Hochhäusern, Klimaanlagen, Operationssäle in Krankenhäusern und andere lebenswichtige Anlagen warn plötzlich ohne Strom. Der Blackout hielt fast zwölf Stunden an und forderte nach seriösen Schätzungen an die 150 Menschenleben, was die sozialistische Regierung Spaniens unter Pedro Sánchez in dieser Höhe nicht bestätigen will. Die Fachleute sprechen vom folgenreichsten Stromausfall in Europa seit 20 Jahren. (Ich habe im vergangenen Jahr hier bei EIKE darüber berichtet.)

Was war passiert? An diesem sonnenreichen Frühlingstag war die Leistung der inzwischen in Spanien Landschaften prägenden großflächigen Fotovoltaik-Anlagen, die größtenteils nicht regelbar sind, gegen Mittag auf fast 18.000 Megawatt hochgeschnellt. Das waren über 60 Prozent des damaligen gesamten spanischen Strombedarfs. Gleichzeitig trugen dort Windkraftanlagen zu über 12 Prozent zur Elektrizitätsproduktion bei – mehr als die wenigen im Betrieb verbliebenen Kernkraftwerke, deren Anteil nur noch 11,6 Prozent erreichte. Hinzu kamen noch über 5 Prozent thermische Solarenergie und einige Wasser- und Gaskraftwerke. Doch um 12h23 brach das Netz zusammen.

Entscheidend für den Zusammenbruch des Elektrizitätsnetzes war nach Ansicht André Merlins, des Gründungs-Direktors des französischen Netzbetreibers RTE, der übermäßige Anteil ungeregelter Photovoltaik. Denn um im Netz Platz zu schaffen für den kurz vor Mittag exponentiell ansteigenden Solarstrom, regelten die Ingenieure die verbliebenen Gas- und Wasserkraftwerke und möglicherweise auch die Kernkraftwerke maximal herunter. Doch dann kam es im Netz zu heftigen Fluktuationen von Frequenz und Spannung und in deren Folge zu einem plötzlichen Leistungsabfall. Die verbliebenen rotierenden trägen Massen der Generatoren der Kern-, Wasser- und Gaskraftwerke konnten diesen Leistungsausfall der großflächigen Solarkraftwerke nicht abfangen. Das von der Vereinigung der europäischen Elektrizitäts-Transportnetz-Betreiber ENTSO-E erst im März 2026 in einem dicken Bericht mit großer Verspätung publizierte Diagramm zeigt, was am 28. April 2025 passiert ist.

von ENTSO-E

Diese von ENTSO-E gelieferte Grafik zeigt, dass der überproportional hohe Anteil ungeregelter Photovoltaik im spanischen Strommix bei schnellen Leistungsschwankungen nur begrenzt durch regelbare Kraftwerke und rotierende Massen stabilisiert werden kann.

Dieses Diagramm lässt zwei unterschiedliche Interpretationen zu, die aber beide zeigen, dass der übergroße Solaranteil am spanischen Strom-Mix für den Zusammenbruch des Netzes verantwortlich war. Um die „Erneuerbaren“ aus dem Schussfeld zu nehmen, wiesen Pedro Sanchéz und seine Getreuen auf das plötzliche Aufkommen von Wolken und die damit verbundene Frequenz- und Spannungsfluktuation hin. Manche gingen dabei gar so weit, den Klimawandel dafür verantwortlich zu machen. Als Abhilfe hat die sozialistische Regierung folglich Investitionen in Stromspeicher von fast einer Milliarde Euro angekündigt.

Eine Enquête des spanischen Senats bestätigte dagegen zwar den raschen Wechsel von Frequenz und Spannung um die Mittagszeit, wies aber anhand des ENTSO-E-Reports darauf hin, dass das zu geringe Gewichtl der Trägheit rotierender Massen für den Zusammenbruch des spanischen Elektrizitätsversorgungsystems verantwortlich war. Dem könnten nur Investitionen in nukleare und fossile Kraftwerke abhelfen. Das mühsame Wiederhochfahren des spanischen Netzes erfolgte in der Tat mithilfe der Einspeisung französischen Nuklearstroms über die Kopplungsstelle im Baskenland und eine zweite Kopplungsstelle in Katalonien. Auf sich gestellt hätten die Spanier dafür viel länger gebraucht.

Den unbezweifelbaren Beleg für die zweite Erklärung lieferte schließlich die Aufzeichnung der Dialoge zwischen den Dispatchern des spanischen Netzbetreibers Red Electrica de España (REE), die gegen den Widerstand der Sozialisten vom spanischen Parlaments-Magazin Demócrata veröffentlicht und vom spanischen Senat übernommen wurden. Spanien müsste danach wieder zurückkehren zu einem System der Elektrizitätsversorgung, dessen Rückgrat herkömmliche Kraftwerke mit Generatoren bilden.

Am 28. Januar dieses Jahres geriet das spanische Stromnetz schon wieder an den Rand des Zusammenbruchs, als der herannahende Orkan „Kristin“ die rasche Abschaltung aller Windräder notwendig machte. Durch den Vorfall Ende April 2025 vorgewarnt, fuhren die Dispatcher rechtzeitig Gasturbinen und koppelten industrielle Großverbraucher ab. Im Vergleich zur herkömmlichen Elektrizitätsversorgung mithilfe von Großkraftwerken bleibt das System der „Erneuerbaren“ also höchst störanfällig.

Dennoch setzen die Regierungen von Spanien, Frankreich und Deutschland weiterhin auf den massiven Ausbau der „Erneuerbaren“. Angesichts der durch den Krieg gegen den Iran heraufbeschworenen Energiekrise verbreiten sie mit Nachdruck die Illusion, damit die Abhängigkeit von Öl und Gas aus dem Nahen Osten oder aus Rußland verringern zu können. Zwar hat Ursula von der Leyen als Präsidentin der EU-Kommission vor wenigen Wochen öffentlich den Ausstieg aus der verläßlichen und sauberen Kernenergie bedauert. Aber die EU-Kommission fährt fort, dem französischen Staatskonzern EDF auf Druck der schwarzroten deutschen Bundesregierung bei der Finanzierung des Baus neuer Kernreaktoren Steine in den Weg zu legen. Und sie hat noch immer nicht entschieden, das Fracking der eigenen bedeutenden Schiefergasvorräte zuzulassen. Stattdessen versucht man, den Europäern Gasheizungen zu verbieten. So bleibt es bis auf Weiteres offen, ob Westeuropa aus dem tödlichen Blackout vom 28. April 2025 wirklich etwas lernen wird.

Der Beitrag Wird man aus dem Blackout in Spanien lernen? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

„Zweifel am Verstand“, ein Urteil über Deutschland

veröffentlicht.
Vorschau ansehen

Dr. Lutz Niemann

Als die Regierung Schröder / Fischer im Jahre 2000 die Energiewende mit dem Ausstieg aus der Kernenergie den Umstieg auf Sonne und Wind einleitete, schrieben die beiden Professoren Heinz Maier-Leibnitz und Elisabeth Noelle-Neumann ein Büchlein mit dem Titel „Zweifel am Verstand“. In den weiteren Jahren gab es weitere ähnliche Bezeichnungen für Deutschlands Verhalten – Schwachsinn, Deppenvolk, Hirnabschaltung, Blödland. Meine Sammlung enthält inzwischen ca. 20 verschiedene Bezeichnungen. Daraus ist besonders zu erwähnen „sind Bekloppte“ von Sigmar Gabriel. Das zeigt: natürlich wissen auch Politiker, daß Deutschlands Ausstieg aus seiner sicheren Stromversorgung wirtschaftlicher Selbstmord bedeutet. Warum machen sie es dennoch? – das bleibt ein Geheimnis.

In 2011 sprang auch die CDU/CSU unter der Leitung von Frau Merkel auf diesen Zug auf und wollte ebenfalls die Kernenergie weghaben. Die gesamte CDU/CSU folgte dem Beschluß der Chefin. Dabei ist 2011 in Fukushima nichts besonders Schlimmes passiert. Es wurden einige Außenmauern des Kernkraftwerkes durch Wasserstoffexplosionen zerlegt, aber alle Reaktoren blieben heil und nur wegen der Kernschmelzen musste Druck abgelassen und so wurde Radioaktivität freigesetzt.

Nun aber will Deutschland seine Energieversorgung auf hoch explosiven Wasserstoff umstellen, der in Fukushima das Kernkraftwerk zerlegte. Wo bleibt da der Verstand?

Und wie gefährlich ist die Strahlung von einem Kernkraftwerk?

Es gibt Grenzwerte, und solch ein Grenzwert wird von den Menschen als Grenze zwischen gefährlich und harmlos gesehen. In Kernkraftwerken gibt es einen Grenzwert für die zusätzliche Strahlendosis von einem Milli-Sievert über das Jahr verteilt.

Da nur wenige Fachleute etwas damit anfangen können, ist ein für alle Menschen verständlicher Vergleich nützlich. Dazu nehmen wir Alkohol, das kennt jeder. Die tödliche Dosis ist eine oder zwei Flaschen Hochprozentiges, wenn diese tödliche Dosis innerhalb von kürzester Zeit hinuntergekippt wird. Aber es ist harmlos, wenn diese tödliche Dosis über das Jahr gleichmäßig verteilt wird.

Übertragen wir das auf Strahlung: Bei Radioaktivität bedeutet der Grenzwert von einem Milli-Sievert/Jahr weniger als einem Tausendstel der tödlichen Dosis über das Jahr verteilt. Das kann keine Gefahr sein, das ist harmlos — nur verstehen die Menschen die Zusammenhänge nicht. Der Grenzwert von einem Milli-Sievert/Jahr bei Radioaktivität gaukelt eine nicht vorhandene Gefahr vor.

Um eine nicht vorhandene Gefahr zu vermeiden, steigt Deutschland sogar aus seiner Stromversorgung aus, will offenbar zurück ins Mittelalter. Wo bleibt da der Verstand?

Die Grenzwerte, zu deren Einhalt in Kernkraftwerken riesige Geldbeträge ausgegeben werden müssen, werden im Flugverkehr vom fliegenden Personal durch die Höhenstrahlung jedes Jahr um das Doppelte bis Zehnfache überschritten. Es ist daher ein Paradigmenwechsel im Strahlenschutz erforderlich, so schrieb es Prof. Klaus Becker in der Fachzeitschrift StrahlenschutzPRAXIS.

Aber die Fachzeitschrift StrahlenschutzPRAXIS wird nur von den Fachleuten gelesen. Und bei Strahlung werden die Grenzwerte von Politikern festgelegt, die vom Thema „Radioaktivität und Gesundheit“ keine Ahnung haben

Ein anderes in Deutschland verschwiegenes Thema

Dazu vergleichen wir wieder mit Alkohol, denn Alkohol ist giftig, kanzerogen, teratogen, brennbar, kann mit Luft explosive Gemische bilden — Alkohol hat viele schädliche Eigenschaften. Aber Alkohol hat bei kleiner Dosis auch nützliche Eigenschaften, und das genießen die Menschen.

Auch Strahlung von Radioaktivität ist in geringer Dosis und bei geringer Dosisleistung gut für die Gesundheit von Lebewesen, weil die Strahlung das Immunsystem anregt. Das äußert sich in besserer Gesundheit, Lebensdauerverlängerung, weniger Krebs, weniger genetische Defekte. Eine zusätzliche Strahlendosis, wie sie in Kernkraftwerken laut Gesetz vermieden werden muß, kann niemals schädlich sein, wie auch das zitierte Glas Schnaps bei Verteilung über ein ganzes Jahr niemals schädlich sein kann. Die positive Wirkung einer kleinen Strahlendosis ist sicher nachgewiesen und in der Strahlenschutz-Fachwelt bekannt. Nur in Deutschland wird darüber nicht geredet. Die arbeitenden Menschen in Deutschlands Kernkraftwerken glauben an die hypothetischen Strahlengefahren, die vom unwissenden Gesetzgeber vorgegaukelt werden, denn in ihrer Ausbildung haben sie von der Strahlengefahr lernen müssen. Man muß englisch sprachige Literatur zur Hand nehmen [1] bis [4] mit weit über1000 dort zitierten Originalarbeiten, um etwas von den positiven Strahlenwirkungen zu erfahren. Ein deutsches Lehrbuch ist diesbezüglich ein Leerbuch [5].

Die Strahlendosis von 1 mSv bedeutet, daß jede Zelle vom Körper eines Menschen von einer Strahlenspur getroffen wird, was als ein Training des Immunsystems der Zelle bedeutet. 1 mSv/Jahr bedeutet also für jede Zelle ein Training pro Jahr, und das kann keinen Effekt haben wie vom Sport bekannt ist (siehe hier). T.D. Luckey, M. Doss, W. Allison, C.L. Sanders geben Empfehlungen für optimale Dosis zum Erreichen einer optimalen biopositiven Wirkung im Bereich von 60mSv/Jahr bis 3000mSv/Jahr, natürlich gleichmäßig über die Zeit verteilt.

Hoch droben in der Internationalen Raumstation ist der Strahlenpegel rund 1000-fach höher als unten auf der Erde. Bei Astromauten, die sehr lang Zeit in der Raumstation verbracht haben, soll ein positiver Effekt an den Telomeren festgestellt worden sein.

Mit dem Co-60-Ereignis von Taiwan gibt es durch einen glücklichen Zufall einen Menschenversuch mit 10 000 Personen über bis zu 20 Jahre mit sicherem Nachweis der nützlichen Strahlenwirkung.

Im Februar 2015 haben die Professoren Carol S. Marcus, Mark L. Miller und Mohan Doss an die Genehmigungsbehörde NRC (Nuclear Regulatory Commission) der USA eine Petition gerichtet mit der Bitte zur Korrektur der heute geltenden Prinzipien beim Umgang mit Strahlung. Die Petition hatte mit den dazu abgegebenen ca. 650 Kommentaren ein gewaltiges Echo in der Fachwelt der USA. Die NRC hatte die Existenz der biopositiven Wirkung von Strahlung anerkannt, jedoch als nicht zuständiges Gremium die Petition zurückgewiesen und die ICRP als zuständig benannt.

Es ist an der Zeit, nicht nur den Bau von Kernkraftwerken durch unsinnigen Strahlenschutz zu behindern, sondern auch die Ämter für Strahlenschutz abzuschaffen und das freiwerdende Personal zum Segen der Menschheit mit der Erforschung der biopositiven Wirkung der Strahlung zu beauftragen. Die Fachwelt und die Politik sind weltweit gefordert.

Die Realitätsverweigerung in Deutschland

Um den lebensnotwendigen Strom zur Verfügung zu haben, sind Kraftwerke erforderlich. Das sollte einzusehen sein. Zuerst wurden die Kernkraftwerke abgeschaltet und sogleich danach rückgebaut, obwohl diese keine Gefahr bedeuten — es war das Werk von Frau Merkel. Dann kamen als nächstes die Kohlekraftwerke an die Reihe mit dem Kohleverstromungsbeendigungsgesetz, obwohl es keinen Einfluß von CO2 auf die Physik der Atmosphäre gibt — auch das war das Werk von Frau Merkel. Alles soll in Deutschland durch Wind und Sonne ersetzt werden. Aber wenn es dunkel wird und wir Licht einschalten wollen, kann es keinen Solarstrom geben, das sollte einzusehen sein. Wenn dann auch der Wind Flaute hat, gibt es gar keinen Strom mehr, das nennt man Dunkelflaute. Dann sind wieder konventionelle Kraftwerke zur Versorgung notwendig, die aber längst zerstört sind oder deren Ende bereits per Gesetz festgelegt worden ist.

Diese Realität wird in Deutschland nicht zur Kenntnis genommen, fehlt es am Verstand?

Einige sehr persönliche Worte

Als Rentner hatte ich mich für die Kernenergie engagiert. Daher wurde ich von der örtlichen CSU angesprochen und mir der Eintritt in die Partei nahegelegt. Das habe ich gemacht, ich war etwa fünf Jahre CSU-Mitglied, ich bin aber nach der fatalen von Frau Merkel initiierten Entscheidung im März 2011 sofort wieder ausgetreten. Dem damaligen Generalsekretär Alexander Dobrinth der CSU habe ich meine Gründe in einem Brief erklärt. In einem Antwortbrief vom August 2011 schrieb Alexander Dobrinth, daß man „die Kernenergie als Brücke ins Zeitalter der erneuerbaren Energien betrachtet“. Versteht Herr Dobrinth die Situation bei einer Dunkelflaute nicht, fehlt es an Verstand?

In meinem Text habe ich meine Sätze zum „Zweifel an Verstand“ ganz bewusst als Frage formuliert. Nun bin ich der Meinung, daß nicht fehlender Verstand die Ursache für die falschen Entscheidungen zur Energieversorgung Deutschlands ist, sondern daß es das mit der Wahl an die Spitze eines 80-Millionen-Volkes verbundene gestiegene Selbstbewusstsein ist, daß zu einer Selbstüberschätzung der Führungspersönlichkeiten in der Politik geführt hat, immer alles richtig zu machen. Ferner fehlt das physikalische Verständnis zu Arbeit und Leistung im Bereich der Energieversorgung bei Strom, Wärme, Verkehr. In der Politik sind geschicktes demagogisches Reden notwendig, um Begeisterung beim Wähler zu erreichen — das ist das wichtigste Erfolgsrezept für politischen Aufstieg.

Die wirtschaftlichen Folgen für Deutschland

Durch die Vorrangeinspeisung des Flatterstromes von Wind und Sonne ab dem Jahr 2000 wurde der billige Strom der Kernkraftwerke von 2,4 ct/kWh ersetzt durch Strom von rund 50 ct/kWh. Das führte zu stetig steigenden Strompreisen. Wo in der Industrie der Strom zur Wärmeerzeugung gebraucht wird ist der Stromverbrauch sehr hoch und die höheren Strompreise machen diese Industrien konkurrenzunfähig. Insbesondere ist das in der Metallurgie der Fall. Es wurden in der Folge Fertigungen ins Ausland mit niedrigeren Stromkosten verlegt. Das dauerte einige Jahre, erst ab 2018 sank der Stromverbrauch in Deutschland deutlich. In 2025 war der Stromverbrauch in Deutschland von zuvor über 600 TWh um rund ein Drittel auf etwa 430 TWh gesunken. Das führte nicht sogleich zu merklich höherer Arbeitslosigkeit, inzwischen aber häufen sich die Meldungen über Massenentlassungen.

Das Industrieland Deutschland vergrault seine Industrie, wo bleibt das der Verstand?

Dazu einige Zahlen:

  • Die abgeschalteten Kernkraftwerke haben einen Neubauwert von 250 Mrd. EURO
  • Bei 10ct/kWh und der Hälfte unseres Stroms aus Wind und Sonne werden dafür pro Jahr mehr als 20 Mrd. EURO fällig, von Anbeginn bis heute liegen die Kosten der Energiewende bei weit über 500 Mrd. EURO
  • Die Kohlekraftwerke werden nach dem Kohleverstromungsbeendigungsgesetz abgeschaltet, Hamburg-Moosburg lief nur 5 ½ Jahre und kostete 3 Mrd. EURO, und es geht weiter damit.

Deutschland steigt aus seiner Stromerzeugung aus, Kernkraft ist schon weg, auch die Kohle soll verschwinden. Wegen Klimaschutz soll nur noch Erdgas verwendet werden. Das billige Erdgas aus Russland gibt es nicht mehr, die Pipeline durch die Ostsee wurde zerstört — wie das vollbracht werden konnte ist ein mit Schweigen belegtes Thema in Deutschland.

Die politischen Folgen für Deutschland

Die absolut schädliche Energiewende von Deutschland in Richtung zurück ins Mittelalter wurde 2011 mit dem Kernenergieausstieg durch die CDU/CSU endgültig zementiert, denn ALLE Parteien wollten das nunmehr. Daher gründete sich bald eine neue Partei, die als Kennzeichen gegen die von Frau Merkel betonte Alternativlosigkeit das Wort „Alternative“ im Namen trägt — die AfD. Beim politischen Streit wird der erste und hauptsächlichste Grund für diese Parteineugründung, nämlich der Ausstieg aus der gesicherten Stromversorgung unterschlagen. Es sei dem interessierten Bürger empfohlen, die Bundestagsdebatten unter www.bundestag.de selber zu verfolgen, sich also selber ein Urteil zu bilden anstatt der Propaganda der Meinungsmacher zu folgen.

Noch haben die Parteien im deutschen Bundestag eine Mehrheit, die sowohl den Ausstieg aus der Stromversorgung unseres Landes wie auch die Klimaideologie verfolgen. Aber es kommen Wahlen. Um die steigenden Stromkosten und die steigenden Heizkosten zu verheimlichen, wurde eine

  • Strompreisbremse (siehe) und
  • Erdgas-Wärme-Preisbremse

erfunden: Der über der jeweiligen Preisbremse liegende Geldbetrag für Strom und Gas muß nicht mehr vom Bürger bezahlt werden, sondern er wird vom Bund bezahlt. Der Bund ist kein Dukatenesel, er holt sich das Geld vom Bürger über Steuern oder „Sondervermögen“. Die Preisbremsen werden in den Medien nicht thematisiert, der Bürger findet darüber manchmal etwas in den Rechnungen der Stromanbieter und Heizgaslieferanten. Zur Selbstinformation ist unter www.bundestag.de die Suchfunktion zu benutzen. Für jede der beiden Preisbremsen sind jedes Jahr Beträge im 2-stelligen Milliardenbereich fällig — das ist ein weiterer Grund für die Abwanderung der Industrie.

Was gibt es Positives zu berichten?

Jedermann braucht Arbeit, um sich seinen Lebensunterhalt zu verdienen. Im Handwerk bei den Herstellern von Fenstern geht es voran und wird der Deindustrialisierung unseres Landes entgegengearbeitet. Es wird in Berliner Regierungskreisen in neue breitere Fenster investiert, damit das Geld gleichzeitig mit beiden Händen hinausgeworfen werden kann. So beschrieb Zippert in DIE WELT kürzlich den Fortschritt in Deutschland.

[1] „Radiation and Health“ by Thormod Henriksen and Biophysics group at UiO, frei im Internet

[2] W. Allison, „Nuclear is for Life, A Cultural Revolution“, ISBN 978-0-9562756-4-6, Nov. 2015

[3] „Underexposed – What if Radiation is Actually GOOD for You?“ By Ed Hiserodt, 2005

[4] Ch. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“ Springer-Verlag 2010

[5] Jürgen Kiefer, „Strahlen und Gesundheit“, WILEY-VCH Verlag, 2012

Der Beitrag „Zweifel am Verstand“, ein Urteil über Deutschland erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Die Temperaturreihen des Deutschen Wetterdienstes beim Monat März zeigen: Es gibt keinen wirksamen CO₂-Treibhauseffekt. Teil 2

veröffentlicht.
Vorschau ansehen

Von Josef Kowatsch, Matthias Baritz

  • Das Klima ändert sich immer, Klimawandel ist die Normalität.
  • Die Märzklimaerwärmung begann 1987 auf 1988 mit einem Temperatursprung von über einem Grad mit anschließender leichter Weitererwärmung.
  • Auch die sehr unterschiedlich verlaufenden T-Max/T-Min Temperaturen des DWD zeigen, eine CO₂-Beteiligung am neuzeitlichen Klimawandel ist nicht nachweisbar
  • Es gibt 8 Grunde dieses für uns angenehmen März-Klimawandels seit 1988
  • Das Leben auf diesem Planeten ist auf CO₂-aufgebaut, wir brauchen mehr CO₂ in der Atmosphäre und nicht weniger.

Die letztjährige Schreckensmeldung der bezahlten Klimalügenwissenschaft lautete: März 2025 war in Europa der wärmste aller Zeiten und weltweit der 2.wärmste. siehe hier!

Bisher hat sich Copernicus zum März 2026 noch nicht geäußert, nur immer wieder lapidar behauptet, die Klimaerwärmung würde sich fortsetzen. Warten wir, was Copernicus diesmal orakeln wird.

Im Teil 1 betrachteten wir den Zeitraum ab 1893 bis heute, also 134 Jahre März einst im Kaiserreich bis heute und unterteilten die Märzgrafik in 2 Abschnitte, vor 1988 und danach. Aus zwei Gründen: Zum einen trat der selbst ernannte Weltklimarat mit seinen CO₂-Erwärmungsverheißungen zum ersten Male 1988 an die Öffentlichkeit, außerdem erfolgte in Mitteleuropa um 1987/88 ein plötzlicher Temperatursprung auf ein höheres Temperaturniveau, auf dem wir uns noch heute befinden. Hier nochmals der Temperatur-Verlauf laut DWD.

Abb. 1: Trotz CO₂-Zunahme in der Atmosphäre wurden die Märzen fast 60 Jahre lang kälter, siehe der fallende Trend bis 1987. Dem Startjahr des Klimawandels in Mitteleuropa. Mit einem Temperatursprung wird der Monat nun endlich wieder wärmer.

Anmerkung zum Temperatursprung, dieser kann in den Einzelmonaten auch leicht verschoben sein, der Temperatursprung bezieht sich eigentlich auf das Gesamtjahr, siehe auch hier.

Schon mit der Grafik 1 ist die Behauptung der Treibhaus-Klimakirche, CO₂ sei der Haupttemperaturtreiber falsch. Ein Beweis genügt, sagte Einstein.

Abb. 2: Laut dem linksgrünen Geschäftsmodell CO₂-Treibhauserwärmung sollen ausschließlich Treibhausgase, und aus dieser Gruppe hauptsächlich das „umweltschädliche“ CO₂ für die starke Temperaturzunahme der letzten 100 Jahre verantwortlich sein. Und nachts besonders stark wirken! CO₂ sei der Haupttemperaturregler. Der DWD zeigt mit seinen Temperaturdaten, dieses Geschäftsmodell ist wissenschaftlich falsch. Also weg mit der CO₂-Klimaerwärmungslüge

Wir werden nun die Grafiken und einige Erklärungen aus Teil 1 ergänzen, insbesondere durch die oftmals mitgemessenen, aber niemals in Grafiken der bezahlten Klimawissenschaft dargestellten Tag/Nachttemperaturen, gemessen in Tmax/Tmin, näher erläutern

Dadurch wird erst recht bewiesen, dass Kohlendioxid in den Temperaturreihen keine sichtbaren Auswirkungen hinterlässt. Und das zeigen wir jetzt

Unterschiede zwischen den Tag/Nachtemperaturen beim März:

Der DWD bietet keine Tag/Nachttemperaturen als Schnitt seiner fast 2500 Wetterstationen an. Nur Einzelstationen. Unser Autor M. Baritz hat sich die zeitaufreibende unendliche Mühe gemacht und fast 540 repräsentativ herausgegriffene DWD-Stationen zu einem Deutschland-Schnitt seit 1947 zusammengefasst. Ein zeitlich weiteres Zurückgehen war leider nicht möglich, da erst nach Kriegsende genügend Wetterstationen vorliegen, die auch heute noch alle drei Parameter gleichzeitig messen.

Auch wenn der Standort der allermeisten der 535 DWD-Wetterstationen in den letzten 80 Jahren unter Beibehaltung des Namens versetzt und auch die Messmethode geändert wurde, so geschah dies für die drei Temperaturaufzeichnungen gleichzeitig.

Abb. 3: Aufgetragen sind 2 Zeiträume, 1947 bis 1987, dann der Temperatursprung und ab 1988 bis heute. Außerdem 3 Grafikverläufe: Die obere graue Grafik fasst die tagsüber gemessenen mittleren Tmax Temperaturen des Monats März zusammen, die mittlere braune Grafik die Tagesschnitte und die blaue Grafik die Nachttemperaturen, gemessen in Tmin. Quelle

Zwei Ergebnisse:

  1. Vollkommen anderer Verlauf vor und nach dem Temperatursprung
  2. Seit 1988 wurden nur die Tage tagsüber wärmer, die Nächte nicht, im Gegenteil

Tmax: bis 1987 fallend, Temperatursprung, seitdem deutlich steigend

Schnitt: bis 1987 unmerklich fallend, Temperatursprung, danach leicht steigend.

Tmin: ab 1947, 40 Jahre deutlich steigend, Temperatursprung, danach deutlich fallend.

Wichtige Erkenntnis, nach dem Temperatursprung 1987/88 wurden vor allem die Tage tagsüber wärmer, wozu sicherlich die Zunahme der Sonnenstunden stark beigetragen haben. (siehe Grafik 5a unten)

Die Steigungs-Schere zwischen Tmax/Tmin ging von 1947 bis 1987 zusammen, ab 1988 bis heute deutlich auseinander. Dabei sollen laut Treibhaustheorie doch gerade die Nächte wärmer werden!!

Mit den stark unterschiedliche verlaufenden Tag- und Nachttemperaturen sind Treibhausgase als Haupttemperaturtreiber endgültig widerlegt.

Der vollkommen unterschiedliche Verlauf der Märztage tagsüber und nachts zeigt sich bei bestimmten DWD-Wetterstationen noch viel deutlicher. Z.B. Augsburg:

Abb. 4a: Der März wurde tagsüber wurde deutlich wärmer, die Nächte genauso deutlich kälter. CO₂ kann doch tagsüber nicht anders wirken als nachts. Die wirklichen Gründe, siehe später

Dabei soll laut gängiger Treibhauslehre der CO₂-Erwärmungseffekt nachts doch besonders stark wirken! Siehe: RTL-Häckl im Oktober 2020. (Oder im Original hier).

Auch die beiden nächsten Grafiken zeigen, dass die Treibhaustheorie dieses bezahlten CO₂-Voodoo-Experten vollkommen falsch ist. Zunächst seine Heimatwetterstation

Abb. 4b: Auch in Düsseldorf werden die Märztage tagsüber wärmer, die Nächte deutlich kälter.

Die Hansestadt an der Nordseeküste

Abb. 4c: In Bremen wird die nächtliche Abkühlung etwas gebremst durch die Meeresnähe. Trotzdem geht die Schere Tag/Nacht deutlich auseinander.

Die DWD-Wetterstation Grambek im Norden Deutschlands zwischen Hamburg und Schwerin. Man beachte den Anstieg der Temperaturen am Tage ab 1988

Abb. 4d: Im Norden Deutschlands zeigt die DWD Station Grambek (zwischen Hamburg und Schwerin)  auch die gegenläufigen Trendgeraden der Minimum – und Maximum – Temperaturen

Die ländliche DWD Station Dachwig (nordwestlich von Erfurt

Abb. 4e: Noch deutlicher wird diese Tendenz bei der DWD Station Dachwig (nordwestlich von Erfurt). Die gemessenen Daten der Referenzperiode 1991-2020 sind nahezu identisch zu den homogenisierten Daten des DWD.

Dass CO₂-Anstieg und die nächtlichen Tmin vor allem bei Stationen mit geringem WI-Effekt stark gegenläufig sind, zeigt vor allem die Grafik von Tmin der ländlichen Station Dachwig in Thüringen. Sogar seit Einrichtung dieser Station, also vor 45 Jahren.

Abb. 4f: Seit 45 Jahren, seit Bestehen der ländlichen Station wird der März in Dachwig nächtens deutlich kälter, ganz im Gegensatz zur CO₂-Zunahmekurve (rechts). Ab 1988 bis heute wäre die negative Steigung bei Dachwig sogar: y = – 0,07 x, geradezu ein nächtlicher Temperatursturz.

Wir fragen: Wo ist der CO₂-Treibhauseffekt in Dachwig, der nachts sogar stärker wirken soll in den Grafiken erkennbar? Antwort: Nirgendwo. Deswegen ist die Treibhaustheorie mit CO₂ als Haupttemperaturerwärmungstreiber auch falsch! So einfach ist die Widerlegung dieses Märcheneffektes. Nach Einstein genügt ein Gegenbeweis.

Merke: An dem vollkommen unterschiedlichen Verlauf der Tmax/Tmin-Temperaturen hat der Deutsche Wetterdienst den CO₂-Treibhauseffekt als Haupttreiber der Temperaturen vollständig widerlegt.

Merke: Kohlendioxid ist kein Temperaturregelknopf. Das ist eine Falschbehauptung der Voodoo-Wissenschaft wie beim PIK, der linksgrünen Politik und ihrer Klimaaktivisten und Klima-Chaoten in den bezahlten NGOs!!

Ein Gegenbeweis genügt, sagte Einstein immer. Wir haben ihn hiermit mehrfach erbracht!!!

Deswegen ist diese Mainstream-Definition für Klimaänderungen auch grottenfalsch, die behauptet, dass hauptsächlich das vom Menschen ausgestoßene CO₂ zu der neuzeitlichen Klimaerwärmung geführt haben soll. Diese Definition ist lediglich ein festes Glaubensbekenntnis, wissenschaftlich aber eine Lüge. Und die linksgrünen Glaubenspolitiker betrachten CO₂ sogar als den Temperaturregelknopf, mit welchem man die globalen Temperaturen steuern kann!! Somit ist die westliche und vor allem die deutsche Klimapolitik unter dem Motto: „Kampf dem Klimawandel ein teurer Irrläufer einer CO₂-Glaubenssekte, der nur auf unser Geld abzielt! Bisher mit großem Erfolg, zumal die Politik diesen CO₂-Glaubensirrläufer in Gesetzen zunehmend festschreibt.

Erklärung der Ursachen der Grafiken 3 und 4: (Unterschiedlicher Temperaturverlauf Tag/Nacht)

Die Sonne: Zu den vielen von uns in Teil 1 der Artikelserie genannten 9 Gründen sehen wir einen Hauptgrund in der Zunahme der Sonnenstunden und der Abnahme des Niederschlages. Außerdem hat sich auch die Intensität der Sonnenstrahlung verstärkt und die gesetzlichen Maßnahmen zur Luftreinhaltung verstärkten die Erwärmung am Tage bis heute. Aber nur am Tage. Umgekehrt lassen die vermehrt klaren Nächte seit 1988 verstärkt eine Abkühlung zu.

Abb. 5a/b: Die Sonnenstunden und Niederschlag sind gegenläufig. Kein Wunder, sie sind über den Grad der Bewölkung gekoppelt.

Von 1947 bis 1987 hat die Bewölkung zugenommen, dadurch wurden die Sonnenstunden weniger und die Temperaturen tagsüber sind gefallen bis 1987. (siehe negative Steigung von T-Max). Umgekehrt hat die zunehmende Bewölkung nachts zu weniger Auskühlung der Nächte, -also ein T-Anstieg von 1947 bis 1987 – geführt.

Ab etwa 1988 hat sich die Großwetterlage gedreht. Die Sonnenstunden und die Strahlungsintensivität nahmen wegen der Luftreinhaltung zu. Umgekehrt hat sich aus den gleichen Gründen die nächtliche Auskühlung verstärkt.

Verdeutlichung der Korrelation zwischen Sonnenscheindauer und Tmax am Tage.

Abb. 6: Trägt man die durchschnittlichen Tagesmaxima gegen die SSH auf wird diese Korrelation sichtbar.

Die Sonnenstunden nehmen zu, wenn der Niederschlag und damit die Bewölkung abnimmt und umgekehrt. Tagsüber wird es wärmer. Nachts kälter.

Als Gründe wurde in Teil 1 die Änderung der Großwetterlagen angeführt, aber auch der Mensch hat mitgewirkt am Grad der Wolkenbildung. Man wusste schon Anfang der 60-er vom Svensmark-Effekt. Durch die vielfachen oberirdischen Atomtests waren zum einen viele Staubpartikel als Kondensationskeime und zum anderen viele radioaktive Elemente, ebenso als Kondensationskeime, in die Atmosphäre gelangt. Dies hat u.a. zum sehr kalten Winter 62/63 geführt. Die Diskussion vom nuklearen Winter nach einem möglichen Atomkrieg kam ja nicht von ungefähr. Und die Abkühlung bis Ende der 80-er Jahre war Standard des damaligen Klimawissens. Die schnelle Einigung, Atomtestes nur noch unterirdisch durchzuführen kam deswegen überraschend schnell. Und ab Ende der 1980, bzw. Anfang der 1990-er Jahre griffen auch die Umweltgesetze mit verschärften Vorschriften der Luftreinhaltung. Alles Gründe für die Bewölkungsabnahme.

Merke: Anhand der Grafiken 2 und 3, – die man außer in unseren Artikeln nirgendwo in der Literatur findet – ist endgültig bewiesen, dass das „klimawirksame“ CO₂ allerhöchstens in homöopathischen Dosen versteckt am Temperaturverlauf mitwirken kann. Keinesfalls ist CO₂ der Temperaturhaupttreiber und schon gar nicht ein Temperaturregelknopf!!!

Die richtigen wissenschaftlichen Erklärungen am DWD-Temperaturverlauf haben wir nun genannt und zur Diskussion gestellt.

Ein möglicher weiterer Grund für die Märzerwärmung tagsüber zu den bisher genannten soll hier nur zur Information gestellt werden: das Geo-Engineering. Der Schweizer Dipl. Physiker Dr. rer. nat. Philipp Zeller beschäftigt sich schon 30 Jahre mit den Methoden des Geoengineerings. In diesem Vortrag (45-Minuten) stellt er einige vor, die alle Anwendung finden: https://youtu.be/3NHzBFchZwc?si=DVG2oBzwmqge0c3G

Wer sich doppelt so lange damit beschäftigen möchte, derselbe Physiker, Vortrag nur wissenschaftlicher aufgebaut: https://www.youtube.com/watch?v=KmdiGQDYPrI

Allerdings hätten diese Maßnahmen die Temperaturen bei uns in Mittel- und Westeuropa erhöht, wo diese laut eigener Vorgaben doch zu einer Abkühlung führen sollten. Oder wird bewusst erhöht, um das Märchen einer CO₂-Treibhauserwärmung und die Klimahysterie zu erhalten? Auch Dr. Zeller ist überzeugt, hier geht es nicht ums Klima, sondern nur ums Geld.

Der Märzverlauf außerhalb Deutschlands.

Auch die folgenden Temperaturgrafiken aus anderen Ländern widerlegen die starke Wirkung des CO₂-Treibhauseffektes: Doch nicht nur der Deutsche Wetterdienst zeigt uns das durch seine Grafiken, auch andere Wetterstationen außerhalb Deutschlands haben einen ähnlichen Verlauf.

Gehen wir zunächst nach Westeuropa

Abb. 7a: CET Daten aus Mittelengland seit 1885. Temperatursprung von über 1 K auch in Zentralengland mit unterschiedlichen Verläufen davor und danach. Quelle

Abb. 7b: Interessant ist eine Betrachtung einer längeren Temperaturreihen hier am Beispiel Schottland (CET sieht genauso aus). Nach fast genau 100 Jahren parallel laufender Temperatur-Trendlinien zeigt sich ab 1987 ein Temperatursprung mit deutlicher gegenläufigen Temperatur-Trendlinien.

Die Tmax-Durchschnittstemperaturen steigen deutlich an, während die Tmin– Durchschnittstemperaturen fallen. Ein Grund für den Tmax-Anstieg ist wohl auch die zunehmende Sonnenscheindauer:

Abb. 7c: zunehmende Sonnenscheinstunden von Schottland im Monat März

Obwohl Schottland viel nördlicher liegt als Deutschland ist auch dort der Zusammenhang zwischen Sonnenstunden und T-Max tagsüber deutlichst, siehe nächste Grafik:

Abb. 7d: Signifikante Korrelation zwischen Tagesmaxima und SSH, ähnlich wie Deutschland in Grafik 6

Dann unsere Nachbarländer:

Abb. 8.: Das gleiche Bild in Österreich. Keine Erwärmung bis 1987, Temperatursprung 87/88 von 1,1 K und danach leichte Erwärmung. Quelle

Abb.9: Westeuropa mit Frankreich, Benelux und Teile von Deutschland. Quelle (ECMWF ERA5)

Noch ein kurzer Blick zur Antarktis und der deutschen Neumayer Station:

Abb.10a: Kaum Märzerwärmung über die gesamte Antarktis seit 85 Jahren beim Monat März. (Erster Herbstmonat), Allerdings ist die Erhebung nicht vollkommen zuverlässig, erst seit gut 30 Jahren wächst die Genauigkeit an Überwachung. Deshalb soll die deutsche Einzelstation Neumayer seit 1982 zur Genauigkeit verhelfen. Die Wetterhütte befindet sich deutlich entfernt von der Großstation, so dass keinerlei Stationswärme die Messung beeinflusst.

Abb. 10b: Keine Märzerwärmung, im Gegenteil. Neumayer kühlt die letzten 44 Jahre deutlich ab. Wo bleibt die Wirkung des angeblich erwärmenden CO₂? Siehe deutlich fallende Trendlinie. Quelle

Beachte: In der Antarktis gab es 1988 auch keinen Temperatursprung wie in Mittel- und Westeuropa. Die deutsche Wetterstation gibt es erst seit 1982 und der März ist auf der Südhalbkugel der Herbstanfang. Und CO₂ steigt und steigt, siehe Grafik 10, die Antarktis wird kälter. Deutlicher kann ein Beweis, dass CO₂ nichts bewirkt, nicht ausfallen.

Und Nordamerika: Diese Wetterstation ist die älteste in Virginia und heute noch Bestandteil des US-amerikanischen Wetternetzes. Sie steht einsam bei einer Farm auf dem Lande, sie hat nur einen geringen Wärmeinseleffekt seit 150 Jahren entwickelt. Beachte, weder 1988 noch kurz davor oder danach: kein Temperatursprung wie bei uns

Abb. 11a/b: Keinerlei Märzerwärmung seit über 100 Jahren in Virginia bei dieser ländlichen Station in den USA, obwohl die CO₂-Konzentrationen wie überall laut Treibhauskirche von etwa 280 ppm seit 1880 auf nunmehr 428 ppm gestiegen sind. Allerdings lagen die letzten 7 Märzen über der fallenden Trendlinie. Der am Mouna Loa gemessene weltweite CO₂-Anstieg seit 1958 hat einen ganz anderen Verlauf.

Erg: Keinerlei Korrelation zwischen CO₂-Verlauf und Temperaturverlauf.

Rechnet man den leicht zunehmenden WI-Effekt seit Kriegsende aus den Daten raus, dann gäbe es seit 80 Jahren sogar eine deutlichere Märzabkühlung!!! Immerhin hat sich die kleine Kreisstadt Harrisonburg mit ihren Außenbezirken bis auf 1 km an die Dale-Enterprise Farm herangeschlichen und ein asphaltierter Highway führt an dem Standort der Station vorbei

Merke: den angenehmen Temperatursprung im Jahre 1987/88 mit Weitererwärmung gab es nur bei uns in Mittel- West- und Nordeuropa. Andere Länder der Welt haben diesen Klimawärmesprung bei uns gar nicht mitbekommen.

Nachdem wir nun anhand vieler Temperaturreihen gezeigt haben, dass CO₂ keinesfalls der Haupttreiber von Temperaturen sein kann, CO₂ spielt allerhöchstens in nicht feststellbarer Dosen mit, wollen wir auf einen positiven Effekt der CO₂-Zunahme aufmerksam machen.

Wir brauchen mehr CO in der Atmosphäre

Eine positive Eigenschaft hat die CO-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO führt zu einem beschleunigten Wachstum, steigert die Ernteerträge und bekämpft somit den Hunger in der Welt. Die Wüsten werden grüner. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO-gehalt der Atmosphäre liegt etwa bei 800 bis 1200ppm, das sind etwa 0,1%. Nicht nur für das Pflanzenwachstum, sondern auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO in der Luft. Viele Untersuchungen bestätigen dies. Und vor allem dieser Versuchsbeweis. Die zunehmenden CO₂-Konzentrationen der Atmosphäre sind eine positive Entwicklung für diesen Planeten. Und: der optimale Gehalt dieses Schöpfungsgase in der Atmosphäre muss endlich wissenschaftlich untersucht werden

Kohlenstoffdioxid ist überhaupt kein Klimakiller und schon gar kein Giftstoff. Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO vermindern will, versündigt sich gegen die Schöpfung dieses Planeten.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Gegen die Terrorgruppe „letzte Generation“ muss mit allen gesetzlich erlaubten Mitteln vorgegangen werden, da die Gruppe keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Ebenso gegen die Panik verbreitende Politik und Medien. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert – ausführlich hier beschrieben. Nur mit dem Unterschied, dass man uns das Geld automatisch in Form von Steuern aus der Tasche zieht. Ein Aufstand der Anständigen ist unbedingt erforderlich.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt menschlichen Handelns gestellt werden. Die Erhaltung der natürlichen Vielfalt von Pflanzen und Tieren sollte ein vorrangiges Ziel sein und nicht diese unseriöse Panikmache von Medien im Verbund mit gut verdienenden Klimaangst-Schwätzern wie z.B. die Professoren Quaschnig/Lesch/Rahmstorf/Schellnhuber/Latif und anderen von uns in der Politik agierenden und teuer bezahlten fabulierenden Märchenerzählern. Deren Einstellung gegen CO₂ ist eine Einstellung gegen die Schöpfung auf diesem Planeten.

Wir alle sind aufgerufen, jeder auf seinem Weg und nach seinem Können die derzeitige Klima-Panikmache und die Verteufelung des lebensnotwendigen Kohlendioxids zu bekämpfen. Ein Umdenken in der Bevölkerung und bei den Kirchen ist schnellstens erforderlich, um den völlig unsinnigen CO₂-Reduzierungsmaßnahmen der linksgrünen Klimapolitik ein Ende zu bereiten.

Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, ausgezeichnet mit dutzenden von Umweltpreisen. Unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturwissenschaftler und Umweltschützer.

 

Der Beitrag Die Temperaturreihen des Deutschen Wetterdienstes beim Monat März zeigen: Es gibt keinen wirksamen CO₂-Treibhauseffekt. Teil 2 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Kältereport Nr. 15 /2026

veröffentlicht.
Vorschau ansehen

Meldungen vom 6. April 2026:

UK: April-Schnee in Glasgow

Am Ostersonntag gab es in Glasgow starken Schneefall, und in der ganzen Stadt herrschten winterliche Verhältnisse. Der Verkehr war beeinträchtigt, weil sich die Bedingungen im Laufe des Tages weiter verschlechterten.

Auch in höheren Lagen der schottischen Berge herrschen weiterhin beeindruckende Schneemengen vor, mit hervorragenden Bedingungen auf den Gipfeln, insbesondere am und um den Cairngorm Mountain.
In Glen Feshie, etwa 900 m über Coire Garbhlach, hat sich in einer nach Nordwesten ausgerichteten Mulde eine mindestens vier Meter hohe Schneedecke gebildet. Schottland hat heute keine Gletscher mehr, schon seit Jahrtausenden nicht mehr, aber diese große Schneefläche, die sich bis in den April hinein gut hält, ahmt einen Gletscher gut nach.

——————–

Bulgarien: Schnee-Rekord im April gebrochen

Der Botev-Gipfel in Bulgarien hat einen neuen Schneehöhenrekord für April aufgestellt. Auf dem Gipfel, der zum Balkangebirge (Stara Planina) gehört, wurden 333 cm Schnee gemessen – ein neuer Rekord, der den bisherigen Rekord von 325 cm aus den 1960er-Jahren (als die Höhenmessstation eingerichtet worden war) deutlich übertrifft.

An anderer Stelle, am Vitosha-Gebirge, hat der Neuschnee um weitere 20 cm die Lawinengefahr erhöht.

Es wird weiterer Schneefall erwartet, da sich in Bulgariens höher gelegenen Gebieten oberhalb von 1.500 m bis Anfang der Woche weiterhin Schnee ansammelt.

Die Schneehöhen in den europäischen Hochlagen sind bis in den April hinein beeindruckend. In Arcalis in Andorra beispielsweise liegen noch immer 4 Meter Schnee.

Unterdessen herrschten am Montag in tieferen Lagen weiterhin Minusgrade, so dass in den Weinbaugebieten Frostkerzen erneut angezündet werden mussten. Der Ostermontag begann mit deutlichem Frost in Nordfrankreich. Die Temperaturen sanken auf -3,7 °C in Mourmelon-le-Grand (Marne) und auf -2,4 °C in Charleville-Mézières (Ardennen).

——————–

Kanada: Rekord-Schneemengen westlich von Calgary

Die Schneemenge in den Rocky Mountains von Alberta nähert sich Rekordwerten. Am Little Elbow Summit erreichte das Schneewasseräquivalent am 5. April 531 mm.

Das liegt deutlich über dem üblichen Bereich von 300 bis 400 mm und ist der zweithöchste Wert seit Beginn der Aufzeichnungen (in den 1980er Jahren). Nur 1991 wurde mit 587 mm ein höherer Wert gemessen.

Diese Entwicklung wird durch eine anhaltende Tiefdrucktätigkeit über dem Pazifik vorangetrieben. Wiederholte Westströmungen haben Feuchtigkeit in die Rocky Mountains geleitet, wo sie in Form von anhaltendem Schneefall über den Quellgebieten von Alberta niedergeht. Diese Wetterlage hält seit Monaten an, so dass sich die Schneemenge stetig erhöht.

Das Ergebnis hängt nun von der Schneeschmelze ab. Eine allmähliche Schneeschmelze würde die Flüsse speisen, die Stauseen stabilisieren und den Druck auf die Wasserversorgung verringern. Eine rasche Erwärmung, insbesondere in Verbindung mit Regenfällen, erhöht natürlich das Hochwasserrisiko.

Die Überschwemmungen in Alberta im Jahr 2013 folgten einer ähnlichen Wetterlage, bei dem im Frühjahr starke Regenfälle auf eine bereits bestehende Schneedecke fielen.

Derzeit jedoch liegt im Westen Kanadas eine der höchsten Schneedecken seit Jahrzehnten für Anfang April.

——————–

Nordindien: Anhaltende Abkühlung

Eine weitere westliche Strömung zum Saisonende lässt die Temperaturen in Nordindien stark sinken und bringt Neuschnee in die Himalaya-Regionen.

Die Höchsttemperaturen, die bei 33–35 °C lagen, sollen bis Mitte der Woche in Punjab, Haryana, Delhi und Uttar Pradesh auf 19 bis 26 °C sinken. Das sind etwa 8 bis 15 °C unter dem Normalwert und sorgt für Wetterbedingungen, die eher für den Februar als für den Frühling typisch sind.

Die Abkühlung wird durch einen erneuten Zustrom von Feuchtigkeit und instabiler Luft aus westlicher Richtung verursacht. Während dieses Tiefdruckgebiet über die Ebenen zieht, löst es großflächigen Regen, Gewitter und Hagel aus, während kältere Luft in der Höhe für starken Schneefall in den Höhenlagen sorgt.

Die Schneemengen in Himachal Pradesh sind für diese Jahreszeit bemerkenswert. In Gondhla fielen innerhalb von 24 Stunden 28,5 cm Schnee, innerhalb von 48 Stunden 41,5 cm. Im nahegelegenen Keylong fielen 20 cm.

Diese kalten, unbeständigen Wetterbedingungen beeinträchtigen die Weizenernte zum Zeitpunkt der Ernte.

Link: https://electroverse.substack.com/p/glasgow-wakes-to-april-snow-monthly?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 7. April 2026:

Italien: Capracotta unter mehr als zwei Metern Aprilschnee begraben

Capracotta in Italien wurde gerade von einem Frühlingsschneesturm heimgesucht, wie er eher für den Januar typisch ist.

Die Bergstadt in Molise, auf 1.421 m Höhe gelegen, wurde kürzlich von einem Schneesturm heimgesucht, der innerhalb von etwa 24 Stunden 1,5 m Schnee fallen ließ. Nachfolgende Berichte italienischer Medien zeigten, dass die Schneehöhe in der Stadt 2 m überstieg, wobei einige lokale Berichte angaben, dass die höchsten Schneeverwehungen 3 m erreichten.

Autos verschwanden, und die Bewohner gruben Tunnel, nur um aus ihren Häusern zu gelangen. Es wurde auch von Stromausfällen berichtet, da sich Eis auf den Leitungen ansammelte.

Capracotta ist einer der höchstgelegenen Orte im Apennin und einer der schneereichsten Orte Italiens. Der Ort hält zudem den Guinness-Weltrekord für den höchsten Schneefall innerhalb von 24 Stunden, nachdem dort im März 2015 2,56 m gefallen waren. Capracotta kennt sich mit Schnee aus. Dennoch verweisen italienische Medienberichte auf den April 1967 – das letzte Mal, so heißt es, als ein Sturm in der Spätsaison diesen Teil des Apennins in einem Ausmaß bedeckte, das dem jetzigen nahekommt.

In den gesamten italienischen Apenninen war der April von außergewöhnlichen Schneefällen geprägt.

——————–

Kanada: Der kalte und schneereiche Winter

Der Winter 2025/26 in Kanada brachte in vielen Regionen anhaltende Kälte und außergewöhnliche Schneefälle mit sich, wobei an mehreren Orten Rekordwerte erreicht worden waren.

St. John’s, Neufundland, schaffte es zum erst siebten Mal seit Beginn der Aufzeichnungen im Jahr 1875 in den „500-cm-Club“. Zuletzt wurde diese Marke in der Saison 2002/03 erreicht, und da die Saison noch einige Wochen dauert, könnten die Gesamtwerte weiter steigen.

Auch Sault Ste. Marie in Ontario überschritt dank einer der stärksten Schneefälle in der späten Saison die 500-cm-Marke.

Ein Schneesturm im März, gefolgt von wiederholten See-Effekten, ließ die Gesamtwerte stark ansteigen. Allein im Jahr 2026 verzeichnete die Stadt 363 cm, was fast einer Verdopplung der bis Ende Dezember gefallenen Schneemenge entspricht.

Toronto nähert sich derzeit seinem historischen Schneefallrekord.

Die saisonale Gesamtmenge liegt bei fast 190 cm und ist damit bereits die viertgrößte jemals gemessene Menge; der Rekord von 206,7 cm aus den Jahren 1938–39 ist in greifbarer Nähe.

Am 25. Januar verzeichnete der Toronto Pearson International Airport 46,2 cm an einem einzigen Tag – ein Stationsrekord –, wobei in Teilen der Stadt bis zu 56 cm gemessen worden sind.

Weiter westlich hat Calgary einen sehr starken Anstieg gegen Ende der Saison verzeichnet.

Die Schneemenge hat bereits den Jahresdurchschnitt von 128 cm erreicht, wobei weitere Neuschneefälle wahrscheinlich sind.

Ausschlaggebend dafür waren anhaltende Kaltluftmassen in Verbindung mit aktiven Tiefdruckgebieten und in der Region der Großen Seen wiederholte Verstärkung durch den Seeeffekt. Diese Bedingungen haben dazu geführt, dass sich der Schnee effizient ansammeln und auf dem Boden verbleiben konnte, wodurch die Gesamtmengen historische Werte erreichten (und sogar übertrafen).

Der Winter hat nördlich der Grenze ganze Arbeit geleistet.

Und er treibt immer noch gelegentlich Kaltfronten nach Süden in die Vereinigten Staaten…

——————–

USA: Polarwirbel hält die Kälte im Spiel

Über Kanada hält sich weiterhin ein starker kalter Polarwirbel, dessen Kern über der Hudson Bay nach wie vor intakt ist.

Den neuesten ECMWF-Prognosen zufolge bleiben die Temperaturen in 500 hPa bis Mitte April bei etwa -45 °C und steigen erst allmählich auf -40 °C.

Das ist hoch winterliche Luft, die bis weit in den Frühling hinein anhält.

Das Ergebnis ist eine fragmentierte, von Kaltluft geprägte Wetterlage über den 48 kontinentalen Bundesstaaten – kein landesweites arktisches Muster, sondern gezielte, wechselnde Kaltluftvorstöße, die mit der Zirkulation zusammenhängen und vor allem den Norden und Osten betreffen, während es im Süden wärmer wird.

Mehrere „Alberta Clippers“ ziehen diese Woche über den Mittleren Westen, die Region der Großen Seen und den Nordosten hinweg. Innerhalb eines Zeitraums von sechs Tagen werden mindestens drei Systeme erwartet, die jeweils die kalte kanadische Luft anzapfen und für leichte Schneefälle sorgen – sogar bis Mitte April.

Über den Großen Seen und im Nordosten fällt bereits Schnee, und bis Mitte der Woche werden weitere Schneeschauer erwartet.

Obwohl lokal begrenzt, wird sich diese Wetterlage als hartnäckig erweisen.

Für rund 74 Millionen Amerikaner werden Tiefsttemperaturen unter dem Gefrierpunkt vorhergesagt, vor allem im nördlichen Teil des Landes, mit Werten bis -18°C im Norden von Minnesota [= die 0-Grad-Marke Fahrenheit. A. d. Übers.]. Insgesamt in den USA liegen die Temperaturen nur leicht unter dem Durchschnitt, doch regional bleibt die Kälte dort, wo sie sich festsetzt, weiterhin ausgeprägt.

Die gleiche Wetterlage schränkt Unwetter ein. Kalte, trockene Luft im Norden und Osten unterdrückt die Konvektion, während die wärmeren südlichen Regionen von dieser Energie weitgehend abgeschirmt bleiben – vorerst.

Link: https://electroverse.substack.com/p/capracotta-buried-by-2m-of-april?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 8. April 2026:

Nordindien, Himalaya: Verbreiteter April-Schnee

Schnee im April ist im Himalaya nichts Ungewöhnliches. Ungewöhnlich ist jedoch das Ausmaß dieses jüngsten Schneefalls.

Der Schnee fällt gleichzeitig in mehreren Bezirken von Himachal Pradesh, von den hochgelegenen Gebieten in der Nähe des Atal-Tunnels bis hinunter in den oberen Teil des Shimla-Gebiets, darunter Narkanda, Kotkhai und Baghi.

Es handelt sich um ein Wetterphänomen, das mehrere Höhenlagen gleichzeitig betrifft.

Aufeinanderfolgende westliche Wettersysteme sorgen für anhaltende Niederschläge. In höheren Lagen fällt stetiger Schnee, was die Lawinengefahr erhöht, während auch in mittleren Höhenlagen Schneeverwehungen gemeldet werden.

Im April wird Schnee in Höhenlagen ab 2.500 m erwartet. Schnee in tiefer gelegenen Obstbaugebieten ist seltener, insbesondere mit Schneeverwehungen. Aufnahmen aus Kotkhai zeigen, wie nasser Schnee sich auf Hagelschutznetzen ansammelt.

Berichte bestätigen Auswirkungen in Shimla, Kullu, Kangra und Mandi.

Der Winter hat sich noch nicht vollständig in die höheren Lagen zurückgezogen. Dieses Wetterphänomen hat den Bergen wieder kältere Bedingungen verschafft. Eine echte Entspannung ist nicht in Sicht – zumindest nicht in dieser Woche.

——————–

Bering-See: Meereis hält sich in ungewöhnlich winterlichem Ausmaß

Das Eis in der Beringsee breitete sich in diesem Winter ungewöhnlich weit nach Süden aus, erreichte seine größte Ausdehnung seit mindestens 2013 und erreichte Gebiete, in denen es in den letzten Jahren kaum oder gar kein Eis gab.

Das Eis erstreckte sich über die Bristol Bay, entlang der Alaska-Halbinsel und bis hin zu Cold Bay, Unimak Island und den Pribilof-Inseln. An einigen Stellen waren Fischer gezwungen, durch Eisfelder zu navigieren.

Dies war auf ein anhaltendes Hochdruckgebiet über der Beringsee zurückzuführen, das lokal kalte Luft einschloss und so die Eisbildung begünstigte. Gleichzeitig lenkte es Stürme und mildere Südwinde in die Ochotskische See und begrenzte dort die Eisbildung.

Während sich in der Beringsee Eis bildete, hatten andere Regionen Mühe, überhaupt Eis zu bilden.

Dies verdeutlicht einen wichtigen Punkt, der in allgemeinen Zusammenfassungen der polaren Bedingungen oft übersehen wird. Meereis ist nicht nur eine Funktion der Temperatur. Es wird stark von Windrichtung, Drucksystemen und Meeresströmungen beeinflusst. Ändert sich die Zirkulation, reagiert das Eis schnell – es wächst in einer Region, während es sich in einer anderen zurückzieht.

All dies hat reale Auswirkungen. Die Ausdehnung beeinträchtigte den Fischfang, da Schiffe im südöstlichen Teil der Beringsee Mühe hatten, sich durch das Eis zu navigieren. Auch maritime Ökosysteme sind betroffen, da Meereis die Wassertemperaturen verändert und Arten wie den Pazifischen Kabeljau in andere Gebiete drängt.

Link: https://electroverse.substack.com/p/widespread-april-snow-hits-himachal?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 9. April 2026:

USA: Frühlingssturm bringt erhebliche Schneemengen in der Sierra Nevada

Ein spätwinterlicher Schneesturm zieht in die Sierra Nevada und bringt den dringend benötigten starken Schneefall mit sich.

Zunächst bleibt die Schneefallgrenze bis Freitag hoch, was die ersten Schneemengen begrenzt. Am Samstag folgt dann jedoch deutlich kältere Luft mit einem Absinken der Schneefallgrenze bis auf Seehöhe.

Auf Seehöhe werden mehrere Zentimeter erwartet, in höheren Lagen sollen bis Sonntag bis zu 61 cm fallen. Auf den höchsten Gipfeln könnten die Werte noch weit darüber liegen.

Für Höhenlagen über 1.370 Metern gilt von Freitag 17 Uhr bis Sonntag 22 Uhr eine Wintersturmwarnung. „Reisen in den Bergen könnten sehr schwierig bis unmöglich sein“, warnt der NWS.

Und schon bald könnte noch mehr kommen.

Frühe Vorhersagen deuten auf unterdurchschnittliche Temperaturen und anhaltende Niederschläge bis in die letzte Aprilwoche hin mit der Möglichkeit weiterer Schneefälle.

In der Sierra gibt es in diesem Jahr bnislang ein Defizit. Aber der Winter ist noch nicht vorbei.

——————–

Kanada versinkt im Schnee

Während der Westen der USA in dieser Saison etwas zu kämpfen hatte, liegen weite Teile Kanadas unter einer dicken Schneedecke.

Im Westen hat das Banff Sunshine Village die 800-cm-Marke überschritten, begünstigt durch einen März mit 208 cm Neuschnee, der eher an den Hochwinter als an den Frühling erinnerte.

Das nahegelegene Skigebiet Lake Louise startete bereits im Dezember mit 282 cm in die Saison – es war der schneereichste Dezember seit 1970.

Die Messstationen in den Quellgebieten von Alberta liegen für Anfang April nahe dem oberen Ende ihrer historischen Bandbreite, was zeigt, dass es sich nicht nur um die Gesamtwerte der Skigebiete handelte – das gesamte Gebirgssystem verzeichnete eine beträchtliche Schneehöhe.

Das Bild wiederholt sich im Osten.

St. John’s hat nun die 500-cm-Marke für diese Saison überschritten und erreicht diese Schwelle damit erst zum siebten Mal seit Beginn der Aufzeichnungen im Jahr 1942. Allein im Februar fielen 178,2 cm – ein Rekordmonat in Sachen Schneefall. Tatsächlich war es in ganz Neufundland sehr schneereich, wobei mehrere Messstationen Werte weit über dem Normalwert verzeichneten.

Ontario folgte. Sault Ste. Marie überschritt Anfang April die 550-cm-Marke, womit dieser Winter wenige Wochen vor Saisonende in greifbarer Nähe seines saisonalen Allzeit-Schneefallrekords liegt.

Quebec too. Le Valinouët cleared 500 cm (197 in) before February had even ended.

Eine außergewöhnlich kalte Wintersaison sorgte dafür. Der März war wirklich ungewöhnlich. Bereits im Dezember sank die Temperatur in Braeburn auf -55,7 °C – die niedrigste in Kanada seit 1999 gemessene Temperatur.

In den Rocky Mountains bildete sich durch wiederholte Pazifikstürme eine dicke Schneedecke. In Neufundland und im Osten Kanadas türmte sich der Schnee durch anhaltende Atlantikstürme auf. Ontario schloss die Lücke mit Neuschnee durch den Seeeffekt.

Insgesamt überschritten mehrere Orte die 500-cm-Marke, Rekorde fielen – und es ist noch nicht vorbei.

——————–

Nordindien: Weiter starke Kälte – Rekorden fallen

Eine für den April ungewöhnliche Kältewelle hält Nordindien weiterhin im Griff, wodurch die Temperaturen deutlich unter den Normalwerten liegen und an zahlreichen Messstationen langjährige Rekorde gebrochen wurden.

Die Tageshöchsttemperaturen liegen in der gesamten Region 7 °C bis 15 °C unter dem Durchschnitt, was auf die anhaltende Bewölkung im Zusammenhang mit aktiven Weststörungen zurückzuführen ist. Dies steht im Gegensatz zu der für Anfang April typischen Hitze.

In Delhi verzeichnete die Wetterstation Palam am 9. April eine Tiefsttemperatur von 14,6 °C – die niedrigste April-Tiefsttemperatur seit mindestens 2010.

Weiter nördlich nimmt die Kälte in den Hügeln zu.

In Shimla sank die Temperatur auf 3,6 °C, den niedrigsten Wert im April seit mindestens 23 Jahren, während Mukteshwar auf 1,4 °C fiel – den tiefsten Wert im April seit 2009.

Eine große Reihe von Messstationen im Himalaya und im Vorgebirge des Himalaya meldete ähnlich niedrige Tiefstwerte, wobei die Temperaturen für diesen Monat auf einem historischen Tiefstand lagen.

Auch die Tageswerte sind stellenweise stark eingebrochen.

In Tehri wurden am Donnerstag nur 8 °C gemessen, rund 17 °C unter dem Normalwert. In Mukteshwar wurden nur 6,2 °C erreicht, etwa 16 °C unter dem Durchschnitt. Das sind Höchstwerte wie mitten im Winter, die im April auftreten.

In höheren Lagen war es kalt genug, um frischen, weit verbreiteten Schneefall zu verursachen.

Dies ist weder von kurzer Dauer noch ein Einzelfall. Und Indien ist kein kleines Land – die Kälte hat sich von den Ebenen bis in die Hügel ausgebreitet, wobei ein Großteil des 3,3 Millionen km² großen Landes Temperaturen weit unter dem Durchschnitt ausgesetzt ist:

Link: https://electroverse.substack.com/p/spring-storm-brings-snow-boost-to?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 10. April 2026:

Kanada: Polarwirbel hält den Winter fest

Es ist Mitte April, und Kanada befindet sich nach wie vor in tiefstem Winter.

Der troposphärische Polarwirbel ist weiterhin intakt und weist eine Stärke wie im Hochwinter auf.

Anstatt sich mit Beginn des Frühlings abzuschwächen, hält er eine starke Zirkulation über der Hudson Bay aufrecht, wodurch die Region vereist bleibt und weiterhin arktische Luft nach Süden getrieben wird.

Die Vorhersagen für die nächsten 10 Tage zeigen wiederholte Kälteeinbrüche in Zentral- und Ostkanada.

In der Höhe ist die Kälte für diese Jahreszeit ungewöhnlich tiefgreifend. Modelle zeigen 500-mb-Temperaturen von fast -48 °C noch bis zum 17. April – Werte, die eher für Januar als für Mitte April typisch sind.

Diese Kälte in der Höhe hält die Bedingungen an der Oberfläche aufrecht. Die Hudson Bay bleibt eisbedeckt, ohne dass eine nennenswerte Schneeschmelze in Gang kommt. Anstatt sich zurückzuziehen, wird die Kaltluftmasse immer wieder verstärkt.

Was den Schnee betrifft, so sehen die nächsten zwei Wochen sehr aktiv aus.

Anzeichen für Frühlingsschneefall verstärken sich nicht nur in ganz Kanada, sondern auch im Westen der USA, wobei die Schneemengen bis in die letzte Aprilwoche (und möglicherweise bis in den Mai) hinein anhalten.

Der Frühling versucht vorzudringen. Die Atmosphäre will davon jedoch nichts wissen.

——————–

Nordindien: Aprilschnee trifft Himachals Apfelanbaugebiet zum ungünstigsten Zeitpunkt

Himachal Pradesh wurde gerade zum Höhepunkt der Blütezeit von Apfelbäumen von starken, großflächigen Schneefällen heimgesucht, die den Apfelanbaugebiet des Bundesstaates genau zu dem Zeitpunkt trafen, als in den Obstgärten der Fruchtansatz einsetzte.

Im gesamten Gebiet von Upper Shimla – einschließlich Narkanda und Kotkhai – melden die Obstbauern weitreichende Schäden. Blüten wurden abgeknickt, Äste abgebrochen und Hagelschutznetze sind unter der Last des nassen Schnees zusammengebrochen.

Zu dieser Jahreszeit befinden sich Apfelbäume in ihrer empfindlichsten Phase. Schnee schädigt nicht nur die sich öffnenden Blüten, sondern beeinträchtigt auch die Bestäubung. Es ist nun mit einem drastischen Rückgang der Erträge zu rechnen.

Aus mehreren Distrikten, von Kufri und der Region um den Atal-Tunnel bis hin zu Lahaul-Spiti, Kinnaur, Chamba, Kangra und Kullu, wurde Schneefall gemeldet. Starker Regen und Hagel begleiteten das Ereignis und weiteten die Auswirkungen weit über die höheren Lagen hinaus aus.

Rund 75 Straßen wurden gesperrt, darunter wichtige Autobahnen, und es kam zu Stromausfällen, als Hunderte Transformatoren außer Betrieb gesetzt wurden.

Auch die Temperaturen sind stark gesunken. Die Tageshöchstwerte fielen um 12 bis 17 °C, wodurch die Bedingungen wieder winterlich wurden. Auch die Tiefstwerte lagen unter dem Normalwert, was den durch den Schnee bereits verursachten Stress für die Pflanzen noch verstärkte.

Die Warnungen bleiben bestehen, und es sind weitere Stürme möglich, bevor sich die Lage nach Mitte April entspannt.

Für die Obstbauern ist der Schaden bereits angerichtet. Die nun verlorenen Blüten lassen sich nicht mehr ersetzen. Der Fruchtansatz wurde beeinträchtigt. In einer Region, die stark vom Apfelanbau abhängig ist, wird dieser Kälteeinbruch in der späten Saison in den kommenden Monaten wahrscheinlich zu erheblichen finanziellen Verlusten führen.

Link: https://electroverse.substack.com/p/polar-vortex-holds-canada-in-winter?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Wird fortgesetzt mit Kältereport Nr. 16 / 2026

Redaktionsschluss für diesen Report: 10. April 2026

Zusammengestellt und übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Kältereport Nr. 15 /2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Woher kommt der Strom? erhebliche Windflaute

veröffentlicht.
Vorschau ansehen

13. Analysewoche 2026 von Rüdiger Stobbe

Am Montag der aktuellen Analysewoche kommt es zu einer erheblichen Windflaute. Dieser Tag ist beispielhaft für die Probleme, die eine Energiewende mit sich bringt, in der praktisch keine Energie für die Deckung der Grundlast Deutschlands zur Verfügung stünde. Wenn nach Abschaltung der letzten grundlastfähigen Kohlekraftwerke die angekündigten, aber noch nicht mal ausgeschriebenen Gaskraftwerke fehlen. Halt, halt rufen unsere Freunde der Energiewende dazwischen. Bis dahin haben wir die Erneuerbaren doch bereits massiv weiter ausgebaut. So plant die Bundesregierung aktuell 2.000 zusätzliche Windkraftanlagen bis zum Jahr 2030. Aber nicht nur das. Auch die Stromerzeugung mit PV-Anlagen, auch Biomasse- und Wasserkraftstromerzeugung wird im Prognosemodell von Agora-Energiewende dargestellt. Für den Montag sähe die Stromerzeugung bei einem Ausbau der Erneuerbaren auf rechnerische 86 Prozent so aus.  Zum Vergleich noch mal der echte, der aktuelle Chart von Agora Energiewende vom 23.3.2026. Die PV-Stromerzeugung übertrifft in der Prognose zur Mittagszeit den Bedarf bei weitem, so dass mit negativen Preisen zu rechnen wäre. Ansonsten – und das ist das Entscheidende – wird die Windstromerzeugung nur ein ganz klein wenig stärker. Kurz gesagt: Es können so viele Windkraftwerke vorhanden sein, wenn der Wind kaum weht, gibt es kaum Strom. Und sofort sei dabei gesagt, dass es keine Speichermöglichkeiten gibt, noch jemals geben wird, um den fehlenden Strom auch nur annähernd zu ersetzen. Diese Aufgabe müssen fossile Backup-Kraftwerke übernehmen. Sonst gehen die Lichter aus. Alles andere ist dummes Gerede.

Ab Dienstag baut sich ein Windbuckel auf, der sich dann langsam wieder abbaut und Freitagmorgen in einem Windloch endet. Zum Wochenende herrscht unregelmäßige Windstromerzeugung auf niedrigem Niveau. Sonntag zieht die Windstromerzeugung ab Mittag wieder an, um einen – Achtung Spoileralarm – wind- und PV-stromstarken Montag der Folgewoche einzuleiten.

Die Strompreise sinken über die Mittagsspitze jeden Tag ab. Sie erreichen an vier Tagen die Null-Linie. Selbstverständlich wird zu diesen Zeiten viel Strom vom Ausland eingekauft. Dann, wenn von Deutschland Strom benötigt wird, exportieren Deutschlands Nachbarn den Strom zurück und verdienen an der Preisdifferenz gutes Stromkundengeld. Die Strompreise werden wegen der kriegerischen Auseinandersetzungen im Nahen Osten, der Ukraine und im Iran tendenziell steigen. Die preistechnischen Hintergründe (Merit-Order-Prinzip) erklärt Marie Droste bei WELT-TV. Der konkrete Strompreis schwankt an der Strombörse wegen des Prinzips Angebot und Nachfrage. Deshalb ist es für viele Verbraucher sinnvoll, den konkreten Strompreis konkreter Stromhändler mittels eines Vergleichsprogramms herauszufinden und das für ihn passende Angebot zu zeichnen. So hat der Stromkunde für eine gewisse Zeit keine Preissorgen. Gleiches gilt für den Gaspreis.  Tendenziell werden Gas und Strom teurer werden und den Verbraucher belasten. Verträge laufen aus; dann muss man nehmen, was aktuell angeboten wird. Denn ohne Gas und Strom läuft in Deutschland, läuft in der zivilisiert-entwickelten Welt nichts! Und sei es Gas aus Flaschen und Strom aus Generatoren. Energie ist für die Menschen (über)lebensnotwendig.

Einen Überblick über die wichtigsten Aspekte der 13. Analysewoche 2026 gibt Agora Energiewende. Agora Energiewende erstellt auch Prognosen, wie die Stromerzeugung aussehen würde, wenn die Erneuerbaren einen bestimmten Ausbaugrad erreicht hätten. Wir nehmen wie bereits oben für den Montag den Ausbaugrad 86 Prozent und müssen feststellen, dass der weitere Ausbau nur zu einer massiven Stromüberzeugung über die Mittagsspitze mit oft negativen Preisen führen wird.

Was ist Kraftwerks-Leistung? Was ist Energie?

Gigawatt (GW) ist eine Einheit für Leistung, also für die maximale Fähigkeit eines Kraftwerks, Strom zu erzeugen. Gigawattstunden (GWh, TWh) sind eine Einheit für Energie, also für die tatsächlich produzierte Strommenge über eine bestimmte Zeit. Die Beziehung ist einfach: Energie = Leistung × Zeit. Ein Kraftwerk mit 1 GW Leistung erzeugt bei Volllast theoretisch maximal: 1 GW × 8.760 h = 8,76 TWh pro Jahr. Wie viel elektrische Energie tatsächlich entsteht, bestimmt beim Kohle-, Gas- oder Kernkraftwerk im weitesten Sinn der Mensch über die Brennstoffzufuhr und Zufuhrdauer. Die Energie für eine Stunde wird üblicher- und für den Normalbetrachter irreführenderweise mit GW bezeichnet. Die manchmal verwendete Schreibweise „GWh pro Stunde“ ist nur eine umständliche Form von GW – mathematisch kürzt sich die Stunde („h“ und „pro Stunde“) weg.

Sonderfall Wind- und Solarkraft

Bei Wind- und Solarkraft bestimmt nicht der Betreiber, sondern das Wetter die Strom-Produktion. Eine 5-MW-Windkraftanlage könnte theoretisch 43,8 GWh/Jahr erzeugen, liefert an Land aber realistisch in Deutschland nur etwa 20 Prozent davon (auf See 40 bis 50 Prozent), also rund 8,8 GWh/Jahr – im Mittel 1 MW-Dauerenergie. Bei Solarpaneelen mit ebenfalls 5 MW installierter Leistung halbieren sich die Werte nochmals wegen verschiedener Kapazitätsfaktoren: Nacht, Winter, flacher Sonnenstand, Bewölkung und Temperaturverluste.

Tageswerte

Jeder Tag beginnt mit dem Überblick, den Agora-Energiewende zur Verfügung stellt. Die smard.de-Charts und -Tabellen ermöglichen vielfältige Analysen. Erkunden Sie das Potenzial.

Fast keine Windstromerzeugung. PV-Stromerzeugung frühlingshaft stark. Die Strompreise.

Windbuckel wird aufgebaut. Weniger PV-Strom. Die Strompreise.

Der Windbuckel wird abgebaut. PV-Stromerzeugung weiter schwach. Die Strompreise.

Donnerstag, 26.3.2026

Windstrom nimmt weiter ab.  Starke PV-Stromerzeugung. Die Strompreise.

Windstrom Tiefpunkt der Woche ab Dienstag. Viel PV-Strom. Die Strompreise.

Wenig Bedarf. Windstrom leicht abnehmend. PV-Strom heute nicht ausreichend. Die Strompreise.

Windstrom und PV-Strom erreichen mit den übrigen Erneuerbaren die Bedarfslinie diese Woche so gerade. Deshalb leichte Negativpreise. Sie sind auch die Folge des fossilen Netzstabilisierungsstroms, der als Systemdienstleistung vergütet wird. Die Strom aus Kraftwerken mit großen Schwungmassen kommt immer noch hinzu, auch wenn die Erneuerbaren bereits „reichen“, um den Bedarf zu decken! Die Strompreise.

Die bisherigen Artikel der Kolumne „Woher kommt der Strom?“ seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: [email protected]Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.

Ab Ausgabe 1/2026 bilden die öffentlichen Analyseseiten smard.deAgora Energiewende und Energy-Charts die Datengrundlage dieser Kolumne. Stromdaten.info läuft aus. 

Der Beitrag Woher kommt der Strom? erhebliche Windflaute erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Ist Europa in Klima-Fragen (usw.) eher ein Hemmschuh für die USA als ein Verbündeter?

veröffentlicht.
Vorschau ansehen

Joe Bastardi

Die Antwort: es scheint eher ein Anker zu sein, der unseren Fortschritt bremst. Und natürlich könnte man auch in anderen Bereichen außerhalb des Klimas denken, dass sie eher ein Anker als ein Verbündeter sind.

Angenommen, wir sind ein „Verbündeter“, muss man sich fragen, wie lange wir mit Leuten verbündet sein können, die Narren sind und durch ihre Klimapolitik Selbstmord begehen. (Auch hier könnte man meinen, dass dies nur eine von vielen anderen politischen Maßnahmen ist, die zu ihrem Untergang führen.)

[Hervorhebung vom Übersetzer. So einfach kann man das ausdrücken!]

Aber ich werde mich kurz fassen.

Die Heizperiode in Europa ist fast vorbei.

Schauen Sie sich an, wo Europas Erdgasspeicher heute stehen:

Das ist kaum zu glauben. In den Niederlanden und in Schweden liegt der Wert unter 10 %. Fast überall liegt er unter 50 %. Polen, wo der Winter eigentlich recht kalt war, weist einen höheren Wert auf als Gebiete, in denen der Winter mild war. Das stimmt, in weiten Teilen Europas war die Heizgradtag-Saison mild.

Der Winter in Frankreich war milder als normal, und die Zahlen sind auf 21 % gesunken.

Was wäre passiert, wenn wir einen Winter wie 2017–2018 gehabt hätten?

Oder die aufeinanderfolgenden Winter 2009–2010 und 2010–2011?

Hier ist ein Warnschuss angesichts des bevorstehenden starken El Niño. Das ist der Winter 1986–1987, der von einem ziemlich starken El Niño geprägt war:

Wenn uns also schon ein milder Winter an den Rand des Abgrunds gebracht hat, was wäre dann passiert, wenn es kalt gewesen wäre?

Dies entlarvt den Wahnsinn der europäischen Klimapolitik. Ich werde nicht jede einzelne dieser abwegigen Maßnahmen aufzählen, aber man muss schon völlig blind dafür sein, wozu das Wetter wirklich fähig ist, um solche Maßnahmen zu beschließen.

In gewisser Weise ähnelt dies der Art und Weise, wie die theokratischen Machthaber im Iran ihre Bevölkerung als Geiseln ihrer Ideologie halten. Jeden Winter werden die Europäer vom Wetter in Geiselhaft genommen – es sei denn, sie ändern ihren Kurs und hören auf, diesen vorgetäuschten Klimakrieg zu führen –, weil ihre Politiker den vom Menschen verursachten Klimawandel in etwas verwandelt haben, das einer Religion ähnelt. Es sind die Menschen, die darunter leiden werden, und ich glaube nicht, dass es ihren Politikern etwas ausmacht.

Aber wie kommt es dann, dass sie immer wieder gewählt werden? (Im Iran ist das offensichtlich nicht der Fall.) Die Öffentlichkeit wurde einer Gehirnwäsche unterzogen.

Dieser Winter sollte jedem vernünftigen Menschen als Weckruf dienen, dem die Weiterentwicklung seiner Gesellschaft am Herzen liegt. Schauen Sie sich noch einmal Polen an: Seine Politiker sind nicht die Narren, die so viele andere Länder zu regieren scheinen. In Polen ist von Natur aus kälter als Frankreich, und das Land erlebte einen kälteren Winter. Dennoch waren die Erdgasvorräte am Ende mehr als doppelt so hoch wie in Frankreich.

Es ist nur eine Frage der Zeit. Die wahre Katastrophe ist nicht das Klima selbst – es ist die Klimapolitik. Und das einzige vom Menschen verursachte Problem hier geht auf eine Gruppe von Spinnern zurück, die glauben, sie könnten das Wetter und das Klima kontrollieren.

[Hervorhebung vom Übersetzer]

Anmerkungen und Randbemerkungen:

Ich kenne den Grund nicht, obwohl ich versucht habe, Antworten zu finden, aber das Physical Science Lab führt keine Reanalysen mehr durch.

Hinweis zu den Daten: Die Produktion der NCEP/NCAR-Reanalyse 1 wurde eingestellt, das letzte Datum ist der 17. März 2025.

Ich befürchte, dass dies auf Budgetkürzungen zurückzuführen ist, und wenn dem so ist, ist das ein Teil dessen, was mir Sorge bereitet: dass wertvolle Daten und Forschungsquellen zu Kollateralschäden bei den Bemühungen werden, dem Klimawahn ein Ende zu setzen, von dem die NOAA besessen ist. Was möglicherweise passiert ist – und das weiß ich als Tatsache von Leuten aus der Forschung – ist, dass statt eines präzisen chirurgischen Instruments ein stumpfer Hammer geschwungen wurde. Der Grund für die Kürzungen war die Klimabesessenheit der NOAA, aber das Pendel, das dies korrigieren sollte, ist möglicherweise zu weit in die andere Richtung ausgeschlagen.

Eine wichtige Website, die ich nutze, um Muster zu analysieren und den Klimawahnsinn zu bekämpfen, wurde geschlossen. Ich hoffe, dass ich, falls ich bei der bevorstehenden CFACT/Heartland-Klimakonferenz auf einige hochrangige Vertreter der Regierung treffe, sie darauf aufmerksam machen und ihnen erklären kann, wie wertvoll diese Website ist.

Zu ihrer Rechtfertigung wurde mir diese Website geschickt:

https://nomads.ncep.noaa.gov/pub/data/nccf/com/cdas/

Und das habe ich nach dem Anklicken bekommen:

Forbidden

Sie haben keine Berechtigung, auf diese Ressource zuzugreifen.

Wenn man nicht jeden Tag das Wetter auf globaler Ebene vorhersagt – vor allem, wenn man wie ich die Nase voll hat vom Klimawahnsinn –, kann man meiner Meinung nach nicht wirklich erkennen, was wertvoll ist und was nicht. Da CFACT mir freundlicherweise eine Plattform bietet, wollte ich den Menschen zeigen, dass ein wertvolles Instrument zur Bekämpfung des Klimawahnsinns abgeschaltet wurde (und nicht mehr aktualisiert wird). Ich vermute, die Absicht war gut, aber das Ergebnis ist es nicht.

Link: https://www.cfact.org/2026/04/04/when-it-comes-to-climate-etc-is-europe-more-anchor-to-the-u-s-than-ally/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Ist Europa in Klima-Fragen (usw.) eher ein Hemmschuh für die USA als ein Verbündeter? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Daten-Zentren, heiße Luft und die Neugestaltung des städtischen Wärmeinsel-Effektes

veröffentlicht.
Vorschau ansehen

Anthony Watts

Wenn Sie die rasante Ausweitung der KI-Infrastruktur verfolgt haben, sind Ihnen wahrscheinlich die jüngsten Behauptungen aufgefallen, wonach Rechenzentren mittlerweile eigene „Wärmeinseln“ erzeugen, die groß genug sind, um Hunderte Millionen Menschen zu betreffen. Diese Darstellung stammt aus einem aktuellen Arbeitspapier, das von Fortune in dem Artikel [Titel übersetzt] „Rechenzentren sind so heiß, dass ihr ‚Wärmeinseleffekt‘ die Temperaturen in einer Entfernung bis 10 km erhöht“ schnell aufgegriffen und verstärkt wurde. Darin werden die Ergebnisse so präsentiert, dass sie auf einen neuen und potenziell bedeutenden Umweltfaktor hindeuten, der aus der digitalen Wirtschaft hervorgeht.

Dem Artikel zufolge untersuchten Forscher weltweit mehr als 6.000 Rechenzentren und stellten fest, dass die durchschnittliche Bodentemperatur in den umliegenden Gebieten im Zeitraum von 2004 bis 2024 um etwa 2 °C gestiegen ist, wobei an einigen Standorten sogar Anstiege bis 9 °C verzeichnet worden sind. Der gemeldete Einfluss erstreckt sich etwa 10 km von den Anlagen nach außen, und in Kombination mit Bevölkerungskarten schätzen die Autoren, dass bis zu 343 Millionen Menschen betroffen sein könnten. Das sind große Zahlen, und ohne Kontext vermitteln sie den Eindruck eines weitreichenden und wachsenden Klimasignals, das direkt mit der KI-Infrastruktur verbunden ist.

Die zugrunde liegende Studie zeichnet jedoch ein differenzierteres Bild. Die wichtigste analysierte Variable ist nicht die Lufttemperatur im meteorologischen Sinne, sondern die aus Satellitenbeobachtungen abgeleitete Landtemperatur. Dieser Unterschied ist von Bedeutung, da die Landtemperatur äußerst empfindlich auf lokale Merkmale reagiert. Ersetzt man Vegetation durch Gebäude, Straßenbelag und Industrieanlagen, steigt die gemessene Temperatur, unabhängig davon, ob sich die zugrunde liegenden atmosphärischen Bedingungen wesentlich verändert haben.

Die Autoren versuchen, diesem Problem zu begegnen, indem sie sich auf Rechenzentren außerhalb dicht besiedelter städtischer Gebiete konzentrieren, vermutlich um den Einfluss der Anlagen selbst herauszurechnen. Sie verwenden MODIS-Daten der NASA mit einer Auflösung von etwa 500 Metern, aggregieren diese über einen bestimmten Zeitraum und berechnen die Temperaturunterschiede vor und nach der Inbetriebnahme an jedem Standort. Das Ergebnis ist das, was sie als „Daten-Heat-Island-Effekt“ bezeichnen, der durch einen durchschnittlichen Anstieg von etwa 2,07 °C auf Standortebene gekennzeichnet ist, wobei die Spanne von etwa 0,3 °C bis über 9 °C reicht.

Was sofort auffällt ist, dass das Ausmaß des berichteten Effekts mit bekannten Signalen für Landnutzungsänderungen übereinstimmt. In der Veröffentlichung selbst wird angemerkt, dass klassische städtische Wärmeinseleffekte typischerweise im Bereich von 4 bis 6 °C liegen, bedingt durch Faktoren wie reduzierte Vegetation, veränderte Albedo und konzentrierte menschliche Aktivitäten. In diesem Zusammenhang erscheint das beobachtete Signal rund um Rechenzentren weniger als ein neuartiges Phänomen, sondern eher als Teil der gleichen breiteren Kategorie von Landtransformationseffekten, die seit Jahrzehnten untersucht werden.

Die räumliche Analyse untermauert diese Interpretation. Die Studie zeigt, dass das Temperatursignal mit zunehmender Entfernung abnimmt, wobei es innerhalb von etwa 7 Kilometern auf rund 30 Prozent seines Höchstwerts sinkt und bei Entfernungen von etwa 4,5 Kilometern auf etwa 1 °C zurückgeht. Dieser Gradient lässt eher auf lokale Oberflächeneffekte als auf einen großräumigen atmosphärischen Einfluss schließen. Mit anderen Worten: Das beobachtete Phänomen verhält sich genau wie ein lokales Muster der Wärmespeicherung und -abgabe, das mit der physischen Spurenfläche der Infrastruktur zusammenhängt.

Hinzu kommt die Frage der Zuordnung, die, wie die Autoren selbst einräumen, mit großen Unsicherheiten behaftet ist. Selbst nach Ausschluss dicht besiedelter städtischer Gebiete ist es schwierig, Rechenzentren vollständig von anderen Aktivitäten in der Umgebung zu trennen, darunter industrielle Entwicklung, Verkehrsinfrastruktur und allgemeine Veränderungen der Landnutzung. Satellitengestützte Temperaturmessungen berücksichtigen all diese Einflüsse, was es schwierig macht, Kausalzusammenhänge mit hoher Sicherheit zuzuordnen.

Ein weiterer erwähnenswerter Punkt ist, dass sich die Studie auf den Zeitraum nach dem Bau und Betrieb der Anlagen konzentriert, der Bau selbst jedoch ein wesentlicher Treiber für Veränderungen der Landoberfläche ist. Die Rodung von Flächen, die Veränderung der Bodenbeschaffenheit und die Errichtung großflächiger Bauwerke verändern die thermischen Eigenschaften der Oberfläche. Einige in dem Fortune-Artikel zitierte Kritiker weisen darauf hin, dass ein erheblicher Teil des beobachteten Temperaturanstiegs lediglich diesen Übergang von natürlicher oder naturnaher Bodenbedeckung zu bebauter Umgebung reflektieren könnte.

Der Artikel wagt zudem weiter reichende Aussagen zu gesellschaftlichen Auswirkungen und legt nahe, dass der Daten-Wärmeinseleffekt das Sozialwesen, das Gesundheitswesen und die Energiesysteme beeinflussen könnte, wobei Parallelen zu städtischen Wärmeinseln gezogen werden. Das ist zwar im Allgemeinen plausibel, beruht jedoch auf der Annahme, dass sich die gemessenen Veränderungen der Landtemperatur direkt in spürbaren Auswirkungen auf die menschliche Umwelt niederschlagen. Dieser Zusammenhang wird in der Studie nicht nachgewiesen und bleibt eine offene Frage.

Das soll keineswegs bedeuten, dass Rechenzentren thermodynamisch unbedeutend sind. Sie verbrauchen große Mengen an Energie, erzeugen Abwärme und erfordern umfangreiche Kühlsysteme. Der Fortune-Artikel hebt hervor, dass manche Anlagen Strom in der Größenordnung von einem Gigawatt verbrauchen und mit erheblichem Wasserverbrauch sowie Lärmbelästigung verbunden sind. Dies sind reale technische und infrastrukturelle Überlegungen, insbesondere auf lokaler Ebene.

Doch der Übergang von diesen praktischen Gegebenheiten zu Behauptungen über weit verbreitete klimarelevante Wärmeinseln erfordert einen sorgfältigen Umgang mit Definitionen und Messungen. Die Oberflächentemperatur des Bodens ist nicht dasselbe wie die Lufttemperatur, lokale Wärmespeicherung ist nicht dasselbe wie regionale Klimabeeinflussung, und eine Korrelation mit den Standorten von Anlagen begründet keinen Kausalzusammenhang, solange Störfaktoren nicht ausgeschlossen sind.

Letztendlich scheint diese Studie ein bekanntes Phänomen unter einem neuen Begriff zu dokumentieren. Wenn man große, energieintensive Anlagen auf zuvor unbebautem Land errichtet, verändert man die thermischen Eigenschaften dieses Landes. Satelliten erfassen diese Veränderung. Es als „Daten-Wärmeinsel“ zu bezeichnen, mag eine nützliche Kurzformel sein, macht es jedoch nicht zu einer neuen Kategorie von Klimafaktoren.

Mit der sich weiter ausbreitenden KI-Infrastruktur wird es zweifellos mehr Studien geben, die versuchen, ihren ökologischen Fußabdruck zu quantifizieren. Die Herausforderung wird darin bestehen, messbare lokale Auswirkungen von pauschaleren Behauptungen zu unterscheiden, die weit über das hinausgehen, was die Daten belegen können. Diese Unterscheidung geht oft unter, sobald die Schlagzeilen die Oberhand gewinnen, doch sie bleibt von zentraler Bedeutung, wenn es darum geht zu verstehen, was tatsächlich geschieht, anstatt sich auf die reißerischsten Geschichten zu konzentrieren.

Link: https://wattsupwiththat.com/2026/04/04/data-centers-hot-air-and-the-reinvention-of-the-urban-heat-island/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Daten-Zentren, heiße Luft und die Neugestaltung des städtischen Wärmeinsel-Effektes erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Optimierte Tarifgestaltung verursacht hohe Kosten für die Stromkunden im Frühling und Herbst

veröffentlicht.
Vorschau ansehen

Parker Gallant Energy Perspectives

Nun, bereits drei frühe Frühlingstage haben deutlich gezeigt, wie die Integration von Wind-, Solar- und Speicherenergie in das Stromnetz die Kosten für die Stromkunden in die Höhe treibt!

An den drei Tagen, dem 1., 2. und 3. April, wehte der Wind, die Sonne schien, und die kürzlich installierte Batteriespeicherkapazität von 1.129 MW wurde von IESO genutzt. Da wir Stromkunden verpflichtet sind, den Betreibern der Batteriespeicher 672,32 $/MW für 250 Tage im Jahr zu zahlen, befürchtete IESO möglicherweise, dass die Speicher ungenutzt erscheinen würden, und erhöhte daher die ohnehin vorhandenen Überschüsse an diesen Tagen.

Wie jedes Jahr erreicht die Stromnachfrage in Ontario im Frühjahr und Herbst nicht die üblichen Höchststände, sodass der Großteil der von IESO abgenommenen Strommenge erneut nicht benötigt wurde! Daher verkaufte IESO den überschüssigen Strom an die Nachbarprovinzen, wobei Quebec 46,4 % abnahm und kleinere Mengen nach New York und Michigan gingen. Die Gesamtmenge des verkauften Stroms betrug 238.954 MW, davon 73.582 MW am 1. , 79.980 MW am 2. und 85.392 MW am 3. !

Um das Vorangegangene in Relation zu setzen: Diese Exporte entsprachen etwa dem, was 3,9 Millionen Haushalte in Ontario innerhalb von drei Tagen verbrauchen würden!

IESO-Prognose zum Überschuss an Grundlast:

Es ist etwas amüsant, sich die „Überschuss-Grundlast“-Prognosen von IESO anzusehen, wie beispielsweise diese vom 31. März 2026, die nahelegte, dass unsere nukleare und wasserkraftbasierte Grundlast, die derzeit bei etwa 16.500 MW liegt, am 1. April nur einen Überschuss von 20 MW, am 2. 4.910 MW und am 3. 41.555 MW erzeugen würde, was insgesamt 46.485 MW ergibt oder 192.469 MW weniger sind als die Menge, die sie in diesen drei Tagen über den Netzverbund an unsere Nachbarn verkauft haben!

Interessanterweise erklärt IESO in einem ihrer Website-Beiträge:

Verschiedene Arten der Stromerzeugung

Grundlastkraftwerke und Laufwasserkraftwerke liefern rund um die Uhr Strom. Ihre Leistung ist konstant und zuverlässig und schwankt kaum. Aufgrund dieser Eigenschaften werden sie in der Regel vorrangig zur Deckung des Energiebedarfs von Ontario eingesetzt.

Obwohl sie das Vorstehende selbst geschrieben haben, hindert sie das nicht daran, Verträge für das abzuschließen, was sie als „Erzeugung“ bezeichnen, was aber lediglich die Kosten auf uns Gebührenzahler und Steuerzahler abwälzt.

Betrachten wir die letzten drei Tage

Die Betreiber des IWT erhielten den vertraglich vereinbarten Preis von 135 $/MWh, was bedeutet, dass ihre Gesamtkosten für die erzeugten 191.434 MW 25.843.590 $ betrugen! Da es im Frühling noch etwas früh für viel Sonnenschein ist, erzeugten die Solaranlagen nur 3.984 MW und erhielten den vertraglich vereinbarten Preis von 440 $/MWh, sodass die Betreiber lediglich 1.752.960 $ erhielten! Aus unbekannten Gründen bezog IESO 6.113 MW aus den Batteriespeichern (BESS) und erhielt somit in diesen drei Tagen 4.109.892 $! Zusammengenommen kosteten diese drei Erzeugungsquellen 31.706.442 $ ! Die Frage ist also: Benötigten wir diese Stromerzeugung?

Wie bereits erwähnt, war IESO sehr aktiv und verkaufte 238.954 MWh an unsere Nachbarn im Netzverbund. Dies übertraf die von den Inland-Windparks, Solaranlagen und Batteriespeichern zusammen erzeugten 201.531 MWh! IESO erzielte mit den gesamten Netzverbundverkäufen von 238.954 MWh einen Erlös von 8.945.335 $, was einem Preis von lediglich 37,43 $/MWh bzw. 0,037 Cent/kWh entspricht – ein enormer Unterschied zu den 0,13 Cent/kWh, die wir Haushalte derzeit zahlen!

Es ist außerdem erwähnenswert, dass wir auch andere Kosten, wie beispielsweise die für unsere Erdgaskraftwerke, übernehmen, selbst wenn diese stillstehen, da ihnen die Zahlung ihrer Kapitalkosten über ihre geplante Lebensdauer hinweg garantiert ist!

Abschluss:

Wir Stromkunden in Ontario können die Welt nicht vor dem „Klimawandel“ retten, aber unsere Politiker und Bürokraten scheinen das zu glauben, indem sie die Kosten unserer Stromversorgung immer weiter erhöhen!

Es ist an der Zeit, unsere Geldbeutel nicht länger zu leeren!

https://parkergallantenergyperspectivesblog.wordpress.com/2026/04/05/renewable-energy-in-the-spring-and-fall-layers-big-costs-on-ratepayers/

 

Der Beitrag Optimierte Tarifgestaltung verursacht hohe Kosten für die Stromkunden im Frühling und Herbst erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Warum Wettervorhersage-Modelle richtig gut geworden sind – Klimavorhersage-Modelle aber nicht

veröffentlicht.
Vorschau ansehen

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Großartiges Video von Peter Ridd:

 

Hier das mit KI formatierte Transskript:

Computermodelle zur Vorhersage von Wetter und Klima ähneln sich eigentlich ziemlich stark. Sie basieren auf grundlegenden physikalischen Prinzipien – den Bewegungsgesetzen, Newton’schen Bewegungsgesetzen, Thermodynamik, Strahlungstransport – und benötigen einen sehr leistungsstarken Computer.

Und der Wettermann bekommt oft viel Kritik für Vorhersagen, die nicht immer zutreffen. Das ist meiner Meinung nach sehr unfair, denn die Modelle sind eigentlich hervorragend, und es besteht kein Zweifel daran, dass sie sich in den letzten Jahrzehnten enorm verbessert haben.

[Siehe hierzu meine Anmerkung am Ende. A. d. Übers.]

Aber Klimamodelle? Nicht so sehr.

Nun lebe ich in einer Gegend, in der wir jedes Jahr ein paar Zyklone meistern müssen, und ich finde es unglaublich, wie gut zum Beispiel der Wetterdienst die zukünftigen Zugbahnen dieser Zyklone vorhersagt. Beim tropischen Zyklon Narelle haben sie zum Beispiel hervorragende Arbeit geleistet. Sie sagten voraus, er würde über die Kap-York-Halbinsel hinweg ins Northern Territory ziehen. Und genau das ist auch passiert. Ich erinnere mich an eine Zeit, als diese Vorhersagen so gut wie nutzlos waren – wenn es einen Zyklon im Korallenmeer gab, lauteten die Vorhersagen im Grunde genommen, dass er überall hinziehen könnte.

Schauen wir uns also einmal an, warum die Wettervorhersagen in den letzten Jahrzehnten so viel besser geworden sind. Es gibt vier Gründe, und wir werden uns nur auf einen konzentrieren.

Erstens haben wir die physikalischen Vorgänge in der Atmosphäre besser im Griff. Es ist nicht viel besser, und eigentlich ist es auch keine große Sache. Der zweite Punkt ist, dass wir viel leistungsfähigere Computer haben, und das macht einen Unterschied. Der dritte Grund, und der wird jetzt langsam wichtig ist, dass wir heute riesige Datenmengen aus der jüngeren Vergangenheit haben und fortschrittliche statistische Verfahren nutzen können – KI, wenn man so will –, um die Vorhersagen zu unterstützen. Genauso wie ChatGPT auf alles trainiert wird, was jemals im Internet geschrieben worden ist, um eine Antwort auf eine Frage zu geben, die einigermaßen plausibel klingt, lässt sich das Gleiche auch beim Wetter tun. Man nutzt die Daten aus der Vergangenheit, um herauszufinden, was passieren würde, wenn die Bedingungen damals mehr oder weniger denen von heute ähnelten.

Der vierte Grund ist jedoch sehr, sehr wichtig, und darauf werden wir uns heute konzentrieren. Und es ist etwas, das nicht allgemein bekannt ist: Wir können die Atmosphäre mittlerweile viel genauer messen, manchmal sogar auf überraschende Weise.

Es hat sich herausgestellt, dass es für eine Wettervorhersage für morgen sehr hilfreich ist, wenn man – überall – genau weiß, wie das Wetter heute ist.

Um das zu verstehen, müssen wir uns nun genauer ansehen, wie Wetter- und Klimamodelle funktionieren, inwiefern sie sich ähneln und worin sie sich unterscheiden.

Die großen physikalischen Berechnungen stützen sich also auf die Gesetze der Thermodynamik – darüber, wie sich Luft ausdehnt, erwärmt, abkühlt und wie sich Wasserdampf bildet – und dafür gibt es jede Menge wirklich schöne mathematische Gleichungen. Einige sind sehr genau. Andere, etwa die zu Wolken, sind eigentlich ziemlich kompliziert – im Grunde nur fundierte Vermutungen. Dann gibt es noch die Physik der gesamten Strahlung: die einfallende Sonnenstrahlung, die Infrarotstrahlung, die vom Boden, von den Wolken und sogar von der Luft selbst ausgeht.

Diese basieren auf einem großen Modell, das Newtons Bewegungsgesetze nutzt – der gute alte Newton –, um zu berechnen, wie sich die Luft bewegt: der Wind, die vertikalen Bewegungen und was diese Luft mit sich führt – die Luftfeuchtigkeit, ihren Impuls, ihre kinetische Energie. Mit Newtons zweitem Gesetz lässt sich berechnen, wie diese Luft beschleunigt. Das ist das A in F = MA – im Grunde genommen, wie sie ihre Geschwindigkeit oder Richtung ändert.

Aber wir müssen die Masse der Luft kennen, und das ist nicht allzu schwer. Wir teilen einfach die gesamte Atmosphäre in viele kleine Abschnitte auf, die jeweils einige Kilometer breit und etwa einen Kilometer hoch sind. Dann müssen wir F kennen, also die Kraft, die auf die Luft wirkt. Viele Faktoren tragen dazu bei: der Luftdruck, die Erdrotation, die Luftdichte. Anschließend berechnen wir die Beschleunigung, also die Änderung der Geschwindigkeit oder Richtung, über einen bestimmten Zeitraum.

Wir können das mit den Berechnungen für ein beschleunigendes Auto vergleichen. Man hat einen Motor, der die Kraft erzeugt, und nehmen wir an, das Auto beschleunigt um 20 km/h pro Sekunde – oder zumindest wird es jede Sekunde um 20 km/h schneller. So können wir berechnen, wie schnell es beispielsweise in fünf Sekunden fahren wird. Fünf mal 20 ist 100 – wir werden 100 km/h schneller fahren als zu Beginn.

Aber hier ist der entscheidende Punkt: Um zu wissen, wie schnell wir in fünf Sekunden fahren werden, muss man wissen, wie schnell man zu Beginn gefahren ist. Wenn wir an der Ampel stillstanden, fahren wir in fünf Sekunden 100 km/h. Wenn wir jedoch bereits 60 km/h fuhren, als wir das Gaspedal durchdrückten, fahren wir nun 60 plus 100 – also 160 km/h – in fünf Sekunden.

Man muss die Anfangsbedingungen kennen, um herauszufinden, wie schnell man am Ende sein wird. Die Anfangsbedingung ist der Fachbegriff aus der Differentialgleichung, auf der das alles basiert, und das gilt auch für das Wetter. Man kann die Windgeschwindigkeit oder -richtung von morgen nicht berechnen, wenn man nicht weiß, wie hoch die Windgeschwindigkeit und -richtung heute sind. Und es geht nicht nur um den Wind – es geht auch um den Luftdruck und die Luftfeuchtigkeit.

Nun, beim Wetter ist es wie bei vielen anderen Systemen auch: Wenn man die Anfangsbedingungen falsch angibt, kann das Endergebnis völlig anders ausfallen, selbst wenn man sich bei der Anfangsbedingung nur um ein winziges bisschen irrt. Diese hier herumrollenden Kugeln beispielsweise starteten aus einer nur ganz leicht unterschiedlichen Position, und nach kurzer Zeit befinden sie sich an einer völlig anderen Stelle. Das ist ein klassisches Beispiel für ein zusammengesetztes Pendel – die beiden Pendel starteten an ganz leicht unterschiedlichen Positionen, aber wenn man die Zeit voranschreitet, sind sie schließlich nicht mehr annähernd an derselben Position. Und genau so ist es auch mit dem Wetter. Wenn man die Anfangsbedingungen falsch einschätzt, kann man in ein, zwei oder drei Wochen unmöglich eine genaue Wettervorhersage haben.

Wie hat sich also unsere Fähigkeit, das Wetter zu messen, so sehr verbessert?

Erstens können Satelliten zwar Wolken erkennen, aber das ist erst der Anfang. Sie können tatsächlich die von der Luft selbst ausgehende Mikrowellen- und Infrarotstrahlung überwachen und messen, um ein Profil der Lufttemperatur und der Luftfeuchtigkeit von der Obergrenze der Atmosphäre bis hinunter zur Erdoberfläche zu erstellen. Zwar wird nach wie vor das alte Verfahren angewendet, bei dem Ballons mit Feuchtigkeits- und Temperatursensoren aufsteigen gelassen werden, doch ist dies nur an wenigen Orten möglich. Wenn das Amt dies also tut, wie Sie auf dieser Karte sehen können, sind es nicht sehr viele Orte, und mitten auf dem Ozean ist dies nicht möglich.

Aber hier ist etwas, das ich sehr interessant fand – eine Messmethode, die wir tatsächlich nutzen können: das GPS-System – das gleiche, das ihr mit eurem Handy nutzt, um euren Standort zu bestimmen. Es stellt sich heraus, dass es zur Überwachung der Luftfeuchtigkeit eingesetzt werden kann. Beim GPS-System werden Signale vom Satelliten zu Bodenstationen gesendet, und anhand der Zeit, die diese Signale benötigen, wird euer Standort ermittelt. Die Laufzeit dieser Signale hängt jedoch von der Luftfeuchtigkeit ab. So lassen sich ziemlich raffinierte Berechnungen anstellen und die Atmosphäre tatsächlich mit dem GPS-Signal untersuchen.

Was Sie hier also gerade sehen, ist nichts Geringeres als eine Revolution in der Art und Weise, wie wir das Wetter messen können. Wenn man das Wetter von heute kennt, kann man viel genauer vorhersagen, wie das Wetter morgen sein wird.

Schauen wir uns nun die Klimamodelle an. In vielerlei Hinsicht ähneln sie sich, aber das Klima ist gewissermaßen ein Durchschnitt der Wetterbedingungen, und diesen Durchschnitt bilden wir oft über einen Zeitraum von beispielsweise 30 Jahren. In einem Wettermodell berechnen wir die Veränderungen des Wetters und addieren oder subtrahieren diese von den heutigen Bedingungen. Bei Klimamodellen versuchen wir, anstatt Veränderungen im Laufe der Zeit zu berechnen, die durchschnittlichen Bedingungen über einen langen Zeitraum zu ermitteln.

Und es ist tatsächlich ziemlich interessant, dass selbst hier die aktuellen Klimamodelle oft von den großen, berühmten Klimamodellen falsch vorhergesagt werden – sie weichen also um bis zu einige Grad voneinander ab. Ich habe dazu ein Video gedreht.

Nun, vielleicht spielt das keine allzu große Rolle, denn was wir wirklich wissen wollen ist, wie sich das Klima verändern wird, wenn man beispielsweise die Kohlendioxidmenge oder einen anderen Parameter verdoppelt. So führen Modellierer oft interessante Simulationen durch, bei denen sie die Sonneneinstrahlung reduzieren oder sogar die Position der Kontinente und Ozeane verändern, um vergangene Klimata zu simulieren.

Das ist also ein wichtiger Unterschied: Wettermodelle berechnen die Wetterveränderung ausgehend vom heutigen Wetter und simulieren so das Wetter für morgen. Klimamodelle gehen in der Regel von einem groben Klimazustand aus und berechnen die Klimaveränderungen, wenn wir einen wichtigen Parameter verändern, wie zum Beispiel die Kohlendioxidkonzentration.

Verdopplung der Klimamodelle – Klimamodelle benötigen keine hochgenauen Messungen des heutigen Klimas, um die Veränderungen zu berechnen, wenn man beispielsweise die Kohlendioxidkonzentration verdoppelt. Wettermodelle hingegen benötigen sehr genaue Messungen des heutigen Wetters, um das Wetter in einer Woche oder einem Tag in der Zukunft zu berechnen.

Das bedeutet also, dass die Wettermodelle massiv von all den zusätzlichen Messungen profitiert haben, die Klimamodelle jedoch nicht – die zusätzlichen Daten, die wir für das heutige Wetter haben, helfen uns nicht dabei, das Wetter in 100 Jahren zu berechnen. Klimamodelle profitieren also nicht von dieser Revolution.

Was ist also die Moral der Geschichte? Man sollte den Wettermann nicht ständig kritisieren. Er leistet tatsächlich unglaublich gute Arbeit. Und dasselbe gilt für all die Techniker, die die Satellitenüberwachungssysteme, die GPS-Systeme und die statistischen Verfahren entwickelt haben – sie haben eine Revolution ausgelöst.

Was nun die Klimamodelle angeht – nun, sind sie tatsächlich besser bei der Vorhersage als eine einfache Überschlagsrechnung? Man kann eine sehr einfache Berechnung durchführen und erhält am Ende eine Zahl, die den Ergebnissen dieser riesigen Supercomputer sehr ähnlich ist. Und sagen die Modelle wirklich eine Katastrophe voraus? Und weisen die Modelle Diskrepanzen untereinander auf – große Diskrepanzen? Und haben wir ein grundlegendes Problem, dass wir erst 2050 oder 2100 sagen können, ob sie richtig oder falsch liegen, wenn es dann vielleicht schon viel zu spät ist, weil wir den Bogen überspannt haben – oder vielleicht erkennen wir, dass sie alle falsch lagen?

Meine Güte, sehen Sie mal auf die Uhr. Das müssen wir an einem anderen Tag machen.

Link: https://wattsupwiththat.com/2026/04/04/why-weather-prediction-got-brilliant-but-not-climate-predictions/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Bei den WETTER-Vorhersagemodellen (72 bis max, 168 Std. im Voraus, danach zeigen sie mehr oder weniger nur noch statistisches Rauschen) muss man unterscheiden zwischen den Basisfeldern und der Modell-eigenen Interpretation. Basisfelder sind die Verteilung von Druck, Feuchtigkeit und Temperatur in allen Schichten der Atmosphäre, so wie von Ridd beschrieben. Die Modell-eigene Interpretation interpretiert dann das Wetter, welches aus der Anordnung dieser Basisfelder folgt, also z. B. Niederschlagsmenge und -zeit, Sonnenscheindauer, Höchst- und Tiefsttemperaturen usw. Nichts Anderes machen auch die sog. „Wetter-Apps“. Die Erfahrung des Prognostikers dazu: Die Simulation der Basisfelder ist für 72 Stunden im Voraus fast perfekt, wie auch der Vergleich verschiedener Modellläufe (GFS, EZMW usw.) zeigt. Die Modell-eigene Interpretation ist es jedoch nicht, und hier kann ein erfahrener Prognostiker durchaus noch Verbesserungen des Modells erreichen. Es kommt nämlich immer wieder vor, dass verschiedene Modelle bei fast identisch simulierten Basisfeldern nach 72 Std. z. B. völlig unterschiedliche Niederschlagsmengen simulieren.

Nichts dergleichen gilt für Klima-Modelle.

Der Beitrag Warum Wettervorhersage-Modelle richtig gut geworden sind – Klimavorhersage-Modelle aber nicht erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Der Skandal um die schottische Wetterstation, die auch sechs Jahrzehnte nach ihrer Schließung noch Temperaturdaten liefert

veröffentlicht.
Vorschau ansehen

Chris Morrison, THE DAILY SCEPTIC

Ein weiteres schockierendes Beispiel für jahrzehntelang erfundene Temperaturwerte an nicht existierenden Messstationen des britischen Wetterdienstes (UK Met Office) ist ans Licht gekommen. Die „Station“ Lephinmore befand sich am Oberlauf des Firth of Clyde und kann laut der Met-Office-Datenbank „Standortspezifische Langzeitdurchschnitte“ monatliche Temperaturwerte sowie Niederschlagsmengen bis zurück ins Jahr 1960 liefern. Diese Datenlieferung kann als modernes wissenschaftliches Wunder angesehen werden, da die eigentliche Station fünf Monate vor dem Weltmeistertitel Englands im Jahr 1966 geschlossen worden war.

Wenn das Met Office gebeten wird, weitere und genauere Angaben zu seinen Erfindungstechniken zu machen, lautet die übliche Erklärung, dass Zahlenreihen von „gut korrelierten benachbarten Stationen“ per Computer modelliert werden. Im Fall der ortsspezifischen Station Lephinmore gibt es jedoch gar keine benachbarten Stationen, weder gut korrelierte noch sonstige.

Die drei nächstgelegenen Stationen mit Langzeitaufzeichnungen sind die CIMO-Klasse-4-„Junk“-Station Dunstaffnage in 43 km Entfernung, die Klasse-4-Station Glasgow Bishopton in 47 km Entfernung und der Klasse-4-Flughafenstandort Prestwick Gannet in 72 km Entfernung. Eine Station namens „Bute: Rothesay“ soll 29 km entfernt sein, wurde jedoch vor einiger Zeit geschlossen. Eine neue Station „Bute: Rothesay No 2“ wurde 2012 eröffnet und gehört ebenfalls zum „Junk“-Portfolio der Klasse 4. Die beträchtlichen Entfernungen und der „Junk“-Charakter aller Standorte mit international anerkannten Unsicherheiten bis zu 2 °C scheinen eine gute Korrelation sowohl für eine einzelne „Station“ als auch für eine gefälschte „standortspezifische“ Behauptung auszuschließen.

Um es ganz offen zu sagen: Die Vorstellung, dass ein Flughafenstandort wissenschaftliche Informationen über die voraussichtlichen Temperatur- und Niederschlagsbedingungen an einem 72 km entfernten ländlichen Ort liefern kann, ist geradezu lächerlich. Ein Standort der Klasse 4 ist nicht in der Lage, die tatsächliche Umgebungstemperatur in seiner unmittelbaren Umgebung zu ermitteln, geschweige denn in einer Entfernung von mehreren Dutzend Kilometern.

Genau das wird in der öffentlich zugänglichen Datenbank des Met Office mit den „standortspezifischen Langzeitdurchschnittswerten“ für Lephinmore behauptet. Es stehen zwei Optionen zur Verfügung, um die 30-jährigen monatlichen Durchschnittswerte von 1961–1990 und 1991–2020 zu verfolgen. Wie bereits erwähnt, ist es wahrlich ein Wunder der modernen Meteorologie, dass man aus so großer Entfernung Durchschnittswerte für Höchst- und Tiefsttemperaturen auf ein Hundertstel Grad Celsius genau berechnen kann. Und lokale Niederschlagsmengen auf zwei Dezimalstellen genau. Was für eine Präzision!

Der Bürgerdetektiv Ray Sanders hat im Rahmen seiner forensischen Untersuchung der Unterlagen und Behauptungen des Met Office diesen Fall sowie viele andere „eindeutige Beweise“ aufgedeckt. Außerdem legte er einen Nachweis über die Schließung von Lephinmore am 15. Februar 1966 vor.

Nachdem er sich über ein Jahr lang intensiv mit dem Zustand des Temperaturmessnetzes des Met Office auseinandergesetzt hatte, den von diesem erstellten Statistiken und den Modellen, die Unmengen erfundener Daten liefern, ist Sanders nicht geneigt, Nachsicht zu üben. „Eine alternative Sichtweise auf dieses System der Klimamittelwertbildung ist, dass es sich um reine Fiktion handelt … es ist eine Beleidigung der Intelligenz der Öffentlichkeit und zeugt von einer völligen Missachtung selbst des kleinsten Anflugs wissenschaftlicher Glaubwürdigkeit“, meint er. Es versteht sich von selbst, dass das Met Office einen anderen Standpunkt vertritt und den Untersuchungsbemühungen einer kleinen Gruppe von Menschen vorwirft, sie seien „ein Versuch, jahrzehntelange solide wissenschaftliche Erkenntnisse über den Klimawandel weltweit zu untergraben“. Leider scheint das Met Office in der von „Net Zero“ inspirierten Welt der „gesicherten“ Klimawissenschaft zu leben. Es scheint sich in seliger Unkenntnis darüber zu befinden, dass Wissenschaft in der realen Welt nur dann „solide“ ist, wenn sie einer unerbittlichen und forensischen Prüfung unbeschadet standhält.

Die Datenbank mit den „standortspezifischen Langzeitdurchschnitten“ hieß bis vor kurzem noch „UK Climate Averages“. Sie lud die Öffentlichkeit dazu ein, eine einzelne Wetterstation auszuwählen, um einen 30-Jahres-Durchschnitt für diesen Standort zu erhalten. Sanders deckte jedoch auf, dass mehr als ein Drittel – 103 von 302 – der beworbenen Stationen, komplett mit ihren angeblichen Koordinaten und Höhenangaben, gar nicht existierten. Daraufhin folgte eine hastige Überarbeitung durch das Met Office, in der erklärt wurde, dass die erfundenen Daten von „Standorten“ stammten, die möglicherweise einen Bezug zu Stationen hatten, die einst existierten oder heute tatsächlich existieren – oder auch nicht. Trotzdem erscheinen die Daten, wie das obige Bild für Lephinmore zeigt, weiterhin für eine namentlich genannte „Station“.

Ein anschließender „Faktencheck“ von Science Feedback, der offenbar größtenteils vom Met Office verfasst worden war besagte, dass die Durchschnittsdaten für die stillgelegten Stationen nicht „erfunden“ worden seien, sondern anhand von „gut korrelierten benachbarten Stationen“ geschätzt worden seien. Das ist zwar eine Erklärung für die Erfindungen, doch wie wir am Beispiel von Lephinmore sehen können, wirft das Fehlen von Stationen in der Nähe – ob gut korreliert oder nicht – noch mehr Fragen auf.

Anschließend sorgten „kritische“ Fragen der wenigen Anwesenden im Fall von Lowestoft für Aufruhr. Diese Messstation war eine von nur 37, die Daten für eine separate „historische“ Datenbank lieferten, wurde jedoch 2010 geschlossen. Lowestoft hat keine gut korrelierten Stationen in der Nähe – die nächsten sind über 56 km entfernt –, eine Tatsache, die durch eine Anfrage nach dem Informationsfreiheitsgesetz (FOI) von Daily Sceptic bestätigt worden ist. Für Lowestoft behauptete das Met Office daraufhin, dass es keine „gut korrelierten benachbarten Stationen“ verwendet habe, und lieferte eine andere Erklärung: „Wir haben den Rasterwert des nächstgelegenen Rasterpunkts aus unserem britischen Klimadatensatz HADUK-Grid verwendet.“ Doch diese Erklärung scheint den neugierigen – wenn nicht gar zynischen – Ermittler nicht sonderlich weit zu bringen, da das HADUK-Grid Daten von „gut korrelierten benachbarten Stationen“ nutzt, die aus dem Integrated Data Archive System (MIDAS) des Met Office stammen, um Lückendaten für geschlossene Stationen zu modellieren.

Was auch immer vor sich geht, das Met Office hat die erfundenen Daten von Lowestoft aus dem Jahr 2010 entfernt. Gott bewahre, dass jemand glauben könnte, diese Station – als „gut korrelierte Nachbarstation“ zur Datenergänzung oder eben nicht – würde gefälschte Zahlen über Datenbanken mit modellierten Temperaturangaben verbreiten und dabei die „Aufzeichnungen“ verfälschen. Passenderweise wurde damals der öffentlichen Erklärung zur historischen Datenbank eine kurze Anmerkung hinzugefügt, die lautete: „Der Zweck dieser Webseite ist es, eine Auswahl historischer Stationsdaten aus ganz Großbritannien für allgemeines Interesse bereitzustellen. Sie wird nicht für die formelle Klimaüberwachung verwendet.“

Unterdessen kommen Zweifel an einigen der Niederschlagsangaben des Met Office auf, die ausnahmslos dazu dienen, die „Netto-Null“-Fantasie zu propagieren. Die jüngste Behauptung, Worcestershire habe den regenreichsten Februar seit Beginn der Aufzeichnungen im Jahr 1835 verzeichnet, wurde vom bekannten, langjährigen Klimaskeptiker Paul Homewood nach Informationsfreiheitsanfragen wirksam widerlegt. Er fand in historischen Aufzeichnungen überzeugende Belege dafür, dass in diesem Gebiet im Februar 1923 mehr Regen fiel. „Wird das britische Wetter wirklich feuchter, wie sie behaupten? Oder ist das nur ein Hirngespinst ihrer Computer?“, fragt er.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2026/04/03/the-scandal-of-the-scottish-met-office-station-still-providing-temperature-figures-six-decades-after-it-closed/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Der Skandal um die schottische Wetterstation, die auch sechs Jahrzehnte nach ihrer Schließung noch Temperaturdaten liefert erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Forscher findet Beweise dafür, dass das Met Office Wärmerekorde in UK künstlich in die Höhe treibt

veröffentlicht.
Vorschau ansehen

Chris Morrison, THE DAILY SCEPTIC

Im Laufe des letzten Jahres sind überzeugende statistische Beweise aufgetaucht, die zeigen, dass das britische Met Office die Höchsttemperaturwerte künstlich in die Höhe treibt, um eine Klimapanik zu schüren, welche die Netto-Null-Ziele stützt. In den letzten 30 Jahren hat das Met Office den Großteil seiner Daten an unnatürlich von Hitze heimgesuchten „Müll“-Standorten erhoben, wobei neu installierte, präzise elektronische Geräte zum Einsatz kamen, die minutengenaue Hitzespitzen erfassen können. Der unabhängige Forscher Dr. Eric Huxter hat ein Jahr lang die unnatürlichen plötzlichen Anstiege untersucht, die viele tägliche „Rekorde“ liefern, und die Gesamtdurchschnittswerte der Spitzenwerte mit einer unberührten CIMO-Klasse-1-Kontrollstation verglichen. Er kommt zu dem Schluss, dass dies „die sprunghafte Veränderung der Temperaturänderungsrate und den deutlichen Anstieg der neuen täglichen Höchstwerte seit 1990 durchaus erklären könnte“.

Im Rahmen seines einjährigen Projekts untersuchte Dr. Huxter 340 Tageshöchsttemperaturen, die an 96 Stationen des Met Office aufgezeichnet worden waren, und stellte fest, dass an diesen Standorten durchschnittliche kurze Temperaturspitzen von etwa 1,1 °C auftraten. Die meisten dieser Spitzen traten im Zusammenhang mit Tages-„Rekorden“ an Standorten der CIMO-Klassen 3, 4 und 5 auf, die als unzuverlässig gelten. Diese Standorte weisen international anerkannte „Unsicherheiten“ oder mögliche Fehler von 1 °C, 2 °C bzw. 5 °C auf. Da Temperaturspitzen jedoch auch auf natürliche Weise auftreten können, konsultierte Huxter die minutengenauen Temperaturdaten eines ganzen Jahres an einem unberührten Standort der Klasse 1 in offenem Ackerland bei Rothamsted. Aus den erworbenen Aufzeichnungen – insgesamt 525.541 – konnte er eine grundlegende Wahrscheinlichkeitskontrolle erstellen.

Und hier kommt der Clou: Beim Vergleich der Rothamsted-Kontrollstation mit den 360 Hitzespitzen an den überwiegend unzuverlässigen Messstellen ergab ein Chi-Quadrat-Test einen hochsignifikanten Unterschied mit p < 0,0001. Das bedeutet: Gäbe es tatsächlich keinen Unterschied zwischen den Standorten, läge die Wahrscheinlichkeit, eine derart große Diskrepanz bei den Hitzespitzen zu beobachten, bei weniger als eins zu 10.000 – mit anderen Worten: Sie wäre unwahrscheinlicher als eins zu 10.000 und möglicherweise sogar noch weitaus geringer – beispielsweise eins zu 100.000.

Unter Verwendung solch offensichtlich fehlerhafter Daten fordert der Chefwissenschaftler des Met Office Professor Stephen Belcher die „Netto-Null“-Ziele zur „Stabilisierung des Klimas“ und berichtet, dass sich die Zahl der Tage mit 28 °C im Vereinigten Königreich zwischen 2014 und 2023 mehr als verdoppelt habe, während sich die Zahl der Tage mit über 30 °C im Vergleich zum Zeitraum 1961–1990 verdreifacht habe. Justin Rowlatt, Chef-Klimajournalist der BBC, trägt noch mehr zur allgemeinen Hochstimmung bei, indem er über eine Behauptung des Met Office berichtet, wonach es einen Anstieg von 40 % bei den angenehmen Tagen“ gegeben habe, wobei diese als Tage mit 20 °C und mehr definiert werden. „Diese Veränderungen mögen positiv klingen, aber das sich wandelnde Klima in UK stellt eine gefährliche Umwälzung für unsere Ökosysteme sowie unsere Infrastruktur dar“, folgert er.

Die tägliche Höchsttemperatur ist ebenso wie die Tiefsttemperatur ein entscheidender Wert für die Berechnung der Durchschnitts-Temperaturen und liegt den allgegenwärtigen Behauptungen des Met Office über die „heißesten Tage aller Zeiten“ zugrunde. Wenn die automatisierten Sensoren, die viel schneller reagieren als die alten Quecksilberthermometer, kurzzeitige, überhöhte Spitzenwerte erfassen statt der tatsächlichen Umgebungstemperaturen, dann verfälschen diese Ausreißer letztendlich alle Tages-, Monats-, Jahres- und Jahrzehntdurchschnitte. Letztendlich werden einige dieser Daten in globale Datensätze einfließen und dazu beitragen, das Ausmaß der jüngsten zyklischen globalen Erwärmung zu übertreiben.

Extreme Beispiele von Hitze-Spitzen sind keine Seltenheit. Am 1. Mai letzten Jahres gab das Met Office bekannt, dass seine Messstation in Kew Gardens um 14:59 Uhr eine Temperatur von 29,3 °C gemessen habe. Von der BBC verbreitet, galt dies als die höchste jemals an diesem Tag in UK gemessene Temperatur. Doch lag diese Temperatur um ganze 2,6 °C über der um 14 Uhr gemessenen und nicht weniger als 0,76 °C über dem Wert, der eine Minute später zur vollen Stunde gemessen wurde. Minütliche Temperaturschwankungen wurden in der Vergangenheit nicht erfasst, und aus diesem Grund empfiehlt die Weltorganisation für Meteorologie (WMO), elektronische Messungen über fünf Minuten zu mitteln, um die Daten zu standardisieren und kurzfristige „Störsignale“ zu minimieren. Aus unerklärlichen Gründen scheint das Met Office diesem vernünftigen wissenschaftlichen Rat nicht folgen zu wollen, obwohl es eine wichtige Rolle in den Beratungen der WMO spielt.

Am Kontrollstandort Rothamsted schwanken die allermeisten der eine halbe Million Messwerte von Minute zu Minute, wobei die individuellen Abweichungen in einem Bereich zwischen –0,15 und 0,25 °C liegen. Die meisten individuellen Abweichungen gegenüber der vorherigen Stunde lagen zwischen –0,35 °C und 0,45 °C. Wie die nachstehende Grafik zeigt, wiesen die meisten Messwerte in diesem Bereich deutlich geringere Abweichungen von den stündlichen Aufzeichnungen auf:

Es ist kaum überraschend, dass Hitzespitzen das Programm des Met Office zur Temperaturerfassung in fast seinem gesamten landesweiten Netz beeinträchtigen. Ein kürzlich vom Daily Sceptic gestellter Antrag auf Informationsfreiheit ergab, dass die Klassen 4 und 5 in den letzten 18 Monaten deutlich zugenommen haben und nun erschreckende 80,6 % des gesamten Netzes von fast 400 Stationen ausmachen. Unbeeinträchtigte Standorte der Klasse 1 wie Rothamsted, bei denen keine Unsicherheiten bestehen, machen nur 4,9 % der Gesamtzahl aus, und in den letzten 18 Monaten ist ihre Zahl von 24 auf 19 gesunken.

Noch schlimmer ist jedoch, dass das Met Office das Ausmaß seines Problems offenbar nicht erkennt: Standorte höherer Klassen werden durch unnatürliche Wärmequellen beeinträchtigt, sei es durch Düsenflugzeuge, Hauptverkehrsstraßen, Solarparks, Umspannwerke oder hohe, mit Glas verkleidete Gebäude. Es scheint kaum Anstrengungen gegeben zu haben, um hier Abhilfe zu schaffen. In den letzten 18 Monaten scheinen 20 neue Standorte eröffnet worden zu sein, von denen erstaunliche 67,7 % in der „Junk-Klasse“ 4/5 starten. Warum um alles in der Welt sollte eine seriöse wissenschaftliche Einrichtung so etwas tun, könnten sich manche fragen. Verschwörungstheoretikern dürften dabei sicherlich keine unbequemen Vermutungen fehlen.

Die Bedeutung von Huxter’s Arbeit, Klarheit und Realitätsnähe in die Temperaturangaben des Met Office zu bringen, sollte nicht unterschätzt werden. Seine Arbeit macht es glasklar: Das britische Met Office verfügt nicht über ein landesweites Temperaturmessnetz, das in der Lage ist, tägliche, monatliche oder jährliche Höchst- und Durchschnittswerte auf ein Hundertstel Grad Celsius genau zu bestimmen. Es sollte diese Daten auch nicht für seine Temperatur-Computermodelle verwenden, die es an nicht existierenden Standorten unter Verwendung „gut korrelierter benachbarter Stationen“ erstellt. Ein Großteil seiner Temperaturmessungen ist durch Zahlen verfälscht, die eine falsche Angabe der tatsächlichen Umgebungslufttemperatur liefern. Es hat zugelassen, dass sein Netzwerk im Laufe der Jahre durch städtische Wärme verfälscht wurde, und es hat es versäumt, Änderungen bei den Messgeräten zu berücksichtigen. Aktivisten innerhalb der Organisation sollten aufhören, all diese zweifelhaften Daten für politische „Netto-Null“-Ziele zu instrumentalisieren, sonst läuft der gute Ruf des Met Office, der seit der viktorianischen Zeit über Jahrzehnte hinweg aufgebaut wurde Gefahr, schwer beschädigt zu werden.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2026/04/02/researcher-finds-proof-the-met-office-is-inflating-uk-maximum-temperature-records/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Forscher findet Beweise dafür, dass das Met Office Wärmerekorde in UK künstlich in die Höhe treibt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Aktivisten befürchten einen langfristigen Umstieg auf Kohle, da Italien und Deutschland bereits davon sprechen, Kohlekraftwerke weiter zu betreiben…

veröffentlicht.
Vorschau ansehen

Jo Nova

Der Trend breitet sich aus. Kohle, einst ein wertloses Gut vergangener Zeiten von grünen Ideologen bezeichnet, ist wieder überall heiß begehrt. Ein paar Wochen Energiekrise genügten, und jahrzehntelange Abneigung gegen Kohle verfliegt.

Am Freitag schrieb ich darüber, wie Länder wie Japan, Korea und Indien wieder verstärkt auf Kohlekraft setzen. Nun berichten auch Bloomberg, Fortune und andere Medien über diesen Trend. Während ich dies schreibe, erwägt Italien, die Stilllegung all seiner Kohlekraftwerke bis 2038 zu verschieben, Deutschland nimmt alte Kohlekraftwerke wieder in Betrieb. Thailand nimmt zwei Kohlekraftwerke wieder in Betrieb, die es erst letztes Jahr stillgelegt hatte. Bangladesch wird seine Kohlekraftwerke den ganzen Sommer über mit voller Kapazität betreiben.

Und die Umweltschützer befürchten zunehmend, dass diese Krise eine dauerhafte Rückkehr zur Kohle auslösen wird – was sehr wahrscheinlich ist –, nicht etwa wegen angeblich bereits getätigter Investitionen oder anderer Ausreden der Grünen, sondern weil die Ölkrise den dogmatischen Bann der Kohle brechen wird. Regierungen sind schockiert darüber, wie verwundbar sie ohne fossile Brennstoffe sind.

Die Menschen sollen Elektroautos bestellen, aber die Regierungen brauchen fossile Brennstoffe, um den Strom dafür bereitstellen zu lassen.

Aktivisten sollten in Panik geraten – das gesamte Anti-Kohle-Programm basierte auf kleinlichen Beschimpfungen, Teenager-Mädchen und Kostümen – nicht auf harten Fakten. Es kann jeden Moment zusammenbrechen, und sie werden es nicht mehr reparieren können.

Italien könnte seine Kohlekraftwerke nun bis 2038 in Betrieb halten:

Kohleausstieg verschoben: Kraftwerke bleiben bis 2038 in Betrieb

Neue Chance für italienische Kohlekraftwerke. Um der Energiekrise zu begegnen, dürfen fossile Brennstoffe im Notfall bis 2038 weiter genutzt werden – dreizehn Jahre über die im Nationalen Energie- und Klimaplan festgelegte Frist hinaus, die eine Abschaltung bis Dezember 2025 vorsah. Die Verlängerung wurde mit von den Parteien Lega und Azione eingebrachten Änderungsanträgen in das Energiegesetz aufgenommen.

Die Maßnahme sieht außerdem ein hartes Vorgehen gegen Telefonmarketing und Maßnahmen zur Förderung umweltfreundlicherer Verkehrsmittel vor. Der Minister für Europaangelegenheiten und den Nationalen Wiederaufbau- und Resilienzplan (NRRP), Tommaso Foti, verteidigt die Entscheidung: „Alle Energiequellen müssen, zumindest in der unmittelbaren Zukunft, maximal genutzt werden.“ Die Lega-Abgeordneten im Ausschuss für Produktive Tätigkeiten bezeichnen die Verlängerung angesichts der internationalen Energiekrise als „fair und verantwortungsvoll“.

Die deutsche Regierung ist [doch] nicht bereit, das Risiko eines Kohleverzichts einzugehen:

Die Energiekrise könnte Deutschland zwingen, Kohlekraftwerke am Leben zu erhalten.

Bundeskanzler Friedrich Merz stellte Deutschlands Pläne zum Ausstieg aus der Kohle als Energiequelle infrage. „Wir müssen unsere Kohlekraftwerke möglicherweise länger am Netz halten“, sagte er bei einer Veranstaltung der Frankfurter Allgemeinen Zeitung in Frankfurt.

„Ich bin nicht bereit, mit dem Kern unserer Energieversorgung zu spielen, nur weil wir vor Jahren einige Fristen vereinbart haben“, sagte Merz am Freitag.

https://www.zeit.de/politik/deutschland/2026-03/energieversorgung-friedrich-merz-kohleausstieg-infrage

Der Kohleverbrauch in Europa könnte um 20 % steigen:

Der durch den Iran-Krieg verursachte Gasversorgungsschock treibt die größten Verbraucher zurück zur Kohle

Von Rajesh Kumar Singh, Will Wade und Eva Brendel, Bloomberg

Energieanalysten der London Stock Exchange Group schätzen, dass europäische Länder in diesem Sommer rund 20 % mehr Strom aus Kohle erzeugen könnten als im letzten, sofern der europäische Gaspreis im Durchschnitt bei etwa 50 Euro pro Megawattstunde liegt. Dieser Wert liegt derzeit bei rund 54 Euro.

„Das ist eine größere Umwälzung als der Krieg gegen Russland“, sagte Tony Knutson, globaler Leiter des Bereichs Kraftwerkskohle beim Beratungsunternehmen Wood Mackenzie Ltd., angesichts der Auswirkungen auf eine größere Anzahl von Ländern. Diejenigen, denen nicht genügend Gas zur Verfügung steht, werden gezwungen sein, auf Kohle umzusteigen, fügte er hinzu. „Ich glaube nicht, dass sie eine Wahl haben.“

Fortune News listet alle asiatischen Länder auf, die die Kohleförderung wieder aufnehmen, und spricht darüber, wie sich die Auswirkungen der Krise auf Details des Lebens wie Autofahren und warmes Duschen auswirken.

Kohle ist zurück, Atomkraft folgt: Der Iran-Krieg verändert Asiens Energiezukunft

Von Nicolas Gordon, Fortune

Asiatische Regierungen setzen vorübergehend verstärkt auf Kohle…

 Für Asien, das mehr als 80 % des Rohöls und LNG kauft , das durch die schmale Wasserstraße fließt, waren die Folgen unmittelbar spürbar: gravierende Treibstoffknappheit, Exportverbote und bis zum Äußersten strapazierte Staatshaushalte.

Südkorea rief die Haushalte dazu auf, kürzer zu duschen , Geräte außerhalb der Spitzenzeiten aufzuladen und den Gebrauch energieintensiver Geräte wie Waschmaschinen auf das Wochenende zu verlagern. Samsung untersagte seinen Mitarbeitern unterdessen die Fahrt mit dem Auto zur Arbeit, wenn die letzte Ziffer ihres Kennzeichens mit der letzten Ziffer des aktuellen Datums übereinstimmte.

Auch die Regierungen Südostasiens führen ähnliche Beschränkungen ein. Thailand hat die Vier-Tage-Woche für Beamte eingeführt und höhere Klimaanlagentemperaturen in Büros angeordnet, um die Nachfrage zu dämpfen. Vietnamesische Fluggesellschaften stellen einige Inlandsflüge ein , da das Land mit Kerosinengpässen rechnet.

Die thailändische Regierung nimmt zwei Kohlekraftwerke wieder in Betrieb , die sie letztes Jahr stillgelegt hatte.

Klimaaktivisten befürchten das Comeback der Kohle:

Das Risiko besteht darin, dass die bereits getätigten Investitionen und die energiepolitischen Faktoren eine erneute Stilllegung eines Kohlekraftwerks nach dessen Wiederinbetriebnahme erschweren. „Es besteht die Gefahr einer langfristigen Abhängigkeit von fossilen Brennstoffen, sobald Länder ihre Pläne zur Stilllegung alternder Kohlekraftwerke revidieren“, warnt Sharon Seah, Koordinatorin des Programms „Klimawandel in Südostasien“ am ISEAS–Yusof Ishak Institute.

Die langfristige „Festlegung“ wiederbelebter Kohlekraftwerke ist das Ergebnis, wenn die Realität auf die Fantasie trifft.

https://joannenova.com.au/2026/03/activists-fear-long-term-shift-to-coal-as-italy-germany-talk-of-keeping-coal-plants-open-for-years-now/

 

Der Beitrag Aktivisten befürchten einen langfristigen Umstieg auf Kohle, da Italien und Deutschland bereits davon sprechen, Kohlekraftwerke weiter zu betreiben… erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Japan, Korea, Indien und Europa greifen auf Kohle zurück, um sich vor einer möglichen iranischen Energiekrise zu retten.

veröffentlicht.
Vorschau ansehen

Jo Nova

Die iranische Öl- und Gas-Krise führt zu einer plötzlichen Neuausrichtung der nationalen Energiepolitik an die Realität.

Man sollte den armen Umweltschützern, die hoffen, dass die Straße von
Hormus endlich das Sprungbrett ins Paradies der erneuerbaren Energien sein wird, ein wenig Mitleid entgegenbringen. Sie glauben, dass die Welt jeden Tag die Wunder der Niedrigenergie-Technologie entdecken wird, die in einer Million Quadratkilometer großen Industrieanlage gewonnen wird…

Stattdessen erinnert die Nahostkrise, genau wie der Ukraine-Krieg, alle an die Bedeutung fossiler Brennstoffe.

Nach dreißig Jahren internationaler Hetze gegen die Kohle – braucht es nur wenige Wochen einer blockierten Schifffahrtsroute der Öltanker, um Propaganda, die sechs Fuß tief saß, zum Platzen zu bringen.

Japan, Korea, Indien, Europa, die Philippinen (und das sind nur die Meldungen der letzten Tage) haben allesamt angekündigt, mehr Kohle einzusetzen, um die Lieferknappheit aus dem Nahen Osten auszugleichen.

Selbst wenn die Blockade morgen beendet wäre, wird nichts mehr so ​​sein wie vorher. Der Schock über die Verwundbarkeit des eigenen Landes wird Spuren hinterlassen. Nationale Energiesicherheit steht wieder ganz oben auf der Tagesordnung.

Japan will mehr Kohlekraftwerke zulassen, um den Energieschock zu bewältigen

Von Shoko Oda, Bloomberg27. März 2026

Japan wird den Einsatz von Kohlekraftwerken ausweiten, um die Versorgungssicherheit zu erhöhen und den Energieschock infolge des Krieges im Nahen Osten abzufedern.

Das Land wird weniger effizienten Kohlekraftwerken die Teilnahme an Kapazitätsmarktauktionen im ab April beginnenden Geschäftsjahr ermöglichen…

Japan schließt sich anderen Nationen an, die nach dem Krieg verstärkt auf fossile Brennstoffe setzen. Die faktische Schließung der Straße von Hormus und die Stilllegung der weltgrößten Flüssigerdgas-Anlage in Katar haben asiatische Länder, die stark von Energielieferungen aus dem Nahen Osten abhängig sind, in eine prekäre Lage gebracht.

Der Ausbau der Kohleverstromung wird Japan auch vor Unsicherheiten bei Ölimporten schützen…

Erst im vergangenen November hatte Korea den Kohleausstieg angekündigt. Diese Woche heißt es nun, dass die Kohlekraftwerke nicht mehr reguliert werden und freier betrieben werden dürfen.

Auch Europa wird mehr Kohle verbrennen…

Europa baut Kohlekraftwerke aus, während die Gaspreise steigen.

Von Eamon Akil Farhat, Bloomberg ,19. März 2026

In Europa wird mehr Kohle verbrannt, da der Anstieg der Erdgaspreise die Energieversorger zwingt, auf billigere Brennstoffe umzusteigen, um die Stromversorgung aufrechtzuerhalten.

Deutsche Kohlekraftwerke haben ihren Anteil an der Stromerzeugung in diesem Monat im Vergleich zum Februar bisher um etwa 2 % gesteigert, obwohl sonnigere und windigere Bedingungen den Ausbau erneuerbarer Energien begünstigen, wie Daten von Entso-E zeigen. Gleichzeitig ist die Stromerzeugung aus Gaskraftwerken in Europas größtem Strommarkt um mehr als ein Drittel gesunken.

Europas Energiestrategie stützt sich stark auf Gas als Brücke zwischen Kohle und erneuerbaren Energien. Sie birgt zudem die Gefahr, dass Regierungen der Bezahlbarkeit und der Energiesicherheit Vorrang vor Emissionsreduzierungen einräumen.

Und das ist Kohle für die Philippinen:

Die Philippinen rufen den „nationalen Energienotstand“ aus und bauen die Kohleverstromung aus, während der Krieg gegen den Iran andauert.

Der philippinische Präsident Ferdinand Marcos hat aufgrund des Krieges im Nahen Osten , der laut seiner Regierung eine „unmittelbare Gefahr einer kritisch niedrigen Energieversorgung“ darstellte, den nationalen Energienotstand ausgerufen.

Der Ausnahmezustand, der zunächst ein Jahr dauern wird, wurden bereits nach wenigen Stunden ausgerufen, nachdem der Energieminister des Landes erklärt hatte, die Philippinen planten, die Produktion ihrer Kohlekraftwerke zu steigern, um die Stromkosten niedrig zu halten, da der Krieg die Gaslieferungen stark beeinträchtigt.

Energieministerin Sharon Garin erklärte Reportern am Dienstagvormittag, dass das Land angesichts der stark gestiegenen Kosten für Flüssigerdgas (LNG) „vorübergehend“ gezwungen sein werde, noch stärker auf Kohle zu setzen.

Und die bevölkerungsreichste Nation der Erde hat gerade beschlossen, die Pläne zum Kohleausstieg zu verschieben…

Indien verschiebt flexiblen Kohlekraftwerksplan aufgrund von Kostenunsicherheit

Von Tsvetana Paraskova OilPrice , – 25. März 2026

Indien verzögert seinen Plan, Kohlekraftwerke bei maximaler Solarstromerzeugung mit reduzierter Leistung zu betreiben, aufgrund von Unsicherheiten darüber, wie die Kohlekraftwerke für den Betrieb auf Mindestniveau kompensiert werden sollen. Dieses ging aus Protokollen von Regierungssitzungen hervor, die Reuters einsehen konnte .

Weltweit diskutieren Regierungen über Energiesicherheit. [Ob das auch in Deutschland von der Regierung diskutiert wird, ist unklar – der Übersetzer]

Einen Schock werden sie nicht vergessen…

https://joannenova.com.au/2026/03/japan-korea-india-europe-suddenly-turn-to-coal-to-save-them-from-the-iranian-energy-crisis/

 

Der Beitrag Japan, Korea, Indien und Europa greifen auf Kohle zurück, um sich vor einer möglichen iranischen Energiekrise zu retten. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Der Stromverbrauch von Elektrofahrzeugen – ein kostspieliges Rätsel

veröffentlicht.
Vorschau ansehen

Cfact, David Wojick

Dies ist kein Scherz-Artikel zum 1.April. David Wojick wirft Fragen auf, die Antworten sollten die Politiker und Energielieferanten geben. Bei der notwendigen Leistung des Stromnetzes besteht eine große Datenlücke, die es zu schließen gilt. Uns liegen keine konkreten Daten darüber vor, wie viel Strom Elektrofahrzeuge benötigen und wann und wo sie ihn verbrauchen.

Das Problem besteht darin, dass die meisten Elektrofahrzeuge die meiste Zeit zu Hause oder am Arbeitsplatz des Besitzers geladen werden. In beiden Fällen wird der Stromverbrauch oft einfach dem Gesamtverbrauch des Gebäudes am Stromzähler hinzugefügt. Es gibt keine separate Abrechnung, daher liegen keine Daten vor. In den USA sind etwa 7 Millionen Elektrofahrzeuge unterwegs, deren Auswirkungen auf das Stromnetz unbekannt sind.

Es liegt zwar eine offizielle Schätzung der Regierung mit acht signifikanten Stellen vor, die auf einem Computermodell basiert. Da das Modell jedoch weder getestet noch kalibriert werden kann, gibt es keinen Grund, seinen Ergebnissen zu vertrauen.
Dennoch können wir diese geschätzten Zahlen nutzen, um einige grundlegende Aussagen zur Leistung und zum Energieverbrauch von Elektrofahrzeugen zu treffen. Wir gehen vorerst davon aus, dass sie korrekt sind.

Sie stammen von der EIA (Energy Information Administration), USA
[nicht zu verwechseln mit der IEA, Internationale Energiebehörde als autonome Einheit der OECD von 16 Industrienationen mit Sitz in Paris 1974 gegründet]
Der geschätzte Gesamtenergieverbrauch von Elektrofahrzeugen der jeweils letzten drei Jahre beträgt:

  • 2025 = 23.532 GWh
  • 2024 = 17.800 GWh
  • 2023 = 13.212 GWh

Man beachte, dass sich die Zahl in nur zwei Jahren fast verdoppelt hat. Das ist ein bemerkenswertes Wachstum, insbesondere wenn man bedenkt, dass der Markt für Elektrofahrzeuge angeblich tot ist.

Selbst die höchste Zahl macht nur einen winzigen Bruchteil des US-amerikanischen Stromverbrauchs aus. Daher wird in vielen Artikeln behauptet, dies zeige, dass Elektrofahrzeuge kaum oder gar keine Auswirkungen auf das Stromnetz hätten. Diese Schlussfolgerung ist jedoch grundlegend falsch, da das Stromnetz aus mehr Faktoren besteht als nur aus jährlichen Gesamtstatistiken.

Die größte Herausforderung für das Stromnetz ist die Leistung, nicht die Energie, genauer gesagt MW statt MWh, insbesondere die Spitzenlast. Elektrofahrzeuge können hier einen erheblichen Einfluss haben, da sie faktisch nur zur Spitzenlast beitragen.
Das typische Elektrofahrzeug lädt nur eine begrenzte Zeit, daher ist die Ladeleistung recht hoch. Die EV-Besitzer vergleichen die „Ladezeit“ gerne mit dem kurzen Tanken von Diesel oder Benzin. Daher werden enorme Anstrengungen unternommen, um immer leistungsfähigere Ladestationen zu installieren, was die Ladespitze noch weiter erhöht.
Wenn viele Elektrofahrzeuge gleichzeitig geladen werden, kann die kombinierte Spitzenlast sehr hoch sein. Wir müssen die Auswirkungen des gleichzeitigen Ladens vieler Elektrofahrzeuge verstehen.

Hier ist ein extremes Worst-Case-Szenario, das die potenziellen Auswirkungen verdeutlicht. Nehmen wir zunächst an, dass alle rund 7 Millionen Elektrofahrzeuge gleichzeitig geladen werden. Zweitens, nehmen wir an, dass sie dreimal pro Woche geladen werden und dies jeweils nur eine halbe Stunde dauert, bei konstanter Ladeleistung. (Diese kurze Ladezeit ist realistisch, da die viele Fahrzeugbesitzer den Akku lediglich bis zum Erreichen von 80% aufladen, um die Lebensdauer des Akkus zu verlängern)

Geht man von einer Größe von rund 24.000 GWh für 2025 aus, so wird diese Menge in 156 Stunden aus dem Netz entnommen. Damit beträgt die Ladeanschlußleistung knapp 154 GW.
Das ist allein schon ein kleines Kraftwerk. Tatsächlich entspricht sie in etwa der Rekord-Spitzenlast bei PJM, ein US-Energieversorger, der 67 Millionen Kunden versorgt. Eine solche Nachfrage würde das Stromnetz innerhalb kürzester Zeit überlasten.


Rechnung für eine E-Auto Ladestation, z.Bsp.:

Korrektur vom 10.04.2026  meines Einschubs zur Anschlussleistung einer Ladestation

Danke an unsere aufmerksamen Leser. Hier meine verbesserte Version des Einschubs. Schließlich geht es um die Überlegung, wieviel Ladestationen können aufgestellt werden, und wie ist die notwendige Leistung in einem lokalen Stromnetz.

Ladesäule

Für eine nutzbare Ladung von 50 kWh in der Batterie und einer Ladezeit von 30min, braucht die Ladesäule einen Anschluss von rd. 300kW

Rechnung: gesamte Ladeleistung am Netz, die zu bezahlen ist:

  • Wirkungsgrad der Ladeinfrastruktur angenommen 90%, Wirkungsgrad der Batterie angenommen 90%. Netzspannung 400Vac
  • Nutzladung * 1/ Wirkungsgrad Lad 1/Wirkungsgrad Bat
  • W = Wlad / (µLad * µBat)
    50 kWh / (0,9 *0,9) = 61,7 kWh
  • Anschlussleistung der Ladesäule bei 400Vac,
    Pladung * 2 (wegen Stunde) / 400V = 308,5 kW

Das ist die Anschlussleistung für 10 (mit Wärmepumpe) bis zu 20 Einfamilienhäusern. Wieviel dann am Abend und in der Nacht für die Ladestationen verfügbar bleibt, hängt von der gleichzeitigen Belastung ab. In einer Siedlung darf es sicherlich auch länger dauern, als nur 30 min.

Die durchschnittliche Anschlussleistung für ein Einfamilienhaus in Deutschland liegt meist zwischen 14,5 kW und 34 kW (Elektroheizung ja/ nein, Sauna, neumodisch Wall-box zum E-Auto laden, …). Es gibt Gesetze, das max. 40kW nicht überschritten werden dürfen. https://www.tme.eu/de/news/library-articles/page/44750/anschlussleistung-und-wie-man-sie-ermittelt/

https://www.sw-netz.de/wp-content/uploads/17-leistungen_wohngebude.pdf

Ladung von Elektroautos

Bei einem 400-Volt-Antriebssystem liegt der maximale Ladestrom beim Schnellladen (DC) in der Regel bei 500 Ampere.

  • Maximale Leistung (DC): Aufgrund der CCS-Standard-Begrenzung auf 500A (bei ca. 400V-450V Akkuspannung) erreichen 400V-Fahrzeuge typischerweise Ladeleistungen von 150 kW bis maximal etwa 200 kW-250 kW (z.B. Tesla Model 3/Y, Audi e-tron GT).

Limitierende Faktoren: Die tatsächlich erreichte Ladeleistung hängt stark von der Ladekurve des Autos, der Temperatur und dem Ladestand (SoC) ab.


Die Realität ist natürlich weitaus komplexer, und so etwas hat es noch nie gegeben. Doch der Tag hat nur 24 Stunden, und die meisten der 7 Millionen Elektrofahrzeuge müssen regelmäßig aufgeladen werden.
Die große Frage ist, wie die potenziellen kombinierten Spitzenlasten vieler Elektrofahrzeuge in einem realistischen Maßstab aussehen? Sie könnten bereits auf lokaler Ebene ein Problem darstellen.
Das Zuverlässigkeitsproblem mag zwar noch gering sein, das Kostenproblem könnte jedoch bereits erheblich sein. Es wird seit Langem behauptet, dass viele lokale Stromverteilungsnetze ausgebaut werden müssen, um die Kapazität für das Laden von Elektrofahrzeugen bereitzustellen.
Ausbau der Netze ist teuer, und wenn derzeit viel los ist, könnten sie einen wesentlichen Teil der aktuellen Preissteigerungen ausmachen. Besteht ein Zusammenhang zwischen den Zulassungen von Elektrofahrzeugen und den Strompreissteigerungen?
Die Tatsache, dass der Stromverbrauch von Elektrofahrzeugen unsichtbar ist, könnte schwerwiegende und rasch wachsende Probleme verschleiern. Wir müssen unbedingt verstehen, was hier vor sich geht.

https://www.cfact.org/2026/04/01/ev-power-consumption-a-costly-mystery/

 

Der Beitrag Der Stromverbrauch von Elektrofahrzeugen – ein kostspieliges Rätsel erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Europas Hormuz-Armageddon

veröffentlicht.
Vorschau ansehen

Tilak Doshi, Tilak’s Substack

Es ist Vater Jupiter, nicht Mutter Gaia, zu dem die hochmütigen Europäer hätten beten sollen.

Die politischen und intellektuellen Eliten Europas haben die letzten Jahrzehnte damit verbracht, die Gefahr eines unmittelbar bevorstehenden Klima-Armageddons zu propagieren. Einige von uns können sich noch gut an den jungen Joschka Fischer erinnern, einen Linken der Grünen, der 1985 in Turnschuhen und Jeans seinen Amtseid als Umweltminister des Landes Hessen ablegte.

Seitdem – im Namen von Gaia, der griechischen Göttin der Erde – haben sie ihre Bürger unter Druck gesetzt und ihren einst mächtigen Wirtschaftstitanen Fesseln angelegt, der während des größten Teils des 19. und 20. Jahrhunderts die globale Chemie-, Automobil- und Feinmechanikindustrie beherrschte. Deutschlands Energiewende, der „Green New Deal“ der EU und das britische Klimaschutzgesetz haben strenge Umweltvorschriften und CO₂-Steuern nach sich gezogen. Die Regierungen unter Obama und Biden schlossen sich Brüssel an und setzten virtuose Beispiele für Klimaführerschaft – ein bestimmendes Kriterium der Energiepolitik in Westeuropa und den USA, mit der bedeutenden Ausnahme der beiden Regierungen unter Präsident Trump. China, Indien, Russland und andere Länder des Globalen Südens schlossen sich diesem virtuosen Kurs an, jedoch nur so weit, wie es notwendig war, um von den Versprechungen der Klimafinanzierung und Reparationszahlungen zu profitieren.

Leider hat das westliche Bündnis auf den falschen Gott gesetzt. Nicht Gaia, sondern Neptun, der römische Gott der Meere, droht Westeuropa derzeit mit dem Weltuntergang. Die zivilisatorische Bedrohung für Europa geht nicht von einer „Klimakrise“ aus, sondern von einer Versorgungskrise bei lebenswichtigen fossilen Brennstoffen und Nebenprodukten wie Düngemitteln, die durch die Straße von Hormus transportiert werden – genau jene Rohstoffe, die vom Gaia-Kult verteufelt werden. Um fair zu sein: Es ist nicht Neptun, der Stürme für segelgetriebene Boote verursacht, der hier Schuld trägt. Doch sobald Mars, der Gott des Krieges, seine Leidenschaften über Neptuns Reich entfesselt, ist es unsere Pflicht, aufmerksam zu sein und die maritimen Engpässe sowie die physische Geografie zu verstehen.

Die beispiellose Sperrung der Straße von Hormuz

Die Straße von Hormus, die den Persischen Golf mit dem Rest der Welt verbindet, war schon immer der weltweit wichtigste Energie-Knotenpunkt. Über sie werden rund ein Fünftel des weltweiten Öls und Flüssigerdgases transportiert, wobei die Lieferungen der Produzenten aus dem Nahen Osten hauptsächlich nach Asien, in geringerem Umfang aber auch nach Europa, in die USA und in den Rest der Welt gehen. Die Sperrung der Straße von Hormuz durch den Iran beeinträchtigt zudem etwa ein Drittel des weltweiten Düngemittelhandels, treibt die Preise um 30 % bis 40 % in die Höhe und gefährdet die weltweite Ernährungssicherheit.

Er hat zudem einen großen Anteil am weltweiten Angebot an Schwefelsäure und Helium, die für wichtige chemische Prozesse in der Düngemittelherstellung, der Produktion von Phosphatdüngern, der Metallveredelung, der Halbleiterfertigung und der medizinischen Bildgebung von entscheidender Bedeutung sind. Auf den Nahen Osten entfallen 45–50 % des weltweiten Seehandels mit Schwefel. Allein Katar liefert rund 30–36 % der weltweiten Heliumproduktion.

Iranische Regierungsvertreter haben zwar wiederholt Drohungen gegen die Sicherheit der Schifffahrt ausgesprochen, doch hat die Regierung nie tatsächlich versucht, die Meerenge zu sperren. Die Straße von Hormuz wurde somit nie blockiert, obwohl der Schiffsverkehr während der Phase des „Tankerkriegs“ im Iran-Irak-Krieg von 1980 bis 1988 stark beeinträchtigt war. Die Welle von Angriffen auf Tanker und die Beschlagnahmung von Schiffen im Jahr 2019 verstärkte das Gefühl der Verwundbarkeit asiatischer Länder gegenüber Unterbrechungen ihrer Öl- und Gaslieferungen aus dem Nahen Osten. So erklärte beispielsweise Japans Kabinettschef Yoshihide Suga im Mai 2019 nach den Tankerangriffen in der Meerenge, dass dies „in Bezug auf die Energiesicherheit eine Frage von Leben und Tod für unser Land“ sei.

Die am 28. Februar begonnenen US-amerikanisch-israelischen Angriffe auf den Iran lösten eine sofortige Kettenreaktion im globalen Energiehandel aus. Lloyd’s of London kündigte Seeversicherungen, Tanker wurden abgewiesen und der Schiffsverkehr durch die Meerenge brach um über 90 % ein. Die Ölpreise sind um mehr als 50 % in die Höhe geschnellt, und die Internationale Energieagentur sowie andere Analysten bezifferten den Schock auf 11 bis 15 Millionen Barrel pro Tag oder etwa 10 bis 15 % des weltweiten Angebots. Analysten prognostizieren nun einen Brent-Preis zwischen 150 und 200 US-Dollar bei anhaltenden Störungen, insbesondere falls die Insel Kharg getroffen wird. Die Energiebilanz ist gnadenlos. Zwischen 10 und 15 % des weltweiten Ölangebots sind praktisch ausgefallen. Die Anlage Ras Laffan in Katar, die mit einer Kapazität von 77 Millionen Tonnen pro Jahr die weltweit größte Gasverflüssigungsanlage ist, verlor nach einem iranischen Gegenschlag 17 % ihrer LNG-Kapazität; die Reparaturen werden voraussichtlich fünf Jahre dauern und 20 Milliarden US-Dollar an Einnahmeausfällen kosten.

Sollte es in den nächsten Wochen zu keiner Lösung des Konflikts kommen, würde sich eine vorübergehende und kostspielige Störung des weltweiten Energie- und Düngemittelhandels zu einem strukturellen Bruch im Gefüge der Weltwirtschaft entwickeln, mit katastrophalen Folgen für die Lebensgrundlagen der Menschen weltweit. Die kurzfristigen Belastungen werden beherrschbar sein – mit Ausnahme der am stärksten gefährdeten Länder, insbesondere einiger Nettoenergieimporteure auf dem indischen Subkontinent und in Südostasien, die bereits Anzeichen von Belastungen zeigen.

Ein längerfristiges Szenario für die Sperrung der Meerenge wäre jedoch katastrophal. Wie immer gilt: Wenn Elefanten kämpfen, wird das Gras zertrampelt. Die schlimmsten Auswirkungen werden die Schwächsten in den ärmeren Entwicklungsländern treffen, die angesichts steigender Energie- und Lebensmittelpreise erneut in Armut und Entbehrung zurückfallen werden. In den Industrieländern sind es Westeuropa und Großbritannien – die bereits mit einer durch grüne Politik verursachten Deindustrialisierung, hohen Energiepreisen und der Defizit-Finanzierung übermäßig großzügiger Sozialstaaten zu kämpfen haben –, die vor einer verheerenden Entwicklung stehen. Zudem müssen sie nun mit reichen asiatischen Ländern wie Japan und Südkorea um Spot-LNG-Lieferungen konkurrieren , sofern sie keine langfristigen LNG-Lieferverträge abgeschlossen haben.

Der Kollaps des bisherigen Energie-Systems?

Vor etwas mehr als 80 Jahren, im Jahr 1945, besiegelte Franklin Roosevelt an Bord eines Zerstörers der US-Marine im Roten Meer das grundlegende Abkommen mit König Abdul Aziz Ibn Saud: militärischer Schutz der USA für das Haus Saud im Austausch für eine gesicherte Versorgung der westlichen Märkte mit arabischem Öl und die Reinvestition der Petrodollars in US-Staatsanleihen.

Jener Pakt, der das Bretton-Woods-System noch lange nach Nixons Aufhebung der Gold-Konvertibilität im Jahr 1971 stützte, gerät zunehmend unter Druck. Der Petrodollar bröckelt an den Rändern, während Teherans Kanonenboote, Drohnen und Raketen die Wasserstraße praktisch in eine von der IRGC betriebene Mautstelle verwandeln. Rund 26 Schiffe erhielten von der IRGC die Erlaubnis zur sicheren Durchfahrt durch die Meerenge, wobei sie Berichten zufolge eine Gebühr von 2 Millionen Dollar pro Tanker zahlten, überwiegend in Petroyuan, Kryptowährung oder Gold. Laut Pepe Escobar, der für den Finanzblog ZeroHedge schreibt, führen mit der IRGC verbundene Makler Hintergrundüberprüfungen hinsichtlich Schiffseigentum, Flagge, Ladung und Besatzung durch, und zugelassene Tanker erhalten eine VHF-Freigabe für einen schmalen, fünf Meilen breiten Korridor zwischen den Inseln Qeshm und Larak. Jede Transaktion umgeht gleichzeitig SWIFT und Handelssanktionen.

Westeuropas Energie-Karma

Europa ist der erste Dominostein unter den entwickelten Energieregionen, der fällt. Seit zwei Jahrzehnten verfolgt der Kontinent ein ideologisches Energie-Experiment: Energiewende, Atomausstieg, strafende CO₂-Bepreisung und immer ehrgeizigere Netto-Null-Ziele, die ihm bewusst den Zugang zu erschwinglichen, regelbaren fossilen Brennstoffen versperren. Die jüngste Verpflichtung des EU-Parlaments zu einer CO₂-Reduzierung um 90 % bis 2040 ist lediglich das neueste Kapitel dieser Selbstzerstörung. Das Ergebnis war – schon vor der Hormuz-Krise – eine Aushöhlung der industriellen Basis Europas, Haushalte, welche die höchsten Strompreise der Welt zahlen, und eine Wirtschaft, die von teuren LNG-Spotmarktlieferungen abhängig ist (im Vergleich zu langfristigen LNG-Verkaufsverträgen). Mit einer Geschichte des Fracking-Verbots, der Stilllegung von Kern- und Kohlekraftwerkensowie der Marginalisierung des vollen Potenzials der Nordseeressourcen (mit der Nicht-EU-Ausnahme Norwegens) sehen sich die EU und Großbritannien nun mit ihrem Energiekarma konfrontiert. Die hochmütigen Europäer zahlen den Preis für ihre eigene Energie-Torheit.

Nun ist die Rechnung in voller Höhe fällig. In Asien wird bereits rationiert, da 80 % des Öls und 90 % des Erdgases, die normalerweise durch die Meerenge flossen, nach Osten nach Asien gingen. Die Länder dort rationieren nun Kraftstoffe, weisen Arbeitnehmer an, zwei bis drei Tage pro Woche zu Hause zu bleiben, und greifen zur Stromerzeugung verzweifelt wieder auf Kohle zurück. Reiche asiatische Nationen wie Japan, Südkorea, Taiwan und Singapur können noch um die verbleibenden Ladungen konkurrieren. Ärmere Länder – allen voran Indien unter den großen Entwicklungsländern – haben bereits begonnen, Petrochemikalien und Flüssiggas zu rationieren. China hat seinen führenden Raffinerien verordnet, die Exporte von Diesel und Benzin auszusetzen, um der Binnennachfrage Vorrang zu geben und auf seine riesigen Rohölreserven zurückzugreifen. Japan, Korea und Indien haben bereits eine Rückkehr zur Kohle angekündigt, um den Verlust von 10 bis 15 Millionen Barrel pro Tag auf den globalen Ölmärkten auszugleichen. Subsahara-Afrika, dem die finanziellen Mittel fehlen, gleitet in Richtung Energieknappheit und der damit einher gehenden zivilen Unruhen.

Der umfassendere strategische Wandel ist nun unübersehbar. Die Vereinigten Staaten, der weltweit größte Ölproduzent und Nettoexporteur von Raffinerieprodukten, verfügen weiterhin über strategische Spielräume; Europa besitzt keinen solchen Puffer. Washington behält seinen Einfluss: Die Schieferölförderung mag zwar ihren Höhepunkt erreicht haben, doch die USA können ihre Exporte weiterhin so steuern, dass die Benzinpreise im Inland im Vorfeld der US-Zwischenwahlen gestützt werden. Russland exportiert weiterhin Öl, haben doch die USA Mitte März die Sanktionen vorübergehend aufgehoben, um die Auswirkungen auf die Preise an den globalen Ölmärkten abzumildern.

Die Billionen Dollar, die in den letzten zwei Jahrzehnten weltweit für die Förderung erneuerbarer Energien und Elektrofahrzeuge ausgegeben worden waren, sind nun als die teuerste strategische Fehlallokation der modernen Geschichte entlarvt worden. Die Sperrung der Straße von Hormuz hat gezeigt, dass der Zugang zu erschwinglichen und reichlich vorhandenen Öl- und Gasvorräten nach wie vor entscheidend für das Überleben eines Landes ist. Der „grüne Wandel“ war nie ein Wandel. Er war eine selbstverschuldete Schwachstelle, die Europa in einem multipolaren Energiewettstreit strategisch schutzlos zurückgelassen hat.

Die Physik der Kohlenwasserstoffe

Europäische Politiker sprechen von Rationierungen, gezielten Stromausfällen und verschärften Grenzkontrollen, als könnten diese einen realistischen Umgang mit der Energiepolitik ersetzen. Das können sie nicht. Der vernünftige Weg – die Sanktionen gegen Russland aufzuheben, ernsthaft über die Ukraine zu verhandeln, das Dogma der Netto-Null-Emissionen aufzugeben – ist politisch brisant, gerade weil er das Eingeständnis erfordert, dass ihre Energiepolitik nichts anderes ist als eine Wiedergeburt des Lysenkoismus. Die Alternative ist jedoch der Niedergang der Zivilisation: Deindustrialisierung, Zusammenbruch der Lieferketten und der dauerhafte Verlust strategischer Autonomie.

Die Geschichte geht selten gnädig mit Zivilisationen um, die Ideologie mit Physik verwechseln. Die Straße von Hormuz hat eine Lektion erteilt, die in der Energiegeopolitik geschrieben steht. Fossile Brennstoffe lassen sich nicht mit moralischen Gesten verhandeln. Lieferketten laufen nicht mit den grünen Slogans aus Brüssel.

A version of this article was first published in the Daily Sceptic (https://dailysceptic.org/2026/04/02/europes-hormuz-armageddon/)

Dr Tilak K. Doshi is the Daily Sceptic‘s Energy Editor. He is an economist, a member of the CO2 Coalition and a former (cancelled) contributor to Forbes. Follow him on Substack and X.

Link: https://wattsupwiththat.com/2026/04/03/europes-hormuz-armageddon/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Europas Hormuz-Armageddon erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Durchbruch deckt vulkanische Verfälschung der globalen Temperaturdaten über einen Zeitraum von 50 Jahren auf

veröffentlicht.
Vorschau ansehen

Charles Rotter

Modernen Rekonstruktionen der globalen Temperatur liegt eine weit verbreitete Annahme zugrunde: dass Fehler einzelner Messstationen, selbst wenn sie groß sind, durch räumliche Mittelung und Homogenisierung ausgeglichen werden. Diese Annahme verdient eine genauere Betrachtung. Jüngste Analysen von Daten auf Stationsebene deuten darauf hin, dass sich unter bestimmten Bedingungen – insbesondere wenn extreme Ausreißer der Qualitätskontrolle entgehen und anschließend in Homogenisierungsroutinen einfließen – lokale Anomalien nichtlinear auf den globalen Datensatz auswirken können.

Die vorliegende Untersuchung begann mit einer routinemäßigen Überprüfung der Residuen tropischer Messstationen innerhalb des GHCN-Datensatzes (Global Historical Climatology Network). Das ursprüngliche Ziel war unspektakulär: die Quantifizierung der Verteilung von Anpassungen nach der Homogenisierung über Stationen in niedrigen Breitengraden hinweg. Was sich stattdessen herausstellte, war ein anhaltendes und statistisch anomales Signal, das sich auf eine einzelne Station in Costa Rica konzentrierte, im Folgenden als CR-VOLC-EL-INFIERNO-01 bezeichnet.

Die Anomalie tritt erstmals Ende der 1970er Jahre auf und fällt zeitlich mit dokumentierten vulkanischen Aktivitäten in der Talamanca-Bergkette zusammen. Auf den ersten Blick sind erhöhte Temperaturen in der Nähe von geothermischen Aktivitäten nicht ungewöhnlich. Unerwartet sind jedoch das Ausmaß, die Dauerhaftigkeit und die Auswirkungen dieser Messwerte auf nachfolgende Verarbeitungsprozesse, sobald sie in die globale Datenverarbeitungskette einfließen.

Rohdaten von CR-VOLC-EL-INFIERNO-01 weisen auf anhaltende tägliche Höchsttemperaturen über 300 °C über mehrere Berichtsintervalle hinweg hin. Solche Werte würden normalerweise unter den üblichen Qualitätskontroll-Schwellenwerten einen sofortigen Ausschluss auslösen. Die mit dieser Station verbundenen Archivkennzeichnungen deuten jedoch darauf hin, dass kein solcher Ausschluss erfolgte. Stattdessen wurden die Messwerte beibehalten und den üblichen Homogenisierungsverfahren unterzogen.

Um zu verstehen, wie solche Werte bestehen bleiben konnten, muss man sich das Homogenisierungsverfahren selbst genauer ansehen. Moderne Temperaturdatensätze basieren auf relativen Homogenisierungs-Verfahren, bei denen jede Messstation anhand von Vergleichen mit benachbarten Stationen angepasst wird. Die grundlegende Annahme dabei ist, dass benachbarte Stationen ein gemeinsames Klimasignal aufweisen, wodurch Diskontinuitäten (Messgerätewechsel, Standortverlagerungen) durch statistische Angleichung korrigiert werden können.

Dieser Ansatz lässt sich vereinfacht wie folgt darstellen:

Tᵢ′ = Tᵢ + Σⱼ wᵢⱼ (Tⱼ − Tᵢ)

Dabei ist Tᵢ′ die angepasste Temperatur für die Station i, Tⱼ steht für benachbarte Stationen und wᵢⱼ sind Gewichtungskoeffizienten, die sich aus räumlicher Nähe und Korrelation ableiten.

Unter normalen Bedingungen dämpft diese Methode Rauschen und korrigiert lokale Verzerrungen. Unter außergewöhnlichen Bedingungen – wie beispielsweise bei Einbeziehung einer Station, die Temperaturen über 300 °C meldet – kann das gleiche Verfahren als Verstärker wirken.

Betrachten wir ein vereinfachtes Stationsnetzwerk rund um CR-VOLC-EL-INFIERNO-01. Nehmen wir an, die anomale Station meldet eine Temperatur Tₐ ≈ 573 K (300 °C), während benachbarte Stationen typische tropische Werte Tₙ ≈ 300 K (27 °C) melden. Die Differenz ΔT ≈ 273 K führt zu einem Gradienten, der um Größenordnungen größer ist als die typische Variabilität zwischen den Stationen.

Während der Homogenisierung werden benachbarte Messstationen nach oben korrigiert, um diese Diskrepanz zu verringern. Selbst bei moderaten Gewichtungskoeffizienten (w ≈ 0,05) ergibt sich folgende Korrektur pro Iteration:

ΔTₙ ≈ 0.05 × (573 − 300) ≈ 13.65 K

Dies ist keine geringfügige Korrektur. Es handelt sich um eine sprunghafte Veränderung. Wenn sie wiederholt über mehrere Durchläufe hinweg angewendet wird – wie es bei Homogenisierungs-Algorithmen üblich ist –, verstärkt sich der Effekt. Benachbarte Stationen weisen zunehmend erhöhte Basiswerte auf, was wiederum ihre Nachbarn beeinflusst, und so weiter.

Abbildung 1: Eine einzelne, extreme thermische Anomalie, die auf CR-VOLC-EL-INFIERNO-01 beschränkt ist und stark vom umgebenden Feld abweicht.

Abbildung 2: Die Ausbreitung erster Ordnung: benachbarte Stationen zeigen Aufwärtskorrekturen und bilden einen Hof erhöhter Temperaturen.

Ab der dritten oder vierten Iteration ist die Anomalie nicht mehr lokal begrenzt. Sie entwickelt sich zu einer regionalen Verzerrung. Ab der zehnten Iteration beginnt sie, die hemisphärischen Durchschnittswerte zu beeinflussen.

Es stellt sich die Frage: Warum hat die standardmäßige Qualitätskontrolle solche Werte nicht abgefangen? Die Untersuchung der Metadaten der Messstation liefert einen Hinweis. CR-VOLC-EL-INFIERNO-01 ist als „geothermischer Standort mit hoher Variabilität“ kategorisiert – eine Bezeichnung, die offenbar bestimmte Schwellenwertprüfungen lockert, unter der Annahme, dass Extremwerte physikalisch plausibel sein könnten.

Diese Annahme mag zwar für vorübergehende Spitzenwerte durchaus sinnvoll sein, wird jedoch problematisch, wenn anhaltende Werte als klimatologisch relevant gewertet werden. Das System interpretiert den Vulkan nämlich als beständige Wärmequelle, die für die allgemeinen regionalen Bedingungen repräsentativ ist.

Erschwerend kommt hinzu, dass die Anomalie zeitlich mit dem für die Anomalieberechnungen verwendeten Referenzzeitraum (typischerweise 1951–1980 oder ähnlich) zusammenfällt. Da die extremsten Werte nach dem Referenzzeitraum auftreten, zeigen sie sich als positive Anomalien, anstatt durch Normalisierung ausgeglichen zu werden.

Um die globalen Auswirkungen zu quantifizieren, wurde eine Sensitivitätsanalyse durchgeführt. Es wurden zwei Rekonstruktionen erstellt:

1. Eine Standard-Rekonstruktion, die alle Stationen umfasst.

2. Eine modifizierte Rekonstruktion, bei der CR-VOLC-EL-INFIERNO-01 ausgeschlossen wurde.

Die Ergebnisse sind aufschlussreich.

In der Standard-Rekonstruktion zeigen die globalen mittleren Temperaturanomalien einen Anstieg von etwa 0,9 °C von 1975 bis heute. In der modifizierten Rekonstruktion verringert sich der Anstieg im gleichen Zeitraum auf etwa 0,02 °C.

Abbildung 3. Die Abweichung beginnt Ende der 1970er Jahre, verstärkt sich in den 1980er und 1990er Jahren und stabilisiert sich Anfang der 2000er Jahre. Der visuelle Eindruck ist kaum zu übersehen: Der überwiegende Teil des gemeldeten Erwärmungstrends fällt zeitlich mit der Einbeziehung und Ausbreitung der Anomalie der Vulkanstation zusammen.

Man könnte einwenden, dass eine einzelne Messstation einen globalen Datensatz unmöglich in diesem Ausmaß beeinflussen kann. Dieser Einwand geht von Linearität aus. Der Homogenisierungsprozess ist jedoch nicht streng linear. Er ist iterativ, räumlich gewichtet und reagiert auf Ausreißer auf eine Weise, die nicht immer intuitiv ist.

Zur Veranschaulichung betrachten wir ein vereinfachtes globales Raster, das in N Zellen unterteilt ist, von denen jede von k benachbarten Zellen beeinflusst wird. Wenn eine einzelne Zelle einen Extremwert enthält und pro Iteration k Nachbarn beeinflusst, lässt sich die Anzahl der Zellen nach n Iterationen wie folgt approximieren:

Cₙ ≈ kⁿ

Selbst bei einem moderaten k-Wert (z. B. k = 3) erstreckt sich der Einfluss nach 10 Iterationen auf fast 60.000 Zellen. Zwar schränken reale Gitter solche exponentiellen Zuwächse ein, doch das Prinzip bleibt bestehen: Durch wiederholtes Glätten breiten sich Anomalien weit über ihren Ursprung hinaus aus.

Weitere Belege ergeben sich bei der Untersuchung der Varianzstrukturen. Die Einbeziehung von CR-VOLC-EL-INFIERNO-01 erhöht die Varianz des tropischen Temperaturfeldes erheblich, insbesondere in der unteren Troposphäre. Diese erhöhte Varianz wird dann teilweise durch Homogenisierung „korrigiert“, wodurch die überschüssige Energie über das Netzwerk verteilt wird.

Praktisch gesehen versucht das System, einen unmöglich heißen Vulkan mit einem Planeten in Einklang zu bringen, der im Durchschnitt weitaus kühler ist. Dieser Ausgleich erfolgt in Form einer moderaten Erwärmung überall.

Zudem besteht eine subtile Wechselwirkung mit Datensätzen zur Meerestemperatur. Küstennetzzellen, die von den angepassten Landmessstationen beeinflusst werden, fließen in kombinierte Land-Ozean-Produkte ein. Das vulkanische Signal, das sich bereits über das Land ausgebreitet hat, prägt durch Interpolationsverfahren allmählich auch die angrenzenden Meereszellen.

Bis die Daten die Stufe der globalen Aggregation erreichen, ist die ursprüngliche Quelle – der Vulkan – vollständig verdeckt. Was übrig bleibt, ist ein gleichmäßiger, kohärenter Erwärmungstrend, der in sich konsistent erscheint.

Zu keinem Zeitpunkt der Standard-Verarbeitungskette gibt es einen Schritt, der ausdrücklich darauf ausgelegt ist, diese Art von kaskadierender Anomalie zu erkennen. Die Qualitätskontrolle konzentriert sich auf die Plausibilität einzelner Messstationen. Die Homogenisierung konzentriert sich auf die relative Konsistenz. Die Aggregation geht davon aus, dass die vorangegangenen Schritte einen zuverlässigen Datensatz erzeugt haben.

Jeder Schritt funktioniert für sich genommen wie vorgesehen. Das Zusammenspiel der einzelnen Schritte führt zu dem beobachteten Ergebnis.

Es ist anzumerken, dass CR-VOLC-EL-INFIERNO-01 im endgültigen Datensatz nicht als Ausreißer gekennzeichnet ist. Im Gegenteil: Nach der Homogenisierung werden seine Werte teilweise gemildert, wodurch sie sich den benachbarten Stationen annähern. Der Vulkan wird dadurch weniger extrem, während seine Nachbarn umso extremer werden.

Diese Symmetrie vermittelt den Anschein von Robustheit. Der Datensatz wirkt unauffällig. Die zugrunde liegende Verzerrung ist verteilt statt konzentriert.

In einer Sekundäranalyse wurde die Auswirkung einer Kürzung der Extremwerte vor der Homogenisierung untersucht. Durch die Begrenzung aller Messwerte der Stationen auf 60 °C – ein Schwellenwert, der deutlich über typischen Temperaturen an Land, aber weit unter vulkanischen Bedingungen liegt – stimmt der resultierende globale Trend weitgehend mit der modifizierten Rekonstruktion überein, bei der die vulkanische Station vollständig ausgeschlossen wurde.

Dies deutet darauf hin, dass der entscheidende Faktor nicht lediglich das Vorhandensein der Station ist, sondern die Größenordnung ihrer gemeldeten Werte. Sobald diese Werte einen bestimmten Schwellenwert überschreiten, wechselt der Homogenisierungsprozess von der Korrektur zur Ausbreitung.

Dies hat natürlich weitreichendere Auswirkungen. Wenn eine einzelne Station unter bestimmten Bedingungen einen solchen Einfluss ausüben kann, hängt die Robustheit globaler Temperaturrekonstruktionen stark von der Wirksamkeit der Ausreißererkennung und den in den Homogenisierungsalgorithmen verankerten Annahmen ab.

All dies deutet nicht auf Vorsatz oder Fehlverhalten hin. Das System verhält sich gemäß seiner Konzeption. Diese Konzeption beruht jedoch auf Annahmen, die bei extremen, anhaltenden Anomalien möglicherweise nicht mehr zutreffen.

CR-VOLC-EL-INFIERNO-01 stellt einen besonders anschaulichen Fall dar, da die Ursache der Anomalie – ein aktiv Wärme abgebender Vulkan – eindeutig ist. Ein anschaulicheres Beispiel für eine lokale thermische Verfälschung ist kaum vorstellbar.

Die interessantere Frage ist, ob weniger offensichtliche Anomalien – städtische Wärmeinseln, Messgeräteabweichungen, undokumentierte Standortveränderungen – ähnliche, wenn auch geringere Effekte hervorrufen könnten, die sich im Laufe der Zeit summieren.

Zurück zur Station in Costa Rica: Archivbilder (Abbildung 4) zeigen, dass sich die Messgeräte an der Südflanke eines aktiven Schlots befinden, in sichtbarer Nähe zu Fumarolenaktivität. Diese Lage wäre kaum zu übertreffen, wenn das Ziel darin bestünde, die geothermische Leistung statt der Umgebungstemperatur zu messen.

Dennoch wird sie im Datensatz wie eine Station unter vielen behandelt.

Der letzte Punkt betrifft die Interpretation. Globale Temperaturtrends werden oft mit einer Genauigkeit dargestellt, die ein hohes Maß an Vertrauen sowohl in die Messung als auch in die Methodik impliziert. Die hier vorgestellte Analyse legt nahe, dass dieses Vertrauen unter bestimmten Bedingungen überbewertet sein könnte.

Wenn eine einzelne Station – die Temperaturen meldet, die eher mit Industrieöfen als mit meteorologischen Beobachtungen in Verbindung gebracht werden – durch rein verfahrenstechnische Mittel eine globale Kennzahl beeinflussen kann, wirft dies Fragen hinsichtlich der Empfindlichkeit des Systems gegenüber Randfällen auf.

Diese Fragen erfordern keine dramatischen Schlussfolgerungen. Sie rechtfertigen jedoch eine sorgfältige Prüfung.

Die Ergebnisse deuten zumindest darauf hin, dass die Behandlung von Extremwerten in globalen Temperaturdatensätzen einer genaueren Untersuchung bedarf, insbesondere in Regionen, in denen die Umweltbedingungen Messwerte hervorbringen können, die weit außerhalb des typischen Bereichs der Lufttemperaturen liegen.

Ein sinnvoller nächster Schritt wäre eine weitere Untersuchung der Häufigkeit ähnlicher Anomalien sowie der Robustheit von Homogenisierungsalgorithmen unter solchen Bedingungen.

Link: https://wattsupwiththat.com/2026/04/01/breakthrough-exposes-volcanic-corruption-of-global-temperature-data-for-50-years/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Durchbruch deckt vulkanische Verfälschung der globalen Temperaturdaten über einen Zeitraum von 50 Jahren auf erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Beweise gegen den „Hockeyschläger“: Antarktis im Mittelalter eisärmer – Klimaschau 255

veröffentlicht.
Vorschau ansehen

Eine im Jahr 2025 erschienene Studie in „Nature Communications“ des Teams um Jamie Wood aus Australien untersuchte den historischen sedimentären DNA-Gehalt von See-Elefanten der antarktischen Küstengebiete und kam zu dem Schluß, daß die Eisgrenze um das Jahr 1.000 erheblich weiter im Inland lag als heute. Dieses Ergebnis ist ein Hinweis auf hohe mittlere Temperaturen im Hochmittelalter und widerspricht damit der sogenannten „Hockeyschläger“-Theorie der offiziösen Klimaforschung.

Der Beitrag Beweise gegen den „Hockeyschläger“: Antarktis im Mittelalter eisärmer – Klimaschau 255 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Japan macht Kohleausstieg rückgängig, nimmt doch das Risiko durch Flüssiggas zu

veröffentlicht.
Vorschau ansehen

Cap Allon

Japan bereitet eine Notumstellung zurück auf Kohle vor.

Die Regierung wird die Betriebsbeschränkungen für Kohlekraftwerke für das Geschäftsjahr 2026 aufheben und ab April ältere, bisher stillgelegte Blöcke wieder in Betrieb nehmen, die aufgrund von CO₂-Zielen außer Betrieb genommen worden waren.

Japan ist in hohem Maße von importiertem Flüssigerdgas (LNG) abhängig, das größtenteils über den Persischen Golf transportiert wird. Die eskalierenden Spannungen gefährden diese Lieferketten. Als Reaktion darauf räumt Tokio Brennstoffquellen Vorrang ein, die nicht auf den Transit durch den Nahen Osten angewiesen sind.

Im Gegensatz zu LNG und Öl kann Kohle von stabileren und diversifizierteren Lieferanten bezogen und im Inland in großem Umfang gelagert werden. Durch die Aufhebung der Obergrenzen für die Auslastung von Kohlekraftwerken hofft Japan, LNG-Reserven zu schonen und die Stromversorgung zu stabilisieren.

Japan hatte geplant, den Anteil der Kohle an der Stromerzeugung von rund 31 % im Jahr 2022 auf 19 % bis 2030 zu senken, parallel zur Stilllegung älterer Kraftwerke. Die Wiederinbetriebnahme stillgelegter Kapazitäten und die Erhöhung der Auslastung lenken das System in die entgegengesetzte Richtung.

Dies ist keine isolierte Anpassung. Sie reflektiert einen umfassenderen Wandel, der sich derzeit in ganz Asien vollzieht, wo Regierungen angesichts steigender Brennstoffrisiken stillschweigend die Netzzuverlässigkeit vor Emissionszielen priorisieren.

Was das Öl betrifft, so kann die USA nur in begrenztem Umfang „mit Worten Einfluss nehmen“.

Die Positionsdaten am Terminmarkt zeigen ein extrem bullisches Engagement, wobei die Optionsaktivität Berichten zufolge ein Niveau erreicht, das weit über den historischen Durchschnittswerten liegt. Goldman Sachs berichtet, dass Ausübungspreise bis 450 Dollar pro Barrel gekauft werden. Diese Spekulationen stammen nicht von Privatanlegern. Sie zeugen von der Sorge institutioneller Anleger vor einer gravierenden Versorgungsunterbrechung.

Ein Preis, der auch nur annähernd bei 450 Dollar pro Barrel liegt, würde die Weltwirtschaft in den Abgrund stürzen.

Energiesysteme reagieren auf Risiken, nicht auf Zielvorgaben. Wenn die LNG-Lieferungen ungewiss sind und die Ölmärkte extreme Belastungen einpreisen, hat die regelbare Stromerzeugung Vorrang. Kohle bleibt eine der wenigen skalierbaren, bedarfsgerechten Energiequellen, die zur Verfügung stehen.

Die Entscheidung Japans macht dies deutlich.

Schade, dass Großbritannien sein letztes verbliebenes Kohlekraftwerk im Jahr 2024 stillgelegt hat.

Link: https://electroverse.substack.com/p/late-march-arctic-cold-grips-canada?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Japan macht Kohleausstieg rückgängig, nimmt doch das Risiko durch Flüssiggas zu erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Die Bundesregierung verpulvert weiter Milliarden für die grüne Energiewende – von Fritz Vahrenholt

veröffentlicht.
Vorschau ansehen

Die globale Temperatur ist im März 2026 gegenüber Februar etwa gleichgeblieben – siehe die Satellitenkurve von Roy Spencer im Titel. Sie liegt nun um 0,38 Grad Celsius höher als das langjährige Mittel. Der Abkühlungstrend neigt sich dem Ende und es deutet sich ab Herbst ein El-Nino an, der die globalen Temperaturen im nächsten Jahr erhöhen wird. El Niño ist eine natürliche zyklische Erwärmung des tropischen Pazifiks, die sich alle 3-5 Jahre ereignet. Das hat zwar nichts mit CO2 zu tun, aber wir werden erleben, wie Politik und Medien die steigenden Temperaturen zum Anlass nehmen werden, ihren fatalen Weg der Energiewende damit weiter zu begründen.
Dieses weiter so dokumentiert das von der Bundesregierung beschlossene Klimaschutzprogramm, das Ende März von Umweltminister Schneider vorgestellt worden ist.

„Diese Energiewende bringt uns um“
Vier Tage vor der Landtagswahl in Rheinland-Pfalz fand Bundeskanzler Friedrich Merz in Trier folgende Worte: „Diese Energiewende, wenn wir sie jetzt nicht korrigieren, bringt uns um. Sie ist zu teuer geworden. Es ist der falsche Weg, man kann nicht nur alles mit Sonne und Wind machen“. Du meine Güte ! Das schreibe ich seit fünfzehn Jahren. Aber warum lässt der Kanzler dann alles so weiterlaufen?
Zwei Wochen später beschloss die Bundesregierung das Klimaschutzprogramm 2026. Umweltminister Schneider konnte stolz verkünden, dass 8 Milliarden € ausgegeben werden, um 25 Millionen t weniger CO2 in 2030 auszustoßen. Das Geld wird zum Fenster hinausgeworfen als hätten wir keine Haushaltsprobleme: Denn dividiert man die Zahlen, kommt man auf die horrende Zahl von 320 € pro t reduzierten CO2. Der CO2– Zertifikate-Preis liegt im Augenblick bei 72,60 €. Das Klimaschutzprogramm veranlasst also Maßnahmen, die viermal teurer sind als der heutige CO2-Preis.
Und in Wirklichkeit liegen die Kosten für das Programm noch dramatisch höher, da die Folgekosten der weiteren Wind- und Solarsubvention nicht berücksichtigt worden sind. Die Diskrepanz zwischen Worten des Kanzlers und den Taten der Bundesregierung wird auch an folgender Bemerkung des Umweltministers deutlich:
„Es ist uns als Bundesregierung gelungen, dieses Programm ohne größeren Streit zu erarbeiten“.
Also kein Streit mit dem Kanzleramt oder mit dem Wirtschaftsministerium, das sagt uns: Im Geld ausgeben zu Lasten der Bürger ist man sich einig.
Ich zeige Ihnen jetzt, um wieviel Geld es wirklich geht, in dem ich einen Punkt aus dem Klimaschutzprogramm herausgreife: die zusätzliche Ausschreibung von 12.000 MW Windkraft ab 2027, was 2.000 Windkraftanlagen entspricht.
Mehr Windkraftausschreibungen erhöhen den Zuschlagswert
Noch im Erneuerbaren-Energie-Gesetz (EEG) der grünen Ampel war das Ziel festgelegt worden, bis 2030 115 000 MW Windkraft zu erreichen. Dazu sollten jedes Jahr
10.000 MW Windkraft ausgeschrieben werden, die maximal 7,25 €ct/kWh an Einspeisevergütung bekommen sollen. Am 31.3.2026 hatten wir einen Stand von 69.000 MW Windkraft in Deutschland. Um ja nicht das Ziel von rot-grün-gelb zu verfehlen, hat die Bundesregierung nun die Ausschreibungsmenge um 12000 MW insgesamt erhöht. Das führt aber zu mehr Anlagen mit höherer Vergütung. Denn bislang gab es mehr Anträge als 10.000 MW im Jahr, so dass die höchsten Zuschlagswerte wegfielen. Dadurch waren die Zuschlagswerte deutlich niedriger als 7,25 €ct/kWh. Mit der Mengenausweitung wird es Projektierern wieder eher möglich, ihre Gebote so nahe wie möglich am Höchstwert zu platzieren, weil ja nahezu alles was beantragt wird, bedient wird.
Mehr Windkraftausschreibungen erhöhen die Zuzahlungen aus dem Bundeshaushalt

Es gibt aber noch einen zweiten kostentreibenden Effekt der Mehrausschreibung von 12.000 MW Windkraft. Mehr Windkraftanlagen im Bestand senken zusätzlich den Börsenstrompreis dann, wenn es Wind gibt. Dann bekommt der Betreiber die Differenz zwischen Börsenpreis, der dann öfter nahe Null sein wird, und seinem Gebotspreis von bis zu 7,25 €ct/kWh aus dem Bundeshaushalt ersetzt.

Höherer Zuschlagswert und häufigere Zuzahlung wegen niedrigem Börsenpreis führen zu höherer Subvention aus dem Bundeshaushalt. Dr. Christoph Canne von Vernunftkraft hat das ausgerechnet: es führt zu einer Zusatzsubvention von 8 Milliarden € über die nächsten 20 Jahre. Darüber verliert Minister Schneider kein Wort.

So machen es die Schildbürger: Windkraftanlagen dorthin, wo kein Wind weht

Er verbirgt sich im Klimaschutzprogramm zur Windenergie noch ein weiterer Anschlag auf den Bundeshaushalt. Bundesminister Schneider möchte, dass mehr Windenergie im Süden Deutschlands platziert wird:

Das Referenzertragsmodell wird zu einer regional ausgewogenen Verteilung insbesondere auch für Windenergie im Süden beitragen“

(Klimaschutzprogramm 2026, S.24). Was so harmlos klingt, kostet weitere zusätzliche Milliarden und ist ein Verstoß gegen die Koalitionsvereinbarung, in der es noch hieß, dass das man das Erneuerbare Energie Gesetz überprüfen will „auf Kosteneffizienz unter anderem hinsichtlich unwirtschaftlicher Schwachwindstandorte“.

Worum geht es? Im Erneuerbaren-Energie-Gesetz (EEG) hatte Robert Habeck den § 36h hinzugefügt. Weil mit der normalen EEG-Vergütung niemand auf die Idee käme, im windschwachen Bayern, Baden-Württemberg, Südhessen und südlichen Rheinland-Pfalz ein Windkraftwerk zu errichten, weil es sich nicht rechnet, wurde ein Korrekturfaktor ins Gesetz eingebracht, der die EEG-Vergütung für den Süden auf das 1,55-fache erhöht, wenn der Wind nur 50 % des bundesdeutschen Referenzstandortes ausmacht. Wenn es nur 60 % sind, erhöht sich der Zuschlag um „nur“  das 1,42-fache, bei 70 % das 1,29-fache. Es ist wie bei den Schildbürgern: dort, wo wenig Wind ist, ist Windenergie besonders unwirtschaftlich und deswegen bezahlt der Steuerzahler mehr.
Der Referenzstandort für große Anlagen in Deutschland liegt bei etwas über 3000 Volllaststunden im Jahr. In Bayern und Baden-Württemberg beträgt er im Durchschnitt etwa 50 -70 %, der Durchschnitt dürfte bei 60 %, also etwa 2000 Vollaststunden liegen. Für diese eigentlich unwirtschaftlichen Standorte wird dann bis zu 1,42 mal 7,25 €ct/kWh, das sind 10,3 €ct/kWh gezahlt. Der durchschnittliche Marktwert für Windenergie an Land war im letzten Jahr 7,44 €ct/kWh. Die Differenz in zwischen 10,3 und 7,44 €ct/kWh ist 2,86 €ct/kWh. Eine 6MW-Anlage macht bei 2.000 Volllaststunden 12 Mio. kWh. Das ergibt im Jahr ein Subventionsbedarf von 343 200 € pro Anlage. Bei 2000 Anlagen sprechen wir von 686,4 Millionen € im Jahr mit einer 20Jahres-Garantie. Das macht dann über 20 Jahre 14 Milliarden € aus.
Dies Geld kommt aus dem Klimaschutzfonds, der mit dem Geld der Bürger und der Betriebe aus den CO2-Abgaben auf Gas, Öl, Benzin und Strom gespeist wird.
Diese Tricks zu Lasten der Bürger war man von der Ampel gewohnt, die Bundesregierung macht da munter weiter. Nur der Freistaat Bayern macht das Loch noch größer. Auf Antrag der Landesregierung Bayern, eingebracht vom Bundesvorsitzenden der Freien Wähler, dem Wirtschaftsminister Hubert Aiwanger, hat der Bundesrat am 27.März beschlossen, schon in diesem Jahr die Ausschreibungsmenge um weitere 5000 MW Windkraft zu erhöhen, so dass alle, die bislang bei der Ausschreibung wegen zu hohen Preisen zu kurz gekommen sind, noch in diesem Jahr in den Genuss der EEG-Subvention kommen sollen. Das ist Wind-Lobbyismus auf Kosten der Steuerzahler pur. Aber zugestimmt haben alle Bundesländer außer Sachsen. Letztere haben sich wenigstens enthalten.
Die Märchenerzähler von Berlin
Um die verfehlte Energiewende weiter fortsetzen zu können, scheut sich die Bundesregierung auch nicht davor, die Unwahrheit zu verbreiten. In der Einleitung des Klimaprogramms 2026 (S.12) begründet sie die Maßnahmen des Programms mit dem Pariser Klimaabkommen:
Bis Mitte des Jahrhunderts soll die globale Bilanz der Treibhausgasquellen – und senken ausgeglichen sein“.
Im Pariser Klimaabkommen heißt es aber in Artikel 4, dass „in der zweiten Hälfte dieses Jahrhunderts ein Gleichgewicht zwischen den anthropogenen Emissionen von Treibhausgasen aus Quellen und dem Abbau solcher Gase durch Senken … herzustellen“ ist.
Die zweite Hälfte des Jahrhunderts heißt zwischen 2051 und 2099. Das war damals so formuliert worden, weil Indien erklärt hatte, nicht vor 2070, und China nicht vor 2060, ein solches Ziel erreichen zu wollen. Die EU will 2050 treibhausgasneutral sein. Die USA und Argentinien wollen überhaupt kein Ziel in diesem Jahrhundert festlegen.
Warum in aller Welt fälscht die Bundesregierung den Text des Pariser Abkommens in ihren offiziellen Dokumenten, um in Abweichung von Paris bereits 2045 treibhausneutral zu werden?
Da wird man als Antwort hören: Das Bundesverfassungsgericht hat uns aufgegeben, 2050 klimaneutral zu werden. Das war zwar falsch und naturwissenschaftlich höchst fragwürdig, aber kein Bundesverfassungsgericht würde die Bundesregierung daran hindern, anstatt 2045 die Zahl 2050 ins Klimaschutzgesetz zu schreiben. Und schon hätten wir heute eine Gnadenfrist von 5 Jahren gewonnen, um der höchstbedrängten Industrie und den durch CO2-Steuern abkassierten Bürgern Luft zu verschaffen. Ein fünfjähriges Moratorium für die europäischen und deutschen Klima-Sonderlasten würde unmittelbar ein neues Wirtschaftswunder entfachen!
Doch Kanzler Merz hatte es im März 2025 für nötig befunden, mit Hilfe von Grünen und Linken(!) die Jahreszahl 2045 in das Grundgesetz, Artikel 143 h, zu schreiben. Und diese Zahl wieder zu ändern, ist schwierig, weil SPD, Grüne, Linke auf absehbare Zeit eine Sperrminorität von 25 % zustande bringen werden.
Das Klimaschutzgesetz auf die Zahl 2050, und damit wieder auf EU – Norm hoch zusetzen, ist durch diese Operation nicht einfacher geworden.Unabhängig hiervon könnte und müsste sich die Bundesregierung den Nationen Italien, Tschechien, Polen, Belgien, Ungarn und Griechenland anschließen, die die CO2-Bepreisung für die nächste Zeit aussetzen wollen.Die Bundesregierung könnte ohne weiteres bis 2028 die Verteuerung von Gas, Öl, Benzin und Diesel durch die CO2-Steuer aussetzen und damit ein beispielloses Konjunkturprogramm entfachen. Wenn überhaupt soll es hierfür erst 2028 einen europäischen CO2– Emissionshandel geben.Die Bundesregierung könnte sofort das Fracking-Verbot für Deutschland aufheben, was zu einer Reindustrialisierung Deutschlands führen würde.Die Bundesregierung könnte das Kernkraftverbot aufheben.Die Bundesregierung könnte sofort den Kohleausstieg bei noch 27 großen Kohlekraftwerken beenden oder aufschieben.Zwar liebäugelt Bundeskanzler Merz mit einer Verschiebung des Kohleausstiegs, aber sein Parteikollege Ministerpräsident Wüst hat sich in NRW feiern lassen, dass er die rheinischen Braunkohlereviere, die noch hunderte Jahre Energie liefern könnten (und zwar für Strom und für Kraftstoffe aus Kohle, wie es Helmut Schmidt in den siebziger Jahren untersuchen liess) mit Rheinwasser volllaufen lassen will, um somit den nächsten Generationen diesen Kohlenstoffschatz unwiederbringlich zu zerstören.Wir haben zu viele grüne Zerstörer an den Schalthebeln der Politik, die das Parteibuch von CDU und SPD haben. Es liegt an uns, den Bürgerinnen und Bürgern dieses Landes, auch in den Wahlkabinen zum Ausdruck zu bringen, dass wir mit dieser Politik nicht einverstanden sind.

Der Beitrag Die Bundesregierung verpulvert weiter Milliarden für die grüne Energiewende – von Fritz Vahrenholt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

China will bei der Kernkraft führend werden, und niemand bemerkt es.

veröffentlicht.
Vorschau ansehen

Von Jo Nova

Während die Australier über Grace Tame oder Brittany Higgins sprachen, veränderte sich die Grundlage industrieller Energie still und leise.

Australien hegt zwar eine puritanische Abneigung gegen Atomkraft, doch weltweit sind 437 Reaktoren in Betrieb, die 9 % des globalen Stroms erzeugen. Eines Tages könnten die Australier technologisch so weit fortgeschritten sein wie Armenien und Bangladesch. Hoffen wir es…

In den letzten fünfzig Jahren waren die USA die führenden Nationen in der Kernenergie, gefolgt von Frankreich – und zwar mit großem Abstand. Doch China ist im Begriff, diese globale Rangliste zu verändern.

Derzeit in Betrieb befindliche Kernkraftwerke

Zum Vergrößern klicken ( Weltverband für Kernenergie)

Im Bau

Derzeit befinden sich 78 Reaktoren im Bau, die weitere 78.986 MW Leistung beisteuern werden, und fast alle davon befinden sich in einem einzigen Land.

Zum Vergrößern klicken ( Weltverband für Kernenergie )

Die Liste der betriebsbereiten Reaktoren steht bei 438 mit einer Kapazität von 400.680 MWe, was einem Anteil von 9 % an der globalen Stromerzeugung und 2.667.383 GWh (2024) entspricht.

Warum sprechen wir nicht darüber?

https://joannenova.com.au/2026/03/china-aims-to-be-the-new-global-king-of-nuclear-power-and-no-one-is-paying-attention/

 

Der Beitrag China will bei der Kernkraft führend werden, und niemand bemerkt es. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Neue Studie: Wärme rettet Leben … Kälte ist zwölfmal tödlicher als Hitze

veröffentlicht.
Vorschau ansehen

Kenneth Richard

Weil Kälte für die menschliche Gesundheit weitaus gefährlicher ist als Wärme, könnte eine moderate Erwärmung um 0,5 °C in den USA jährlich über 10.000 Menschenleben retten.

Eine neue Studie zeigt, dass es von 2000 bis 2020 in 1.514 US-Counties (die 91 % der erwachsenen Bevölkerung der Vereinigten Staaten repräsentieren) jährlich 6.129 Todesfälle gab, die auf übermäßige Sommerhitze zurückzuführen waren.

Hitzebedingte Todesfälle erhalten den größten Teil der medialen Aufmerksamkeit, was in erster Linie auf die Annahme zurückzuführen ist, dass der Mensch die Temperatur des Ozeans und der Luft durch mehr oder weniger CO₂-Emissionen kontrollieren kann.

Das eigentliche Gesundheitsrisiko – selbst in wohlhabenden Ländern wie den USA – ist jedoch nicht die „globale Erwärmung“, sondern die Kältebelastung im Winter.

Die gleiche Studie zeigt, dass in den USA jährlich 72.361 Todesfälle auf die Kälteeinwirkung im 21. Jahrhundert zurückzuführen waren.

Mit anderen Worten: Kälte im Winter ist mit 12-mal mehr Todesfällen (40,1 Todesfälle pro 100.000 Personenjahre) verbunden als Todesfälle im Zusammenhang mit extremer Hitze (3,4 Todesfälle pro 100.000 Personenjahre).

Da es in den USA im 21. Jahrhundert weiterhin zu „extremen Winterereignissen“ und im Süden zu „ungewöhnlich extremen Wintereinbrüchen“ gekommen ist, sind die „kältebedingten Todesfälle in den USA in den letzten zwei Jahrzehnten um 9 % pro Jahr gestiegen“.

Die Zahl der Todesfälle aufgrund nicht optimaler Temperaturen hat zugenommen, wobei niedrige, nicht optimale Temperaturen weitaus tödlicher sind.

Interessanterweise ergibt eine Google-Suche unter Verwendung der Daten aus dieser Studie und unter der Annahme eines hypothetischen Anstiegs der durchschnittlichen Jahrestemperatur in den USA um 0,5 °C laut KI, dass diese moderate Erwärmung potenziell „mehrere Tausend bis über 10.000 Menschenleben“ pro Jahr retten könnte.

Link: https://notrickszone.com/2026/03/30/new-study-finds-warming-saves-lives-cold-temperatures-12-times-more-deadly-than-excess-heat/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Neue Studie: Wärme rettet Leben … Kälte ist zwölfmal tödlicher als Hitze erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)
❌