NEWS 23

🔒
❌
Stats
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.

☐ ☆ ✇ EIKE

Umwelt-Aktivisten kämpfen vor Gericht gegen unseren Lebensstandard

veröffentlicht.
Vorschau ansehen

Craig Rucker

[Ähnlichkeiten mit der DUH hierzulande sind natürlich rein zufällig! A. d. Übers.]

Umweltverbände und Klima-besessene Kommunalverwaltungen führen in ganz Amerika einen aggressiven „Climate Lawfare“ – sie nutzen Klagen, um den Kongress, die ins Stocken geratenen globalen Pläne der UNO, die Politik der Trump-Regierung und Urteile des Obersten Gerichtshofs zu umgehen. Sie sind entschlossen, uns allen ihre Agenda gegen fossile Brennstoffe aufzuzwingen und unseren Lebensstandard zu untergraben.

Mehr als 20 Bundesstaaten, Landkreise und Städte klammern sich an die alarmistische Behauptung, dass der vom Menschen verursachte Klimawandel eine „existenzielle Bedrohung“ darstelle, welche die rasche Abschaffung fossiler Brennstoffe erfordere.

Angestachelt von Gruppen wie EarthRights International, Youth Climate Strike, Sunrise Movement, Extinction Rebellion und dem Environmental Law Institute (das einseitige „Aufklärung“ bei Richtern vorantreibt), verklagen sie eine Handvoll großer Ölkonzerne und behaupten, diese Unternehmen hätten das Klima „gestört“ und Schäden in Milliardenhöhe durch angebliche Wetter- und Erwärmungsereignisse verursacht.

Ihr eigentliches Ziel? „Systemweite Veränderungen“ in unseren Bereichen Energie, Wirtschaft und Gesellschaft – und zwar durch eine indirekte Kohlenstoffsteuer, welche die Preise für fossile Brennstoffe in die Höhe treibt, bis sie sich die meisten Familien nicht mehr leisten können, und zwar nicht nur vor Ort, sondern landesweit.

Ein Paradebeispiel: Nachdem sie von EarthRights International kontaktiert worden waren, schlossen sich Boulder County und die Stadt Boulder mit einem anderen County in Colorado zusammen, um gegen das kanadische Unternehmen Suncor Energy und das US-amerikanische Unternehmen ExxonMobil zu klagen. Sie behaupten, diese Unternehmen hätten Eigentum, Gesundheit und Sicherheit beeinträchtigt, indem sie den Klimawandel mit höheren Temperaturen, mehr Dürren und Waldbränden, schwindenden Schneedecken, verringerten Wasservorräten, Schäden für die Landwirtschaft und Einbußen für die Skibranche angeheizt hätten.

Sie fordern Entschädigungen in Milliardenhöhe für angebliche vergangene und zukünftige „Schäden“. Beamte und Anwälte geben offen zu, dass das Endziel darin besteht, das amerikanische Energiesystem umzugestalten und überall horrend hohe Kosten für fossile Brennstoffe durchzusetzen.

Im Mai 2025 entschied der Oberste Gerichtshof von Colorado, dass diese Klage vor einem staatlichen Gericht verhandelt werden kann. Da diese Unternehmen jedoch landesweit und weltweit tätig sind und ihre Produkte verkaufen, beschränken sich die geltend gemachten Auswirkungen nicht auf Colorado, und die mit der Klage verfolgten Ziele würden Familien in den gesamten Vereinigten Staaten und darüber hinaus hart treffen.

Dieser Fall gehört vor ein Bundesgericht, wo Richter die Ansprüche aus einer breiteren nationalen und internationalen Perspektive in Bezug auf Wissenschaft, Wirtschaft und menschliches Wohlergehen bewerten würden, und nicht vor leicht manipulierbaren lokalen Instanzen und Medienberichten.

Andere machthungrige Gerichtsbarkeiten – Kalifornien, Connecticut, Minnesota, Baltimore, Honolulu und weitere – verfolgen ähnliche Angriffe vor Gericht, unterstützt von denselben Netzwerken. Sie weichen den Kernfragen aus.

Wenn es Bundesbehörden nicht gestattet ist, Angelegenheiten „von großer wirtschaftlicher und politischer Bedeutung“ ohne ausdrückliche Genehmigung des Kongresses zu regeln – wie jüngste Urteile des Obersten Gerichtshofs deutlich gemacht haben –, wie können dann Kommunalverwaltungen und Landesgerichte de facto eine nationale Energie- und Wirtschaftspolitik durchsetzen?

Wie können sie unklare wissenschaftliche Erkenntnisse, nicht vorhandene Gesetze oder vage Formulierungen zu „vernünftigen“ Auslegungen verdrehen, die ihre Befugnisse massiv ausweiten und die Kosten für die Privatwirtschaft landesweit in die Höhe treiben, entgegen den jüngsten Entscheidungen des Obersten Gerichtshofs? Wie kann diese Lawfare-Koalition – im Zusammenspiel mit Umweltaktivisten und wohlwollenden Gerichten – landesweite Vorgaben in Bezug auf fossile Brennstoffe, Klima und Emissionen durchsetzen, wenn der Kongress seit Jahrzehnten nicht handelt oder dies versäumt hat?

Wie können sie die Bedürfnisse und Wünsche von Millionen von Bürgern außer Kraft setzen, deren Heizung, Klimatisierung, Arbeitsplätze, Ernährung, Gesundheit und Lebensstandard durch diesen destruktiven Vorstoß beeinträchtigt werden würden?

Diese Tatsachen erklären, warum Entwicklungsländer wie China und Indien, die fossile Brennstoffe benötigen, um Milliarden Menschen aus Armut, Krankheit und Hoffnungslosigkeit zu befreien, auf der jüngsten UN-Klimakonferenz in Belém, Brasilien (COP30), die mit kaum mehr als bloßen Worten endete, eine unnachgiebige Haltung einnahmen. Öl, Erdgas und Kohle decken nach wie vor 80 Prozent des weltweiten Primärenergiebedarfs. China und Indien bauen monatlich neue Kohlekraftwerke; China verursacht ein Drittel der weltweiten Treibhausgasemissionen, mehr als alle Industrienationen zusammen.

Diese Länder erkennen, dass der eigentliche Schaden dadurch entsteht, dass erschwingliche Energie verboten, auf unzuverlässige erneuerbare Energien gesetzt und wichtige petrochemische Produkte blockiert werden – nicht durch den angeblichen vom Menschen verursachten Klimawandel.

Deshalb hat Präsident Trump die Vereinigten Staaten aus dem Pariser Abkommen und der UN-Klimarahmenkonvention zurückgezogen, kostspielige Vorschriften aufgehoben, die auf übertriebenen Behauptungen über eine „Klimakrise“ beruhten, und die amerikanische Öl- und Gasproduktion auf Rekordniveau gesteigert.

Der Oberste Gerichtshof hat unmissverständlich klargestellt, dass Bundesbeamte keine weitreichenden Vorschriften ohne ausdrückliche Zustimmung des Kongresses erlassen dürfen und keine „vernünftigen Auslegungen“ mehrdeutiger Gesetze vornehmen dürfen, die zu einer Ausweitung der Regulierungsbefugnisse oder zu höheren Kosten führen.

Dennoch versuchen diese lokalen „Lawfare“-Bemühungen, all dies zu umgehen. Genau aus diesem Grund hat der Oberste Gerichtshof im Februar angekündigt, dass er die Berufungen von Suncor und ExxonMobil verhandeln wird, die darauf abzielen, das Verfahren in Colorado und ähnliche lokale Klimamaßnahmen zu beenden.

Eine entschiedene Entscheidung, um diesen überzogenen Einsatz von „Lawfare“ zu stoppen, kann nicht früh genug kommen.

This article originally appeared at DC Journal

Link: https://www.cfact.org/2026/04/04/environmentalists-are-fighting-our-living-standards-in-court/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Wie in anderen ähnlichen Artikeln auch hätte man die eigennützigen und gemeingefährlichen Motive dieser Herrschaften viel mehr hervorheben müssen!

Der Beitrag Umwelt-Aktivisten kämpfen vor Gericht gegen unseren Lebensstandard erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ apolut

Das gefährlich Unsichtbare im Langsamen | Von H.-J. Müllenmeister

veröffentlicht.
Vorschau ansehen
Das gefährlich Unsichtbare im Langsamen | Von H.-J. Müllenmeister
LBS 20260414 apolut
0:00
/749.568
Das gefährlich Unsichtbare im Langsamen | Von H.-J. Müllenmeister

Ein Beitrag von Hans-Jörg Müllenmeister.

Wir Menschen glauben, Geschwindigkeit zu verstehen. Wir messen sie in Metern pro Sekunde, in Kilometern pro Stunde, in Rekorden und Bestzeiten. Wir feiern sie im Sport, bewundern sie in Maschinen, fürchten sie im Straßenverkehr. Doch unser Gefühl für Geschwindigkeit ist eine Illusion – ein Produkt unserer Sinne, nicht der Wirklichkeit.

Denn während wir uns im Alltag als ruhende Wesen empfinden, rasen wir in Wahrheit durch das Universum: Wir auf unserer Erde umkreisen die Sonne mit etwa 30 Kilometern pro Sekunde. Das Sonnensystem jagt um das galaktische Zentrum mit rund 220  Kilometern pro Sekunde. Die Milchstraße selbst driftet mit Hunderten von Kilometern pro Sekunde durch den Kosmos.

Nichts spüren wir davon. Kein Ruck, kein Wind, kein Zittern. Wir sitzen in einem perfekt gleichmäßig fahrenden „Zug“, dessen Geschwindigkeit uns verborgen bleibt. 

Psychologie: Geschwindigkeit ist Drama, Langsamkeit ist Hintergrundrauschen

Der Mensch ist ein Tier der Gegenwart. Unser Nervensystem wurde darauf optimiert, Gefahren und Chancen in Sekundenbruchteilen zu erkennen: Ein raschelnder Busch - vielleicht ein Raubtier, ein herannahender Speer - ausweichen.

Langsame Prozesse bedrohen uns nicht unmittelbar. Sie sind evolutionär irrelevant. Darum haben wir keinen Sinn für sie.

Einstein lehrte uns, dass Geschwindigkeit immer relativ ist. Doch unser Bewusstsein ist absolut – es kennt nur das, was sich in unserem eigenen Zeitfenster bewegt. Alles andere erscheint uns als Stillstand. Und genau darin liegt die Gefahr. Denn die Welt ist voller Bewegungen, die so langsam sind, dass wir sie nicht bemerken:

Kontinente driften Zentimeter pro Jahr, 
Böden verarmen über Jahrzehnte, 
Demokratien – wie Figura zeigt – erodieren über Generationen, 
Märkte kippen über Jahrzehnte in Monopole, 
Klimasysteme verschieben sich in Zehntelgraden.

Langsame Prozesse bleiben uns unsichtbar – bis sie eines Tages unaufhaltsam werden, ja gefährlich. Wie der Frosch im warmen Wasserkessel, den man langsam zum Kochen bringt. Ein biologisches Märchen – denn der echte Frosch würde springen. Doch das Bild bleibt wahr: Nicht das Ereignis bedroht uns, sondern der Prozess, der uns an die Hitze gewöhnt.

Während wir für hohe Geschwindigkeiten einen Faible haben, sind uns extrem langsame Geschwindigkeiten in der Natur nicht bewusst. Man könnte darüber spekulieren und philosophieren, warum wir Geschwindigkeit lieben – und Langsamkeit übersehen. 

Bewundernswert ist der Pistolenkrebs. Er schließt seine Scheren in nur einer Millisekunde und erzeugt dabei eine Kavitationsblase im Wasser, die mit einem Knall bis zu 250 dB implodiert und so die Beute betäubt. Diese biologische „Armbrust“ arbeitet mit der unvorstellbaren Beschleunigung von 580.000 m/s². 

Geschwindigkeit ist sichtbar, fühlbar, triumphal

Der Mensch misst sich gern in Dingen, die sich in seinem Zeithorizont abspielen: 

Ein 100‑Meter‑Lauf dauert Sekunden. 
Ein Gepard springt – und wir spüren fast körperlich die Kraft. 
Ein Formel‑1‑Auto rast an uns vorbei und lässt die Luft erzittern.
Geschwindigkeit ist ein Ereignis.
Langsamkeit ist ein Zustand.
Aber Ereignisse prägen sich ein. 

Die unsichtbare Welt der extremen Langsamkeit

Hier beginnt der philosophische Reiz, denn die Natur ist voller Bewegungen, die so langsam sind, dass sie für uns stillstehen: Kontinentalplatten driften mit wenigen Zentimetern pro Jahr, Bäume wachsen Millimeter pro Tag, Gletscher kriechen wie gefrorene Flüsse, ein Berg verwittert in Millionen Jahren, Evolution arbeitet in Jahrtausenden. 

Seeanemonen bewegen sich mit 1 cm pro Stunde – wenn überhaupt.

Für uns ist das „nichts“. Für die Natur ist es alles. Wir sind zu schnell, um das Langsame zu sehen. Wir sind zu langsam, um das Schnelle des Kosmos zu fühlen. 

Das Exponentielle beginnt als Flüstern

Jeder exponentielle Prozess beginnt harmlos. Er ist ein leises Rinnsal, das erst später zum reißenden Strom wird. Es ist die Art von Wachstum, die sich tarnt wie ein Chamäleon: harmlos, unscheinbar, fast lächerlich klein wie auch ein Virus, das sich anfangs nur verdoppelt.

Die Inflation der 1920er Jahre begann nicht mit Schubkarren voller Papiergeld, sondern mit kleinen Preissteigerungen, die man „vorübergehend“ nannte.

Die Finanzkrise 2008 begann nicht mit dem Kollaps von Lehman Brothers, sondern mit winzigen Fehlanreizen im Hypothekenmarkt, die sich über Jahre summierten.

Der Zerfall der Weimarer Republik begann nicht mit der Machtergreifung, sondern mit einer schleichenden Erosion demokratischer Normen, die man lange als „politisches Rauschen“ abtat.

Der Klimawandel begann nicht mit Hitzerekorden, sondern mit Zehntelgraden, die niemand ernst nahm.

Doch das Exponentielle ist kein „bisschen“. Viel wenig ergibt ein Viel. Es ist ein Kipppunkt, ein Umschlag, ein Bruch. Und genau deshalb ist es gefährlich. Das Exponentielle ist die Mathematik der Überraschung. Es wirkt lange wie Stillstand – bis es plötzlich alles ist. 

Die Tragik des Menschen: Wir sehen nur das Spektakel, nicht die Summe

Wir sind blind für die kleinen Abweichungen, die sich addieren. Wir unterschätzen das Kriechende, weil es nicht knallt:

Ein Wald verschwindet nicht an einem Tag, sondern Baum für Baum. 
Eine Demokratie stirbt nicht in einem Putsch, sondern in tausend kleinen Normbrüchen. 
Eine Gesellschaft verroht nicht durch einen Skandal, sondern durch die Gewöhnung an das Abnorme. 
Ein Markt kippt nicht durch ein Monopol, sondern durch stille Konzentration über Jahrzehnte. 
Die Katastrophe ist nie plötzlich.
Nur unser Erwachen ist es. 

Historische Beispiele der gefährlichen Langsamkeit

Der Aufstieg totalitärer Systeme

Totalitarismus entsteht selten durch einen einzigen Akt. Er entsteht durch kleine Einschränkungen von Rechten, minimale Verbiegung von Sprache, schrittweise Normalisierung des Undenkbaren.

Die Menschen dachten dann: „Es wird schon nicht so schlimm.“ Doch das Schlimme war längst im Werden – wie auch jetzt. 

Die langsame Erosion der römischen Republik

Rom fiel nicht durch Barbarenhorden, sondern durch jahrzehntelange Machtkonzentration, schleichende Korruption, das Gewöhnen an Ausnahmezustände.

Der Untergang war ein Prozess, kein Ereignis. 

Die Industrialisierung und ihre Nebenwirkungen

Auch hier: kein Knall, sondern ein Kriechen. Erst ein bisschen Rauch, dann ein bisschen Lärm, dann ein bisschen Entfremdung. Bis die Welt sich unwiederbringlich verändert hatte. 

Die Pointe: Das Langsame ist die wahre Geschwindigkeit unserer Zeit

Wir fürchten das Rasende, doch das Rasende ist selten nachhaltig gefährlich. Das Gefährliche ist das, was sich unterhalb unserer Wahrnehmung bewegt. Wir verlieren nicht plötzlich die Natur – wir verlieren sie in kleinen Schritten. Wir verlieren nicht plötzlich die Freiheit – wir verlieren sie in winzigen Zugeständnissen. Wir verlieren nicht plötzlich die Vernunft – wir verlieren sie in der Gewöhnung an das Absurde. Die Welt geht nicht in Explosionen zugrunde, sondern in Erosionen. 

Das Gefährliche an der Langsamkeit ist nicht ihre Harmlosigkeit, sondern ihre Tarnung

Wir Menschen sind evolutionär darauf geeicht, auf das Plötzliche zu reagieren – nicht auf das Schleichende. Und genau dort, im Reich des Exponentiellen, lauern die größten Gefahren unserer Zeit. 

Ein heilsames Innehalten

Vielleicht ist die wichtigste Tugend unserer Zeit nicht Schnelligkeit, sondern Aufmerksamkeit. Nicht Reaktion, sondern Wahrnehmung. Nicht Aktionismus, sondern Bewusstsein für das Langsame. Denn die Zukunft wird nicht von schnellen Ereignissen entschieden, sondern von den schwelenden Prozessen, die wir zu lange ignorieren – wie im Hier und Jetzt.  

+++

Dank an den Autor für das Recht zur Veröffentlichung des Beitrags.

+++

Dieser Beitrag erschien zuerst am 06. April 2026 bei anderweltonline.com

+++

Bild: Wälder und kristallklares Wasser schwimmen über trockenem Land.

Bildquelle: Aree_S / shutterstock

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Abrupter Klimawandel – menschgemacht oder natürlich? Klimaschau 256

veröffentlicht.
Vorschau ansehen

Die Behauptung einer nie dagewesenen Geschwindigkeit des Klimawandels gehört zu den erst in den letzten Jahren aufgekommenen Argumenten der Alarmisten in Wissenschaft & Journalismus.
Demnach habe sich durch den Ausstoß von Kohlendioxid der europäischen Industrie die mittlere Erdtemperatur seit 1850 so rasch verändert wie nie zuvor. Aber stimmt das?

Nein – seit geraumer Zeit untersuchen Forscher schnelle Temperaturwechsel im Erdklima. Ein prominentes Beispiel dafür ist die Studie mit dem Titel „Globale atmosphärische Fernwirkungen während Dansgaard-Oeschger-Ereignissen“ einer Arbeitsgruppe um Bradley Markle von der Seattle University im Bundesstaat Washington. Sie erschien 2017 im Fachblatt „Nature Geoscience“.
Bereits vor Jahrzehnten sind vor allem durch die Arbeit des dänischen Forschers Willi Dansgaard und seines Schweizer Kollegen Hans Oeschger abrupte Klimaschwankungen bekannt geworden.

Der Beitrag Abrupter Klimawandel – menschgemacht oder natürlich? Klimaschau 256 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Klimawandel und Intersektionalität

veröffentlicht.
Vorschau ansehen

Climate Litigation Watch

Ist AP die Abkürzung für „Übernommene Propaganda“?

Die Leser von CLW haben sich über die juristische „Schulungsmaschinerie“ auf dem Laufenden gehalten, welche die Klägeranwälte und die mit ihnen verbundenen Wissenschaftler sowie NGO-Aktivisten rasch auf die Beine gestellt hatten, nachdem die Klimaklageindustrie 2018 zwei Niederlagen vor Bundesgerichten hatte hinnehmen müssen. Der Hintergrund dieser „Schulungen“ – derzeit ein heißes Thema, über das hier erstmals im Mai und dann im Oktober 2021 berichtet wurde und seitdem immer wieder – wurde insbesondere in Veröffentlichungen der University of Oregon (siehe z. B. hier), der Oregon State University (hier, hier und hier) und der University of Washington (hier, hier, hier und hier) näher beleuchtet. Letztere hat uns gerade ein weiteres Beispiel dafür geliefert, dass „sie genau die sind, für die wir sie gehalten haben“.

Prof. Kristie Ebi von der University of Washington wurde von den National Academies of Sciences, Engineering and Medicine (NASEM) rekrutiert, um im Team der externen Gutachter der „beschleunigten“ und (wie das GAO in seinen Stellungnahmen hervorhob) von Aktivisten dominierten („von Natur aus bis zur Absurdität widersprüchlichen“) NASEM-Kampagne mitzuwirken, deren Ziel es war, den heimischen „Heiligen Gral“ der Klimabefürworter aufrechtzuerhalten. Das ist das „Endangerment Finding“ von 2009, von der wir alle inzwischen wissen, dass sie von Aktivisten vorgefertigt worden war, die dann in der Regierung freigeschaltet wurden, um eine Agenda voranzutreiben.

Der unvoreingenommene, nachdenklich die Wange streichelnde Wahrheitssucher der UW arbeitete gleichzeitig mit Mitgliedern des Teams der Klimakläger zusammen – von der Gruppe, die als „Anwälte des Rockefeller-Familienfonds“ bekannt ist, bis hin zu Aktivisten und Sachverständigen, die vor Richtern vorgeführt wurden, die an schicke Orte rekrutiert worden waren, um die Sichtweise der Kläger (und nur die Sichtweise der Kläger) anzuhören (und sich davon beeinflussen zu lassen).

Ende letzten Jahres zeichnete sich eine weitere Priorität ab, nämlich die Untergrabung des „Endangerment Finding“ durch das „Red Team“ führender Wissenschaftler, die vom Energieministerium zusammengestellt worden waren und die ursprüngliche Auslassungen sowie Entwicklungen seit 2009 ans Licht brachten. Dies löste zudem eine Notlage aus, der mit der „objektiven“, vom Steuerzahler finanzierten NASEM-Initiative begegnet werden sollte, die nun unter anderem Gegenstand einer Untersuchung durch den Kongress ist.

Dies betrifft vor allem Ersteres, wirft aber auch ein sehr schlechtes Licht auf Letzteres: Eine Reihe von Unterlagen, die „Government Accountability & Oversight“ gerade erhalten hat, erinnert uns zudem an die Rolle als Fürsprecher, die Medienunternehmen in diesen Fragen übernommen haben – von CNN und CBS, die Berater des Klägerteams für „Klimaberichte“ im Fernsehen ausstrahlten und sogar bei sich unterbrachten, über andere traditionsreiche Medien, deren Stiftungen mit beiden Händen von aktivistischen Spenderorganisationen gefüttert werden, bis hin zur ungeschickteren Associated Press (Patient Null bei der Besetzung vermeintlicher Nachrichtenmedien durch Stiftungen, sogar einer der von Facebook zusammengestellten Faktenprüfer“, um die Kontrolle über die Berichterstattung zu behalten).

AP lag natürlich vor weniger als einem Jahrzehnt auf dem Sterbebett, als die Klimaaktivisten-Stiftungen mit Millionenbeträgen einsprangen. Interpretieren Sie das, wie Sie wollen. CLW liest dasselbe heraus, was Ebi andeutet.

Die jüngste Korrespondenz steht hier.

Wer hätte das gedacht?

Link: https://wattsupwiththat.com/2026/04/08/climate-industry-intersectionality/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Klimawandel und Intersektionalität erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ COMPACT

«Ein neues Geschäftsmodell»

veröffentlicht.
Vorschau ansehen

Er war einer der Gründer der deutschen Anti-Atomkraft-Bewegung und hält ihre ökologischen Ideale weiter hoch. Warum er trotzdem vom vermeintlichen Klimaschutz nichts hält, erklärte der Hamburger in seinem spannenden Vortrag. _ von Holger Strohm Zum Klimaschutz und zur Greta: Das Mädchen ist eigentlich sehr sympathisch, und ich will ihr gar nichts Böses unterstellen, das Mädchen [...]

Der Beitrag «Ein neues Geschäftsmodell» erschien zuerst auf COMPACT.

(Auszug von RSS-Feed)

☐ ☆ ✇ apolut

Transformation um jeden Preis – Ideologische Grüne und ihre Widersprüche | Von Uwe Froschauer

veröffentlicht.
Vorschau ansehen Transformation um jeden Preis – Ideologische Grüne und ihre Widersprüche | Von Uwe Froschauer

Ein Meinungsbeitrag von Uwe Froschauer.

Die Partei Bündnis 90/Die Grünen versteht sich als Motor für eine tiefgreifende ökologische und gesellschaftliche Transformation. Ihr Anspruch ist hoch: Klimaschutz, Nachhaltigkeit und eine wertegeleitete Außenpolitik sollen Deutschland zukunftsfähig machen. Das klingt zunächst gut und zukunftsweisend.

Doch je stärker die Partei politische Verantwortung trug, desto stärker verstrickte sie sich in Widersprüche. Insbesondere in der Energie-, Wirtschafts- und Außenpolitik ist den Grünen vorzuwerfen, dass Anspruch und Wirklichkeit zunehmend auseinanderdriften – und dass politische Entscheidungen erhebliche Nebenwirkungen für Wohlstand, Versorgungssicherheit und Glaubwürdigkeit in Deutschland haben.

Energiepolitik: Transformation mit massiven Widersprüchen

Der Atomausstieg vom April 2023 war ein klassisches Beispiel realitätsferner, ideologieverbrämter grüner Politik. Dieser moralisch aufgeladene, ökonomisch riskante und ökologisch unsinnige Schritt ist typisch für die grünen Traumtänzer. Ausgerechnet in einem Industrieland wie Deutschland mit hohem, wetterunabhängigem Strombedarf wurde gesicherte Leistung aus dem Netz genommen, obwohl jeder wusste, dass Wind und Sonne keine verlässliche Lieferung von Strom garantieren.

Die Bundesnetzagentur definiert eine Dunkelflaute als Phase, in der Wind- und Solaranlagen über mindestens 48 Stunden hinweg unter 15 Prozent ihrer installierten Leistung bleiben. Solche Phasen traten Ende 2024 auf – beispielsweise mit 34 Stunden über 300 Euro pro Megawattstunde zwischen dem 5. und 7. November sowie am 11. und 12. Dezember.

Am 12. Dezember 2024 lag der deutsche Strompreis zwischen 17 und 18 Uhr bei 936,28 Euro pro Megawattstunde, während der Verbrauch 66,8 GWh betrug, Wind und Sonne aber zusammen nur 1,4 GWh lieferten – also gut zwei Prozent des Bedarfs. Deutschland musste teuer zukaufen. Im Klartext heißt das: Wenn zu wenig Wind und Sonne da sind, wird Strom teuer importiert

Umgekehrt zeigte sich dieselbe Schieflage in Zeiten des Überangebots. 2024 gab es 457 Stunden mit negativen Strompreisen. Am 12. Mai sackte der Börsenpreis auf minus 135,45 Euro pro Megawattstunde. „Minus“ bedeutet in diesem Zusammenhang nicht einfach „sehr billig“, sondern das Gegenteil eines normalen Marktes: Produzenten müssen Geld bezahlen, damit ihnen der Strom überhaupt abgenommen wird. Ursache ist ein Überangebot – vor allem durch starke Einspeisung von Solar- und Windenergie bei gleichzeitig geringer Nachfrage und begrenzten Speicher- oder Netzkapazitäten. Kraftwerke lassen sich technisch oft nicht beliebig schnell herunterfahren, und auch geförderte erneuerbare Anlagen speisen weiter ein. Der Strom „drückt“ also in den Markt und wird zu negativen Preisen exportiert, damit das Netz stabil bleibt.

Das alles scheint die grünen Realitätsverweigerer aber nicht zu interessieren. Diesen grünen Gesinnungsethikern scheint das ökonomische Gen zu fehlen, wie Ex-Wirtschaftsminister Robert Habeck während seiner Amtszeit laufend unter Beweis stellte.

Im Jahr 2025 setzte sich diese Entwicklung fort. Wieder gab es mehrere hundert Stunden mit negativen Strompreisen – weiterhin im Bereich von rund 400 bis knapp 500 Stunden – sowie erneut extreme Preisspitzen von teils deutlich über 300 bis hin zu rund 700 bis 900 Euro pro Megawattstunde in Knappheitsphasen. Deutschland blieb zudem Nettoimporteur von Strom, was zeigt, dass es sich nicht um ein einmaliges Phänomen des Jahres 2024 handelt, sondern um ein strukturelles Muster.

Die zugrunde liegenden Daten stammen aus dem offiziellen Strommarktdatenportal SMARD. SMARD wird von der Bundesnetzagentur betrieben und stellt die zentralen Echtzeit- und Marktdaten zum deutschen Stromsystem bereit – von Erzeugung über Verbrauch bis hin zu Börsenpreisen und Stromflüssen ins Ausland. Es ist damit die maßgebliche Referenz für die tatsächliche Entwicklung am Strommarkt.

SMARD hält ausdrücklich fest, dass Deutschland vor allem dann Strom exportierte, wenn erneuerbare Energien einen großen Teil des Eigenbedarfs deckten und die Preise besonders niedrig waren. Im dritten Quartal 2024 stiegen die Exporte auf 7,2 TWh, ein Plus von 58,4 Prozent gegenüber dem Vorjahresquartal. Anders gesagt: Wenn zu viel wetterabhängiger Strom da ist, geht er zu Ramsch- oder sogar Negativpreisen ins Ausland, wenn zu wenig da ist, kommt der Strom teuer zurück.

Der „grüne“ Widerspruch wird noch größer, wenn man sich die Aussagen von Robert Habeck vor Augen führt. Für Deutschland verteidigte er den Atomausstieg mit dem Satz, man habe „keine Preissteigerungen“ und die Stromversorgung sei „24/7 sicher“. Gleichzeitig begründet er den Ausstieg vor allem normativ: Die Risiken der Atomkraft seien nicht beherrschbar, Katastrophen wie die Tschernobyl-Katastrophe oder die Fukushima-Katastrophe hätten gezeigt, dass selbst hochentwickelte Systeme keine absolute Sicherheit garantieren könnten. Hinzu komme das ungelöste Problem des Atommülls, der über Generationen hinweg gefährlich bleibe. Sicherlich große zukünftige Probleme, keine Frage!

Damit wird jedoch der Atomausstieg weniger als ökonomische oder systemtechnische Entscheidung begründet, sondern als politische und moralische Grundsatzfrage. Zugleich erklärte der damalige Bundeswirtschaftsminister zu den Atomkraftwerken in der Ukraine: „Die Ukraine wird an der Atomkraft festhalten, das ist völlig klar, das ist auch in Ordnung, solange die Dinger sicher laufen, sie sind ja gebaut.“ In solchen Aussagen zeigt sich die grüne Doppelmoral besonders gut: Kernkraft wird dort akzeptiert, wo sie gebraucht wird – nur im eigenen Land nicht. Das ist keine stringente, realitätsnahe Energiepolitik, sondern spricht für eine der eigenen Ideologie widersprechende Willkür und Konzeptlosigkeit.

Die Grünen reklamieren für sich, Ökologie und Ökonomie in Einklang zu bringen. Selten so gelacht! Die noch immer spürbaren Auswirkungen ihrer – in meinen Augen – unverantwortlichen, verfehlten Energiepolitik zeigen oft das Gegenteil: mehr Volatilität der Strompreise, mehr Importabhängigkeit in Mangellagen, und mehr negative Preise im Überfluss. Ihre politische Kommunikation überdeckt diese Widersprüche lieber mit moralisch übertünchten Argumenten, anstatt die technischen und marktwirtschaftlichen Gegebenheiten ehrlich zu benennen. Hinzu kommt eine weitere Inkonsistenz in der grünen Energiepolitik: Deutschland hat seine eigenen Kernkraftwerke abgeschaltet, importiert aber in Knappheitsphasen Strom aus Nachbarländern wie Frankreich, deren Strommix zu großen Teilen auf Kernenergie basiert.

Mit anderen Worten: Atomkraftwerke werden im Inland politisch verworfen, die Stromversorgung durch Atomkraftwerke aus dem Ausland selbstverständlich genutzt, sobald sie gebraucht wird. Das ist keine schlüssige, ideologisch unangreifbare Energiepolitik, sondern eine scheinheilige Auslagerung des Problems auf andere Nationen. Wer grundlastfähige, CO₂-arme Kapazitäten abschaltet, bevor verlässlicher Ersatz in ausreichendem Maß vorhanden ist, handelt nicht progressiv, sondern fahrlässig und verantwortungslos, und definitiv nicht im Dienste des Volkes, das er zu vertreten vorgibt.

Energieintensive Unternehmen klagen über – im internationalen Vergleich – hohe Strompreise, die zunehmend zum Standortnachteil werden. Befürworter der grünen Energiepolitik sehen darin eine unvermeidliche Übergangsphase auf dem Weg zu einem vollständig erneuerbaren Energiesystem. Ich hingegen sehe darin ein strukturelles Problem: Politische, wohlstandsmindernde Zielsetzungen werden mit hoher Geschwindigkeit vorangetrieben, während die dafür notwendige technische, infrastrukturelle und marktwirtschaftliche Basis nicht im gleichen Tempo mitwächst. Das Ergebnis ist keine konsistente, bürgernahe Transformation, sondern ein bürgerfeindliches System, dessen eigene Widersprüche zunehmend sichtbar werden.

Auch unter Führung der SPD setzt sich diese energiepolitische Grundlinie im Kern fort – allerdings mit veränderter Tonlage. Während die Grünen in der Ampelkoalition die Transformation stark normativ begründeten, rückt die SPD in der Großen Koalition stärker die industrielle Wettbewerbsfähigkeit, Strompreise und soziale Abfederung in den Vordergrund. Am grundsätzlichen Kurs – schneller Ausbau der erneuerbaren Energien bei gleichzeitigem Verzicht auf die Kernenergie – ändert das jedoch wenig. Damit bleibt die strukturelle Problemlage bestehen: ein ideologisch schöngefärbtes System, das weiterhin zwischen klimapolitischem – teils widersprüchlichem – Anspruch, ökonomischem Druck und physikalischen Realitäten vermitteln will, es aber nicht kann.

Industriepolitik: Transformation oder schleichende Deindustrialisierung?

Die wirtschaftliche Dimension der Politik der Grünen nervt mich besonders. Ich hege grundsätzliche Zweifel an der industriepolitischen Tragfähigkeit des eingeschlagenen Kurses und unterstelle den Grünen fehlende ökonomische Kompetenz, ein Vorwurf, den Robert Habeck während seiner Zeit als Bundeswirtschaftsminister mit vielen Beispielen illustrierte.

Besonders sichtbar wird dieser meines Erachtens falsche Kurs der Grünen bei den Produktionskosten: Energieintensive Industrien wie Chemie, Stahl oder Glas leiden unter – im internationalen Vergleich – hohen Energiepreisen. Laut Daten der International Energy Agency lagen die Industriestrompreise in Deutschland zuletzt teils zwei- bis dreimal so hoch wie in den USA. Der Branchenverband der Chemischen Industrie meldete 2024, dass die Produktion der chemisch-pharmazeutischen Industrie in Deutschland seit 2021 um rund 15 % zurückgegangen ist – ein historisch ungewöhnlicher Einbruch für einen Kernsektor der deutschen Wirtschaft. Gleichzeitig investieren große Konzerne verstärkt im Ausland, insbesondere in Nordamerika, wo Energie deutlich günstiger verfügbar ist. BASF beispielsweise möchte in China Milliarden investieren und kehrt dem ehemals beliebten Industriestandort Deutschland zunehmend den Rücken.

Hinzu kommt wachsende Bürokratie. Neue Berichtspflichten, Nachhaltigkeitsauflagen und Transformationsvorgaben erhöhen den administrativen Aufwand erheblich. Während Großkonzerne dafür eigene Abteilungen aufbauen können, geraten viele mittelständische Unternehmen zunehmend an ihre Grenzen. Sie halten dem regulatorischen Druck nicht stand. Der Bundesverband der Deutschen Industrie warnt regelmäßig vor einer „Überforderung des industriellen Mittelstands“ durch kumulative Regulierungseffekte. In diesem Bereich fällt Bündnis 90/Die Grünen durch einen besonders starken Hang zu staatlicher Steuerung auf. Sie entwickelt sich zu einer „Verbotspartei“. Ich sehe darin eine Politik, die zunehmend auf Vorgaben und Einschränkungen setzt, statt auf marktwirtschaftliche Anreize und unternehmerische Freiheit. Die grüne Wirtschaftspolitik entfernt sich von einer freiheitlich geprägten Wirtschaftsordnung und tendiert stärker in Richtung zentraler Steuerung.

Ein besonders umstrittenes Beispiel misslungener grüner Energiepolitik war das von Robert Habeck vorangetriebene Heizungsgesetz (Gebäudeenergiegesetz), das vorsah, dass neu eingebaute Heizungen zu 65 % mit erneuerbaren Energien betrieben werden sollen – faktisch lief dies in vielen Fällen auf den verstärkten Einsatz von Wärmepumpen hinaus. Ich sah darin weniger technologieoffene Transformation als vielmehr einen politisch erzwungenen Umbau mit erheblichen Kostenrisiken für Haushalte und Unternehmen. In seiner ursprünglich Habeck‘schen, sehr weitgehenden, regulierenden Form wurde das Gesetz politisch deutlich abgeschwächt. Insbesondere in der aktuellen, von der Großen Koalition verabschiedeten Form des Gesetzes wird die Umsetzung weniger strikt gehandhabt.

Die Reaktionen der Grünen auf die Abschwächung des Heizungsgesetzes durch die Große Koalition machen den grundsätzlichen deutlich. Führende Politiker der Bündnis 90/Die Grünen warnten vor einem „Rückschritt beim Klimaschutz“ und stellten sich klar gegen die Aufweichung zentraler Vorgaben. Der Energiepolitiker Michael Kellner erklärte, ohne die 65-Prozent-Regel seien die deutschen Klimaziele „nicht erfüllbar“. Gleichzeitig griff Grünen-Chef Felix Banaszak die Reform scharf an und warf der Regierung vor, weder die Interessen von Mietern noch von Hausbesitzern oder dem Handwerk zu vertreten. Die Abgeordnete Lisa Badum sprach von politischer „Aufschieberitis“ und warnte sogar vor steigenden Heizkosten infolge der Lockerungen. Ich spreche von einer Verblendung der Grünen, die es immer noch nicht geschnallt haben, dass der Klimawandel ein natürliches Phänomen ist, und vom Menschen nur marginal beeinflusst wird. Hierzu später.

An der Reaktion der Grünen zeigt sich ein zentraler Widerspruch: Während die ursprüngliche Gesetzgebung wegen hoher Kosten, technischer Unsicherheiten und sozialer, bürgerfeindlicher Belastungen massiv kritisiert wurde, halten führende Grünen-Politiker dennoch an genau diesen Vorgaben fest – und erklären ihre Abschwächung nun ihrerseits zum Risiko für Bürger und Wirtschaft. Was für ein Schwachsinn, aber den bin ich ja von den Grünen, die ich früher auch ein paar Mal wählte, gewohnt. Was zuvor als notwendiger, wenn auch teurer Transformationsschritt galt, wird in abgeschwächter Form plötzlich selbst als ökonomisches Problem beschrieben. Ich sehe darin weniger konsistente Politik als vielmehr ein Beispiel für eine ideologisch geprägte, realitätsferne und doppelmorlische Haltung, die ihre eigenen Widersprüche immer schwerer auflösen kann.

Auf die konkreten Auswirkungen dieser Haltung für Deutschland – insbesondere im Zusammenspiel mit Wärmepumpen und Elektrifizierung – wird im nächsten Abschnitt noch näher eingegangen.

Ein weiterer zentraler Kritikpunkt an der Energiepolitik der Grünen ist zudem das Phänomen des sogenannten „Carbon Leakage“: Die Produktion wird nicht eingestellt, sondern „lediglich“ ins Ausland verlagert. Die Emissionen verschwinden damit aber nicht weltweit, sondern werden schlicht und einfach von Deutschland ins Ausland verlagert – oft unter weniger strengen Umweltstandards. Studien der OECD weisen darauf hin, dass dieses Risiko bei stark steigenden Energie- und CO₂-Kosten zunimmt. Die Folge ist ein paradoxes Ergebnis: nationale Emissionsbilanzen verbessern sich, während die globale Klimabilanz sich verschlechtert. Entweder ist das den Grünen nicht bewusst, dann fehlt es ihnen an Kompetenz, wenn es ihnen doch bewusst ist, dann fehlt es ihnen nicht an Scheinheiligkeit.

Dennoch argumentieren manche Ökonomen und politische Akteure, dass genau diese Transformation notwendig sei, um langfristig wettbewerbsfähig zu bleiben. Neue Industrien – etwa im Bereich Wasserstoff, Batterietechnologie oder erneuerbare Energien – sollen neue Wertschöpfung schaffen. Von alledem ist bislang nichts zu sehen, weder aktuell noch in Zukunft. Die Realität zeigt, dass viele dieser Projekte mit erheblichen Schwierigkeiten kämpfen. Deutlich wird dies am Beispiel des schwedischen Batterieherstellers Northvolt, der als europäisches Vorzeigeprojekt galt und auch in Deutschland massiv gefördert wurde. Trotz milliardenschwerer, steuerfinanzierter Unterstützung in Habeck’schen Misswirtschaftszeiten, ambitionierter Ausbaupläne und politischer Rückendeckung geriet das Unternehmen in massive Schwierigkeiten, verlor Großaufträge und meldete 2025 Insolvenz an. Teile der geplanten Produktion gingen anschließend in ausländische Hände, insbesondere in die Hände der USA über.

Dies ist kein Einzelfall, sondern symptomatisch für eine grüne Wirtschaftspolitik: Während politisch von neuen industriellen Leitmärkten gesprochen wird, zeigt sich in der Praxis, wie fragil und unsicher viele dieser Projekte tatsächlich sind. Der Aufbau neuer Wertschöpfung gelingt bislang kaum – während gleichzeitig bestehende industrielle Strukturen, von denen Deutschland lebt, massiv unter Druck geraten. Deswegen liebe Grüne: Lieber die Taube in der Hand als den Spatz auf dem Dach!

Robert Habeck formulierte dies seinerzeit programmatisch mit dem Anspruch, Deutschland zur „klimaneutralen Industriemacht“ umzubauen. Die Grünen gehen bei Begriffen wie klimaneutral von einer starken Verursachung des Klimawandels durch den Menschen aus. Das ist jedoch Humbug, und von seriösen – nicht am Tropf von klimanarrativstützenden Institutionen und Regierungen hängenden – Wissenschaftlern längst widerlegt. Menschengemachter Klimawandel erweist sich mehr und mehr als Lüge. Der Mensch trägt zum Klimawandel nur geringfügig bei. Die Natur (Ozeane, Pflanzen, Böden) tauscht jedes Jahr riesige Mengen CO₂ mit der Atmosphäre aus.

  • Natürliche Emissionen: ~750–800 Gigatonnen CO₂ pro Jahr
  • Menschliche Emissionen: ~35–40 Gigatonnen CO₂ pro Jahr

Der menschliche Anteil beträgt etwa 4–5 % der jährlichen Gesamtflüsse. Gleichzeitig ist Kohlendioxid ein zentraler Bestandteil der Photosynthese und damit Grundlage pflanzlichen Wachstums, was – bei niedrigerem CO₂-Gehalt in der Atmosphäre – Fragen der Sicherstellung der weltweiten Bevölkerungsernährung aufwirft. Weltweit leiden aktuell rund 670 Millionen Menschen an chronischem Hunger. Zusätzlich befinden sich laut Organisationen wie Oxfam und dem Welternährungsprogramm über 300 Millionen Menschen in akuten Hungerkrisen.

Die Klimalüge wird von den meisten Menschen – wie die Coronalüge – als solche in absehbarer Zeit erkannt werden. Davon gehe ich aus.

Der Vorwurf der Doppelmoral liegt dabei auf der Hand: Während im Inland strenge Klimavorgaben durchgesetzt und industrielle Prozesse verteuert werden, entstehen im Ausland neue Produktionskapazitäten – häufig mit höherem fossilen Energieanteil. Das Ergebnis ist keine echte Dekarbonisierung – die ohnehin nicht notwendig ist –, sondern eine Verlagerung von Wertschöpfung und Emissionen. Die angestrebte ökologische – meines Erachtens unnötige – Transformation droht so, ihre eigene ökonomische Grundlage zu untergraben. Nix Ausgleich, liebe Grüne!

Der Anspruch, gleichzeitig Vorreiter der Klimapolitik und stabiler Industriestandort zu sein, gerät zunehmend in Widerspruch. Die Politik der Grünen möchte – gefangen in ihrem Bedürfnis nach moralischer Überlegenheit – die ganze Welt bekehren und beglücken mit ihrer eingebildeten einzig richtigen Sichtweise. Das ist kein bloßes, zu lösendes „Übergangsproblem“ – wie die Grünen und andere Verblendete behaupten –, und die deutsche Wirtschaft würde nach dieser „Übergangsphase“ wieder erstarken, nein, es ist Ausdruck einer zunehmend realitätsfernen Politik, die den deutschen Interessen massiv schadet.

Zudem zweifle ich daran, ob die strategischen Denkweisen der Grünen – soweit überhaupt vorhanden – tatsächlich noch am Erhalt des Industriestandorts Deutschland ausgerichtet sind – oder ob wirtschaftliche Folgekosten ihrer Weltbeglückung bewusst in Kauf genommen oder sogar geschürt werden. Der Münchner Volkswirtschaftsprofessor Christian Kreiß formulierte diese Kritik besonders zugespitzt mit den Worten, es erscheine ihm so,

„als wenn (…) Habeck und Baerbock gewissermaßen wie Auftragskiller der deutschen Industrie handeln würden“.

Diese scharfe Formulierung kommt meines Erachtens der Realität sehr nahe: Die politische Kommunikation der Grünen betont Transformation, Zukunftsfähigkeit und Klimaschutz – während gleichzeitig zentrale industrielle Strukturen unter Druck geraten. In dieser Diskrepanz sehe ich nicht nur einen Zielkonflikt, sondern eine grundlegende Fehlsteuerung. Handelt es sich bei der „grünen“ Doktrin – die Deindustrialisierung Deutschlands betreffend – nun um unbeabsichtigte Nebenwirkungen oder um bewusst in Kauf genommene oder sogar gewünschte Konsequenzen? In meinen Augen definitiv um Letzteres.

Wärmepumpen und Elektromobilität

Die Förderung von Wärmepumpen und Elektromobilität ist ein zentraler Bestandteil der Klimapolitik der Bündnis 90/Die Grünen. Hier zeigt sich eine deutliche Kluft zwischen politischem Anspruch und praktischer Umsetzung.

Ein zentraler Punkt für den wirtschaftlichen Niedergang Deutschlands ist der massiv steigende Strombedarf. Studien der Agora Energiewende gehen davon aus, dass der Stromverbrauch in Deutschland bis 2030 auf rund 700 - 750 TWh steigen könnte – gegenüber aktuell etwa 460 bis 500 TWh.

Treiber für dieses Szenario sind insbesondere Elektromobilität, Wärmepumpen und die Elektrifizierung industrieller Prozesse. Mehr als fraglich ist deshalb, ob der hierfür notwendige Ausbau von Erzeugungskapazitäten, Netzen und Speichern in diesem Tempo überhaupt realistisch ist – oder ob hier politischer Wunsch und machbare Realisierung auseinanderlaufen.

Zudem bestehen erhebliche Infrastrukturdefizite. Zwar wächst die Zahl öffentlicher Ladepunkte deutlich – laut Bundesnetzagentur lag sie Anfang 2026 bereits bei rund 194.000 bis knapp 200.000 Ladepunkten, nach etwa 165.000 ein Jahr zuvor –, doch der Ausbau verläuft regional sehr ungleich und hält mit dem steigenden Bedarf nur bedingt Schritt. In Ballungsräumen verdichtet sich das Versorgungsnetz, während ländliche Regionen und Teile der Wohninfrastruktur – etwa Mehrfamilienhäuser – weiterhin deutliche Lücken aufweisen. Im ländlichen Raum und in Mehrfamilienhäusern bleibt die Ladeinfrastruktur oft unzureichend. Ähnliches gilt für die Stromnetze: Der Netzausbau hinkt dem Zubau erneuerbarer Energien und neuer Verbraucher vielfach hinterher, was zu Engpässen und steigenden Netzkosten führt.

Erschwerend kommt die Kostenbelastung für Haushalte dazu. Der Einbau einer Wärmepumpe kostet je nach Gebäudezustand häufig 15.000 bis über 30.000 Euro, in Bestandsgebäuden teils deutlich mehr. Auch Elektrofahrzeuge bleiben trotz Förderung für viele Haushalte teurer als vergleichbare Verbrenner. Diese Investitionen werden von den Grünen politisch eingefordert, während gleichzeitig hohe Strompreise bestehen bleiben – ein Spannungsfeld, das insbesondere Eigentümer älterer Gebäude und einkommensschwächere Haushalte trifft. Aber was interessieren die Grünen schon die Nöte und Bedürfnisse der Bevölkerung, wenn es darum geht, „das grüne Große und Ganze“ im Auge zu behalten?

Hinzu kommt ein oft unterschätzter Faktor: Damit Wärmepumpen effizient arbeiten, sind in vielen älteren Bestandsgebäuden zusätzliche Sanierungsmaßnahmen erforderlich. Dazu zählen etwa bessere Wärmedämmung, der Austausch von Fenstern oder der Einbau von Flächenheizungen wie Fußbodenheizungen, da Wärmepumpen mit niedrigeren Temperaturen arbeiten wie gewöhnliche Heizungen und deshalb größere Heizflächen oder eine bessere Dämmung benötigen, wenn die Bewohner nicht frieren wollen. Je nach Ausgangszustand des Gebäudes können sich diese Maßnahmen schnell auf 50.000 bis über 150.000 Euro summieren. Bei einem typischen Einfamilienhaus aus den 1960er- oder 1970er-Jahren können Gesamtkosten inklusive Heizungstausch und energetischer Sanierung damit durchaus in den sechsstelligen Bereich gehen.

Ich sehe darin eine erhebliche soziale Schieflage: Während politisch ein flächendeckender Umstieg auf neue Technologien angestrebt wird, tragen die finanziellen Risiken und Investitionskosten in erster Linie private Haushalte – trotz gewährter Zuschüsse. Als sozial ausgewogen lässt sich ein solcher Ansatz aus dieser Perspektive kaum bezeichnen. Aber wen interessiert das heutzutage schon.

Ex-Bundeswirtschaftsminister Robert Habeck betonte in diesem Zusammenhang regelmäßig, dass die Elektrifizierung von Verkehr und Wärme „unumkehrbar“ sei und Deutschland hier vorangehen müsse. Ein Weltbeglückungsphilosoph eben, dieser Robert Habeck, der vielleicht beim Schreiben von Kinderbüchern hätte bleiben sollen. Gott sei Dank sind Ministerposten nicht „unumkehrbar“ besetzt. Der Umbau wird von grünen Traumtänzern politisch als alternativlos dargestellt, obwohl zentrale Voraussetzungen – günstiger Strom, flächendeckende Infrastruktur und ausreichende Netzkapazitäten – vielerorts noch nicht gegeben sind.

Der Vorwurf der Doppelmoral liegt auch hier nahe: Während die Grünen den Umstieg auf strombasierte Technologien massiv vorantreiben wollen, würden sie in ihrer Verblendung gleichzeitig Rahmenbedingungen schaffen, in denen Strom knapp, teuer und infrastrukturell ungleich verteilt bleibt. Das Ergebnis wäre ein politisch forcierter Wandel, der auf ein System trifft, das dafür noch nicht vorbereitet ist.

Befürworter sehen in der von den Grünen forcierten Energiepolitik dennoch einen notwendigen Schritt, um die Abhängigkeit von fossilen Energien zu reduzieren und langfristig eine klimaneutrale Wirtschaft aufzubauen. Ich sehe hingegen ein strukturelles Problem: Der Umbau soll mit hoher Geschwindigkeit vorangetrieben werden, ohne dass wirtschaftliche Tragfähigkeit und technische Umsetzbarkeit im gleichen Maß gesichert sind. Mit einer solchen Energiepolitik beschleunigt Deutschland seinen wirtschaftlichen Niedergang. Die Grünen und ihre Politik sind in meinen Augen die Totengräber der deutschen Wirtschaft.

„Wertegeleitete“ Außenpolitik

Ein besonders sensibler Punkt ist der außenpolitische Wandel der Bündnis 90/Die Grünen. Aus einer Partei, die aus der Friedensbewegung hervorgegangen ist, wurde ein bellizistischer Akteur, der militärische Unterstützung – im Kontext des US-amerikanischen Stellvertreterkriegs in der Ukraine 2022 gegen den vermeintlichen Aggressor Russland – in seiner Kurzsichtigkeit ausdrücklich befürwortete.

Dieser Wandel ist auch in Zahlen messbar: Deutschland hat der Ukraine seit dem 24. Februar 2022 bis Anfang 2026 nach Angaben der Bundesregierung rund 55 Milliarden Euro militärische Hilfe bereitgestellt beziehungsweise für die kommenden Jahre verfügbar gemacht. Rechnet man die zivile Unterstützung von rund 39 Milliarden Euro hinzu, summiert sich die deutsche Hilfe auf rund 94 Milliarden Euro. Damit gehört Deutschland zu den größten Unterstützern der Ukraine überhaupt und ist nach Regierungsangaben der größte Unterstützer in Europa.

Zu den gelieferten Systemen zählen unter anderem Flugabwehrsysteme, Panzer und Artillerie. Die Grünen – repräsentiert von Bellizisten wie Annalena Baerbock und Anton Hofreiter – gehörten innerhalb der Bundesregierung zu den entschiedensten Befürwortern dieser Unterstützung.

Ich sehe darin einen Bruch mit den historischen Wurzeln der Partei. Noch vor der Bundestagswahl 2021 war im Grundsatzprogramm festgehalten, dass Waffenexporte restriktiv zu handhaben seien und insbesondere nicht in Krisengebiete erfolgen sollten. Nach Beginn des Ukrainekriegs wandelte sich diese Position grundlegend. Außenministerin Annalena Baerbock erklärte: „Wir stehen an der Seite der Ukraine – solange sie uns braucht.“ Auch Anton Hofreiter profilierte sich als einer der lautstärksten Befürworter schwerer Waffenlieferungen – deswegen auch sein ihm zurecht verliehener Spitzname „Panzertoni“.

Die Grünen begründen diesen Kurs mit einer wertebasierten Außenpolitik, die Demokratie, Souveränität und Menschenrechte auch militärisch verteidigen will. Eben diese „Werte“ sind jedoch in der Ukraine unterrepräsentiert. Baerbock formulierte dies mehrfach mit dem Anspruch, eine „wertegeleitete Außenpolitik“ zu verfolgen, die nicht nur auf Dialog, sondern auch auf Abschreckung setzt. Weder die Ukraine noch Russland sind in der NATO noch in der EU. Was haben wir also dort verloren? Humanitäre Hilfe, ja, aber keinen Cent für militärische Hilfe! Die Ukraine würde schon längst wieder in Frieden zu besseren Bedingungen leben, als sie mittlerweile möglich sind, wenn nicht die hirnrissigen Regierungen Europas – nicht zuletzt aus eigennützigen Interessen – diesen bluttriefenden Krieg verlängert hätten. Sie haben Blut an den Händen und die Ukraine eben nicht im Namen der „Demokratie, der Souveränität und der Menschenrechte“ unterstützt. Wer das immer noch glaubt, kann das gerne tun, sollte jedoch mal zum Augenarzt gehen, und sich die Tomaten von den Augen entfernen lassen.

Wie dem auch sei, Rüstungskonzerne wie Rheinmetall haben sich riesig über diese „wertegeleitete Außenpolitik“ gefreut, und können auch weiterhin auf ausgiebiges Blutvergießen hoffen.

Für mich entsteht aus dieser vermeintlich wertegeleiteten Außenpolitik eine grundlegende Glaubwürdigkeitsfrage. Der Übergang von pazifistischen Grundpositionen hin zu militärischer Unterstützung mit todbringenden Waffen ist ein abrupter Kurswechsel und keine notwendige evolutionäre Anpassung wie von den Grünen behauptet – es ist ein politischer Bruch. Die verharmlosende Sichtweise und Begründung der Grünen sind in meinen Augen Heuchelei. An den Händen der Grünen klebt Blut – wie an den Händen aller anderen Bellizisten.

Hinzu kommt ein weiterer, oft ausgeblendeter Widerspruch: der ökologische Anspruch. Kriege gehören zu den größten kurzfristigen Emissionstreibern überhaupt – durch zerstörte Infrastruktur, Brände, militärische Logistik und Wiederaufbau. Studien schätzen, dass allein der Krieg in der Ukraine bereits mehrere hundert Millionen Tonnen CO₂-Äquivalente verursacht hat. Damit steht militärisches Handeln in einem Spannungsverhältnis zu den eigenen klimapolitischen Zielen. Schätzungen zufolge verursacht das Militär generell zwischen 5 und 5,5% Prozent der weltweiten CO2-Emmissionen.

Befürworter dieser bellizistischen Außenpolitik halten dagegen, dass sich die geopolitische Realität grundlegend verändert habe und eine rein pazifistische Haltung angesichts militärischer Aggression nicht mehr ausreiche. Sicherheit und Freiheit müssten im Zweifel auch militärisch verteidigt werden. Willkommen im Land der Traumtänzer! Dem halte ich entgegen: Ein rechter Schmarrn! Es ging den eigentlichen Treibern dieses Krieges – den USA – keine Sekunde um Freiheit, Demokratie oder Menschenrechte in der Ukraine, darum ist es den USA in keinem ihrer mittlerweile knapp 500 militärischen Auseinandersetzungen seit Bestehen der USA gegangen. Solche ethisch-emotionalisierende Behauptungen stellen die Grünen und andere Bellizisten sowie die USA, die meist illegal Kriege führten, auf, um die Akzeptanz der Massen für ihre Kriege zu gewinnen.

Auch der jetzige Krieg der US-Amerikaner gegen den Iran ist ein illegaler, völkerrechtswidriger Angriffskrieg, wie auch der russische Überfall der Ukraine im Februar 2022 einer war. Komisch, dass es bei den Mainstreammedien nicht den gleichen Aufschrei, formuliert mit Begriffen wie „völkerrechtswidrig“, „illegal“, „Angriffskrieg“ und dergleichen beim Irankrieg 2026 gab wie seinerzeit bei der russischen Invasion 2022 in die Ukraine. Finden Sie nicht auch, Herr Merz? Die meisten Mainstreammedien sind mittlerweile fester Bestandteil des Imperiums der Lügen.

Es geht den USA wie in jedem ihrer Kriege um eine Vergrößerung der Macht und des Besitzes ihrer Eliten, sei es aktuell der Irankrieg oder der Ukrainekonflikt. Die letztlich getroffene Aussage von Donald Trump, der auch nur eine Marionette des Deep States ist, Länder sollten sich entweder bei den USA mit Öl versorgen oder selbst dafür sorgen, dass die Straße von Hormus offen bleibt, unterstützt diese Sichtweise. Von wegen Demokratie, Souveränität und Menschenrechte – wie verblendete Gutmenschen glauben mögen!

Fazit

Der zentrale Wertekonflikt der Grünen bleibt bestehen. Es gelingt ihnen nicht – zwischen angeblichem Pazifismus, geopolitischer Realität und dem eigenen Anspruch – gleichzeitig Friedens- und Klimapolitik zu betreiben – glaubwürdig zu vertreten. Den Grünen glaube ich kaum mehr etwas, nicht einmal ihre ökologische Ausrichtung. Ihre angeblich ökologisch ausgerichtete Politik wird nicht konsequent umgesetzt, sondern bei Zielkonflikten flexibel ausgelegt.

Meine Kritik an den Grünen ist vielschichtig: Sie reicht von wirtschaftlicher Überforderung über energiepolitische, nicht durchdachte Risiken bis hin zum Bellizismus. Für mich ist ihre politische Glaubwürdigkeit nicht gegeben. Dass sie dennoch in Baden-Württemberg bei der letzten Landtagswahl im März 2026 stärkste Partei wurden, und in München den Oberbürgermeister stellten, befremdet mich zunehmend.

„Das ist die Seuche unserer Zeit: Verrückte führen Blinde.“ (William Shakespeare)

+++

Anmerkungen und Quellen

Noch ein privates Anliegen, werte Leserinnen, werte Leser!

Ende September 2024 erschien mein Buch „Gefährliche Nullen – Kriegstreiber und Elitenvertreter“. Ende März und Anfang April 2025 wurden die beiden Bücher „Die Friedensuntüchtigen“ und „Im Taumel des Niedergangs“ veröffentlicht.

Zwei weitere Bücher „Die großen Lügen“ (Themen: Corona, Ukraine, Klima, Sicherheit) und „Persönliche Entwicklung“ sollen demnächst veröffentlicht werden. Es werden Sammelbände bestehender Artikel mit entsprechender Abstimmung aufeinander und nochmaliger Überarbeitung. Wenn Sie einen etwas größeren Verlag wissen, der eines der beiden Bücher oder auch beide veröffentlichen könnte bzw. würde, wäre ich Ihnen für diese Information sehr dankbar.

+++

Wir danken dem Autor für das Recht zur Veröffentlichung dieses Beitrags.

+++

Bild: Robert Habeck (Bündnis 90/Die Grünen – ehem. Wirtschaftsminister)
Bildquelle: penofoto / shutterstock

(Auszug von RSS-Feed)

☐ ☆ ✇ Epoch Times

Bundesregierung fordert von EU weitere Lockerungen bei Verbrenner-Aus

veröffentlicht.
Vorschau ansehen Die Bundesregierung fordert zur Unterstützung der deutschen Automobilindustrie weitere Lockerungen des sogenannten Verbrenner-Aus. Unter anderem einigten sich die Kolalitionspartner, dass Fahrzeuge mit „regenerativen Kraftstoffen“ als Nullemissionsfahrzeuge angerechnet werden können.
(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Vorstellung einer Theorie der historischen globalen Wolken-Bedeckung

veröffentlicht.
Vorschau ansehen

Charles Blaisdell, PhD ChE

Abstract

Die Verdunstungsrate (Masse/Zeit/Fläche) von Wasser aus den Ozeanen ist höher als die von Land (2,4-fach). Diese Verdunstungsrate von Land umfasst Wasser aus der Vegetation, dem Boden und dem Tau sowie flüssiges Wasser und wird als Evapotranspiration (ET) bezeichnet. Die globale jährliche ET(ga)-Rate der Ozeane ist relativ konstant, während sich die Rate des Landes mit lokalen Veränderungen der Evapotranspiration ändern kann. Aufgrund dieses Unterschieds zwischen Ozean und Land hängt die globale jährliche ET(ga) der Erde von der Größe des Landes und/oder der Fläche des Landes unter dem Sonnenzenit ab (beides ändert sich derzeit nicht). Historisch gesehen sagen Wissenschaftler, dass sich die Größe des Landes und die Achse tatsächlich verändert haben. Dieser Aufsatz stellt eine Theorie vor, die alle drei Ursachen für die Veränderung der ET(ga) der Erde berechnet und aufzeigt, was mit dem Wolkenanteil und der Temperatur der Erde geschehen sein könnte.

Es wird eine sigmoidale Beziehung zwischen dem Wasserdampfdruckdefizit, VPD(ga), der globalen jährlichen Enthalpie, En(ga), und dem globalen jährlichen Wolkenanteil, CF(ga), vorgeschlagen. Ein Modell zeigt mögliche globale Temperaturänderungen aufgrund von Veränderungen der Landmasse der Erde, der Achse, der lokalen ET und Kombinationen aller drei Faktoren.

Ein psychrometrisches Diagramm veranschaulicht die zweistufige Berechnung in diesem natürlichen Klimawandelprozess, um die komplexe Mathematik besser zu verstehen.

Introduction

Die vier grundlegenden Variablen der Atmosphärenwissenschaft sind Temperatur, spezifische Feuchte (SH), Druck und Strahlung. Die ersten drei Variablen werden im Clausius-Clapeyron-Gesetz verwendet, um ihre Energie (Enthalpie, En) und ihre relative Feuchte (RH) usw. zu beschreiben. Auf globaler Tagesbasis unterliegen diese Variablen starken Schwankungen und werden als Wetter bezeichnet. Auf globaler Jahresbasis beruhigt sich die Lage, sodass sich außer dem Klimawandel kaum etwas ändert. Das Clausius-Clapeyron-Gesetz gilt sowohl für tägliche als auch für globale Jahresdaten und lässt sich in einem psychrometrischen Diagramm veranschaulichen, das diese komplizierte Beziehung etwas vereinfacht.

In der wissenschaftlichen Gemeinschaft herrscht Einigkeit darüber, dass der Wolkenanteil die größte Unsicherheit bzgl. des Klimawandels darstellt. Der Wolkenanteil der Erde (etwa 60 %) reflektiert etwa 50 % der Sonnenstrahlen. Vor etwa 1980 konnten kaum Veränderungen des Wolkenanteils beobachtet oder gemessen werden; man ging davon aus, dass der globale Wolkenanteil konstant sei. Satellitendaten seit etwa 1980 deuteten darauf hin, dass der Wolkenanteil möglicherweise abnimmt. Es wurde eine Theorie der „Cloud Reduction Global Warming“ (CRGW) (8) vorgeschlagen, um zu zeigen, wie eine natürliche Abfolge miteinander verbundener atmosphärischer Prozesse die Verringerung der Bewölkung erklären und den beobachteten Temperaturanstieg, den Anstieg der spezifischen Feuchte sowie den Rückgang der relativen Feuchte begründen kann.

Aus der Temperatur und der spezifischen Feuchtigkeit (SH) lässt sich das globale jährliche Dampfdruckdefizit (VPD(ga)) berechnen (8). VPD(ga) ist ein Wert, der angibt, wie nahe die Wasserkonzentration in der Atmosphäre am Taupunkt liegt, wobei Null dem Taupunkt entspricht (hohe Wahrscheinlichkeit für Wolkenbildung) und je größer der Wert ist, desto unwahrscheinlicher ist es, dass sich irgendwo auf der Erde Wolken bilden.

Die Messung des Wolkenanteils, CF(ga), umfasst teilweise bewölkten Himmel, hohe, dünne Wolken, stark reflektierende Regenwolken und viele andere Wolkentypen mit unterschiedlichem Reflexionsgrad. Die Enthalpie, En(ga), ist ein besserer Indikator für die Nichtreflexion und korreliert zudem mit CF(ga). VPD(ga) im Vergleich zu En(ga) ist nicht mit den Einschränkungen von CF(ga) behaftet und wird im Modell verwendet. Es hat sich gezeigt, dass die Gesamtenthalpie der Atmosphäre gleich der ausgehenden Langwellenstrahlung ist (10) und in allen Höhenlagen, einschließlich der Oberflächendaten, proportional zur ausgehenden Langwellenstrahlung ist, siehe (10). Darüber hinaus ist ET(ga) proportional zu SH(ga), sodass eine Änderung von ET(ga) einer Änderung von SH(ga) entspricht und umgekehrt.

Trenberth et al. (2011) (12) dokumentieren die jährliche Gesamtwasserverdunstung (Abbildung 9 in (12)) aus den Ozeanen mit 413 (1000 km³/Jahr) und vom Land mit 73 (1000 km³/Jahr). Die Ozeandaten umfassen Eis und Wolken (62 %) (sowohl Ozeane als auch Land). Diese Messungen lassen sich in ET(ga) pro Einheit der Erdoberfläche umrechnen (1141 (mm/Jahr/% der Erde) für Ozeane und 494 (mm/Jahr/% der Erde) für Land), was einer 2,4-mal höheren ET-Rate der Ozeane entspricht. Dieser Unterschied in der ET von Ozeanen und Land bedeutet, dass jede Veränderung der Landfläche der Erde, des prozentualen Anteils an Land unter dem Sonnenzenit oder einfach nur der Land-ET gemäß der CRGW-Theorie die globale Temperatur verändern kann. Dieser Unterschied zwischen Ozeanen und Land wurde in (18) beobachtet.

Das Modell

Es handelt sich hierbei um ein Modell nach den Grundprinzipien und nicht um ein statistisches Modell, das das Verständnis der vorgeschlagenen Theorie veranschaulichen soll.

Das Modell geht von einem Referenzjahr aus, da ET(ga) und SH(ga) proportional zueinander sind und daher einen konkreten Ausgangspunkt benötigen (NOAA-Daten zwischen 1975 und 2024). Als Nächstes wird eine Fallstudie aus einer der folgenden Optionen oder einer Kombination davon ausgewählt: 1. Änderung der Landfläche, 2. Änderung der Achsenverschiebung des Landes unter dem Sonnenzenit, 3. Änderung der ET des Landes. Jede Fallstudie berechnet die Änderung der ET(ga) (pro Jahr pro Flächeneinheit der Erdoberfläche) ausgehend von den oben genannten ET-Werten für Ozean (und Eis) und Land (1141 und 494). Die Berechnungen finden Sie im beigefügten Excel-Modell. Tabelle 1 enthält einige Fallbeispiele aus dem Modell. Tabelle 2 enthält die Eingabeparameter und die berechneten ET(ga)-Werte.

Das Modell verwendet aus dem Clausius-Clapeyron-Gesetz abgeleitete psychometrische Gleichungen (siehe (8) für die Gleichungen) und eine sigmoidale Kurve von VPD(ga) gegen Enthalpie, En(ga). Die Strategie des Modells folgt dem in den Abbildungen 1 und 4 dargestellten Pfad. Dieser Pfad folgt der adiabatischen (konstante En) Linie bei steigender ET (SH) (nach links) oder sinkender ET (SH) (nach rechts) bis zum Punkt der SH(ga)-Änderung. Anschließend folgt die Linie mit konstanter VPD(ga) bis zu dem in Abbildung 2 vorhergesagten En(ga). (Folgen Sie VPD(ga) nach oben für den Pfad mit abnehmendem SH, nach unten für den Pfad mit zunehmendem SH), siehe Abbildung 4 für eine vergrößerte Ansicht des Pfades.

In Abbildung 2 zeigt der mittlere Teil des Diagramms NOAA-Daten aus (15) für den Zeitraum von 1975 bis 2024. Die oberen und unteren Asymptoten (vollständige Bewölkung und wolkenfreier Himmel, En(ga)) wurden anhand von Albedodaten von Dubal (16) und Loeb (17) berechnet, die auf bekannte Enthalpiedaten (bereinigt um Meeres- und Landflächen) normiert wurden; alle Daten stammen aus dem gleichen Jahr. Die Parameter in der sigmoidalen Gleichung wurden dann (durch Ausprobieren) an die Daten angepasst (20). Besonderes Augenmerk wurde darauf gelegt, dass die sigmoidale Anpassung mit den linearen NOAA-Daten übereinstimmt. Die sigmoidale Kurve ermöglichte es dem Modell, außerhalb des engen NOAA-Bereichs der VPDs zu arbeiten.

Abbildung 1. Psychrometrische Tabelle, die den zweistufigen Prozess der CRGW-Theorie veranschaulicht.

Abbildung 2. Sigmoidale Anpassung der kombinierten NOAA- und CERES-Daten.

Das bemerkenswerte Ergebnis dieses Modells ist, dass ein anfänglicher Rückgang der ET(ga) der Erde zu einem Anstieg der ET(ga) führt. Dieses Verhalten lässt sich im psychrometrischen Diagramm beobachten, wo die SH(ga) zunächst (bei einem negativen Wert von -ET(ga)) auf der adiabatischen En-Linie abnimmt und dann auf der Linie mit konstanter VPD gemäß Abbildung 2 wieder steigt. Der CRGW-Klimawandel ist ein zweistufiger mathematischer Prozess, bei dem die im ersten Schritt verbrachte Zeit gerade lang genug ist, um eine neue VPD zu etablieren und damit die Anpassung des Wolkenanteils einzuleiten. (Psychrometrische Diagramme werden von HLK-Technikern zur Auslegung von Klimaanlagen verwendet; dies ist das erste Mal, dass konstante VPD-Linien in ein psychrometrisches Diagramm aufgenommen wurden, um den Klimawandel zu erklären, siehe Abbildung 4). Der zweistufige Prozess vollzieht sich in jährlichen Zyklen und hinterlässt eine Datenspur auf einer Diagonalen mit dem zweistufigen Verlauf vom Startpunkt zum Endpunkt; wenn die Änderung der ET + oder – ist oder keine Änderung vorliegt, liegen die beobachteten Daten auf der diagonalen Linie. An beiden Enden des sigmoidalen Graphen kann sich dies ändern. Am Ende des zweistufigen Verlaufs müssen die resultierende Temperatur und SH(ga) durch eine Konvergenzroutine berechnet werden, da die psychrometrische Gleichung gemischte Funktionen (logarithmisch und linear) enthält. Siehe beigefügtes Modell für die Gleichungen.

Die VPD(ga) im Vergleich zum Wolkenanteil ist ebenfalls ein sigmoidaler Graphen, siehe Abbildung 3.

Abbildung 3. Sigmoidkurve von VPD im Vergleich zum Wolkenanteil.

Abbildung 4. Verläufe der Veränderung von +/- ET(ga) im Modell.

Andere Modell-Variablen

Plumes entstehen über heißem Land, erreichen die Wolkenhöhe und können sich ausbreiten, sodass sie Gebiete bedecken, die größer sind als die Fläche, von der sie stammen, einschließlich der Ozeane. Je heißer es ist, desto weiter breiten sie sich aus. Plumes mit niedrigem SH verzögern die Wolkenbildung (wie ein schwarzer Parkplatz). Plumes mit hohem SH können Wolken bilden (wie ein Kühlturm). Weitere Informationen zu Plumes finden Sie unter (6). Das Modell verwendet Plume-Faktoren von 1x bis 4x. Über globale Plumes gibt es kaum Forschungsergebnisse, abgesehen davon, dass wir wissen, dass sie existieren. Das Modell zeigt, dass Plume-Faktoren einen großen Einfluss auf die globale Temperatur haben können. Die Plume-Faktoren sind auf 1x für Fälle mit Landflächen festgelegt auf 2x für Land unter dem Zenit der Sonne (wegen der erwarteten wärmeren Luft) und auf 4x für spezielle Parzellen, bei denen größere Plumes erwartet werden (siehe (6)). Das Modell wendet den Plume-Faktor auf die gesamte Erde an.

Die ET (Evaporative Transpiration) von speziellen Parzellen wie UHIs (Urban Heat Islands), Landnutzungsänderungen wie von Wald zu Ackerland oder Tagebau – siehe (8) für weitere Informationen zu speziellen Parzellen – wurde auf der Grundlage von Daten von Mazrooei et al. (2021) (19) geschätzt. ET-Änderungen von +10 bis -50 können verwendet werden.

Die Größe der Sonderparzellen wird auf etwa 5 bis 15 % der gesamten Landmasse der Erde geschätzt und nimmt zu, siehe (19) und (7) für weitere Informationen hierzu.

Nicht im Modell

Schwankungen der Sonneneinstrahlung auf die Erde. Das hätte man leicht hinzufügen können, hat es aber nicht getan.

Vulkane haben ebenfalls historische Auswirkungen auf das Klima, diese scheinen jedoch nur von kurzer Dauer zu sein. Mathematische Ansätze wie in diesem Aufsatz könnten auf die Auswirkungen von Vulkanen auf das Klima anwendbar sein. Feuchte Vulkane (solche, deren Ausstoß viel Wasser enthält) kühlen die Erde ab. Trockene Vulkane (solche, deren Ausstoß nur heißes Gas enthält) lassen Wolken sich auflösen.

Die klimatischen Auswirkungen von CO₂ werden in diesem Aufsatz zwar nicht behandelt. Der Anstieg oder Rückgang von CO₂ kann jedoch ein Indikator für Veränderungen der ET(ga) durch die Vegetation sein. Sinkende CO₂-Werte deuten darauf hin, dass die Vegetation die ET(ga) erhöht (mehr Wolken, kühler), und umgekehrt. Aktuelle Messungen der CO₂-Konzentration zeigen Schwankungen des CO₂-Gehalts im Laufe der Vegetationsperioden.

Modell-Ergebnisse

Die Fallstudien in den Tabellen 1, 2 und 3 zeigen, dass die Temperatur der Erde sehr empfindlich auf die Achsenneigung und die Landfläche reagiert. Dies geht so weit, dass Gletscher durch Veränderungen der Landfläche, die sich im Zenit der Sonne befindet (Achsenneigung), zum Wachsen oder Schrumpfen angeregt werden könnten (siehe (11)), oder durch Veränderungen der Landfläche insgesamt. Beides könnte durch Veränderungen der Vegetation verstärkt werden.

Der Anstieg der ET(ga) durch eine Verringerung der Bewölkung scheint mit dem Verhältnis der ET-Rate der Ozeane zur ET-Rate des Landes zusammenzuhängen; bei den aktuellen Daten beträgt dieses Verhältnis 2–3 : 1.

Das historische Auf und Ab der Gletscher lässt sich mit einer Reihe von Fällen wie den folgenden in Verbindung bringen: Ausgehend von den heutigen Bedingungen dreht man die Erde so, dass weniger Landfläche der Erde der Sonne ausgesetzt ist (mehr Wolken), wodurch sich die Erde abkühlt. Die Vegetation der Erde wird in der Nähe des Sonnenzenits tropischer; (mehr Wolken) die Erde kühlt stärker ab. Gletscher wachsen, Ozeane schrumpfen, mehr Land taucht auf, CO₂ nimmt ab. Schließlich ist genug Land entstanden, so dass die globale ET zunimmt (weniger Wolken). Die Erde dreht sich zurück, sodass wieder mehr Land unter dem Sonnenzenit liegt (weniger Wolken). Die Erde wird weniger tropisch (weniger Wolken) und die Gletscher beginnen zu schmelzen, der Meeresspiegel steigt und die Erde kehrt zu fast den heutigen Bedingungen zurück.

Das Hinzufügen von Wasser zur Atmosphäre könnte das Klima auf die Bedingungen von 1975 zurückbringen, aber es ist sehr viel Wasser.

Machen Sie sich über keinen dieser Fälle Sorgen, sie werden zu unseren Lebzeiten nicht eintreten!

Diskussion

Warum wurde diese Theorie nicht schon früher entdeckt (oder hat sie jemand bereits vorgeschlagen, und der Autor hat sie nur nicht gefunden)? Die Antwort könnte einfach sein: In der Vergangenheit waren Veränderungen der Bewölkung nicht erkennbar. Der aktuelle Klimawandel hat uns die Augen für die mögliche Existenz dieser natürlichen Theorie geöffnet, die darauf wartete, entdeckt zu werden.

Diese Erweiterung der CRGW-Theorie soll ein mögliches Instrument zur Untersuchung historischer Klimaveränderungen sein, um zu erforschen, wie sich der Wolkenanteil im Laufe der Zeit mit den Veränderungen der Erde verändert hat und wie sich zukünftige Veränderungen der Landmasse der Erde auf den Wolkenanteil auswirken könnten.

An die Wissenschaftler, die die Veränderungen der Erde im Laufe der Zeit untersuchen: Wie gut passt diese Theorie zu möglichen historischen Klimaveränderungen im Vergleich zu den Veränderungen der Landmasse der Erde?

Danke, Anthony, für die Förderung der Vielfalt des Denkens.

Bibliographie

            Studien des Autors:

  1. Where have all the Clouds gone and why care? – Watts Up With That?
  2. CO₂ is Innocent but Clouds are Guilty.  New Science has Created a “Black Swan Event”** – Watts Up With That?
  3. More on Cloud Reduction.  CO₂ is innocent but Clouds are guilty (2023). – Watts Up With That?
  4. An Unexplored Source of Climate Change: Land Evapotranspiration Changes Over Time. – Watts Up With That?
  5. VPD, Vapor Pressure Deficit a Correlation to Global Cloud Fraction? – Watts Up With That?
  6. Soundings, Weather Balloons, and Vapor Pressure Deficit – Watts Up With That?
  7. Not that ET!  The Terrestrial ET: EvapoTranspiration, the Unexplored Source of Climate Change – Watts Up With That?
  8. CRGW 101.  A Competitive Theory to CO₂ Related Global Warming – Watts Up With That?
  9.  More Evidence on Vapor Pressure Deficit, Cloud Reduction, and Climate Change – Watts Up With That?
  10. Can Annual Irradiance = Annual Enthalpy? If So, What Does It Show About Climate Change – Watts Up With That?
  11. Slicing the earth to study Cloud Fraction and VPD. – Watts Up With That?

Bibliographie Fortsetzung

  1. Atmospheric Moisture Transports from Ocean to Land and Global Energy Flows in Reanalyses (2011) by Kevin E. Trenberth, John T. Fasullo, and Jessica Mackaro web link Atmospheric Moisture Transports from Ocean to Land and Global Energy Flows in Reanalyses in: Journal of Climate Volume 24 Issue 18 (2011)
  2. “HUMIDITY CONVERSION FORMULAS” by Vaisala Oyj (2013) web link Humidity_Conversion_Formulas_B210973EN-F (hatchability.com)
  3. Climate Explorer web site Climate Explorer: Select a monthly field (knmi.nl) .
  4. Physical Science Laboratory Monthly Mean Timeseries: NOAA Physical Sciences Laboratory
  5. “Radiative Energy Flux Variation from 2001–2020” (2021) by Hans-Rolf Dübal and Fritz Vahrenholt web link: Atmosphere | Free Full-Text | Radiative Energy Flux Variation from 2001–2020 | HTML (mdpi.com)
  6. Norman G. Loeb,Gregory C. Johnson,Tyler J. Thorsen,John M. Lyman,Fred G. Rose,Seiji Kato web link Satellite and Ocean Data Reveal Marked Increase in Earth’s Heating Rate – Loeb – 2021 – Geophysical Research Letters – Wiley Online Library
  7. Figure 4 in 5 above and Met Office Climate Dashboard web Link Humidity | Climate Dashboard (metoffice.cloud)
  8. . “Urbanization Impacts on Evapotranspiration Across Various Spatio-Temporal Scales” (2021) by Amir Mazrooei, Meredith Reitz, Dingbao Wang, A. Sankarasubramanian web link Urbanization Impacts on Evapotranspiration Across Various Spatio‐Temporal Scales – Mazrooei – 2021 – Earth’s Future – Wiley Online Library
  9. StackOverlow Q and A scipy – Fit sigmoid function (“S” shape curve) to data using Python – Stack Overflow

Link: https://wattsupwiththat.com/2026/04/08/proposed-theory-of-historical-global-cloud-cover/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Vorstellung einer Theorie der historischen globalen Wolken-Bedeckung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ Epoch Times

Baugesetzbuch-Reform: Beschleunigung, Digitalisierung und neue kommunale Eingriffe

veröffentlicht.
Vorschau ansehen Mit einer Reform des Baugesetzbuchs will die Bundesregierung Planung beschleunigen und Wohnungsbau stärken. Neu ist auch ein Eingriffsrecht bei Immobilienkäufen, wenn Käufer verfassungsfeindliche Ziele verfolgen könnten.
(Auszug von RSS-Feed)

☐ ☆ ✇ Journalistenwatch

Produzieren, was die Kunden wollen: VW stoppt Produktion von E-Auto in USA

veröffentlicht.
Vorschau ansehen Der Markt richtet sich nach den Wünschen der Kunden und nicht nach dem Wollen der Politik. Dies kann man nun bei Volkswagen in den USA nachverfolgen. Im einzigen US-Volkswagenwerk wird nun der Bau des Elektromodells ID.4 eingestellt. Stattdessen setzt der Konzern wieder auf Verbrenner oder Hybridfahrzeuge. Volkswagen in der Krise In Deutschland ist der Volkswagen-Konzern […]
(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Die Temperaturreihen des Deutschen Wetterdienstes beim Monat März zeigen: Es gibt keinen wirksamen CO₂-Treibhauseffekt. Teil 2

veröffentlicht.
Vorschau ansehen

Von Josef Kowatsch, Matthias Baritz

  • Das Klima ändert sich immer, Klimawandel ist die Normalität.
  • Die Märzklimaerwärmung begann 1987 auf 1988 mit einem Temperatursprung von über einem Grad mit anschließender leichter Weitererwärmung.
  • Auch die sehr unterschiedlich verlaufenden T-Max/T-Min Temperaturen des DWD zeigen, eine CO₂-Beteiligung am neuzeitlichen Klimawandel ist nicht nachweisbar
  • Es gibt 8 Grunde dieses für uns angenehmen März-Klimawandels seit 1988
  • Das Leben auf diesem Planeten ist auf CO₂-aufgebaut, wir brauchen mehr CO₂ in der Atmosphäre und nicht weniger.

Die letztjährige Schreckensmeldung der bezahlten Klimalügenwissenschaft lautete: März 2025 war in Europa der wärmste aller Zeiten und weltweit der 2.wärmste. siehe hier!

Bisher hat sich Copernicus zum März 2026 noch nicht geäußert, nur immer wieder lapidar behauptet, die Klimaerwärmung würde sich fortsetzen. Warten wir, was Copernicus diesmal orakeln wird.

Im Teil 1 betrachteten wir den Zeitraum ab 1893 bis heute, also 134 Jahre März einst im Kaiserreich bis heute und unterteilten die Märzgrafik in 2 Abschnitte, vor 1988 und danach. Aus zwei Gründen: Zum einen trat der selbst ernannte Weltklimarat mit seinen CO₂-Erwärmungsverheißungen zum ersten Male 1988 an die Öffentlichkeit, außerdem erfolgte in Mitteleuropa um 1987/88 ein plötzlicher Temperatursprung auf ein höheres Temperaturniveau, auf dem wir uns noch heute befinden. Hier nochmals der Temperatur-Verlauf laut DWD.

Abb. 1: Trotz CO₂-Zunahme in der Atmosphäre wurden die Märzen fast 60 Jahre lang kälter, siehe der fallende Trend bis 1987. Dem Startjahr des Klimawandels in Mitteleuropa. Mit einem Temperatursprung wird der Monat nun endlich wieder wärmer.

Anmerkung zum Temperatursprung, dieser kann in den Einzelmonaten auch leicht verschoben sein, der Temperatursprung bezieht sich eigentlich auf das Gesamtjahr, siehe auch hier.

Schon mit der Grafik 1 ist die Behauptung der Treibhaus-Klimakirche, CO₂ sei der Haupttemperaturtreiber falsch. Ein Beweis genügt, sagte Einstein.

Abb. 2: Laut dem linksgrünen Geschäftsmodell CO₂-Treibhauserwärmung sollen ausschließlich Treibhausgase, und aus dieser Gruppe hauptsächlich das „umweltschädliche“ CO₂ für die starke Temperaturzunahme der letzten 100 Jahre verantwortlich sein. Und nachts besonders stark wirken! CO₂ sei der Haupttemperaturregler. Der DWD zeigt mit seinen Temperaturdaten, dieses Geschäftsmodell ist wissenschaftlich falsch. Also weg mit der CO₂-Klimaerwärmungslüge

Wir werden nun die Grafiken und einige Erklärungen aus Teil 1 ergänzen, insbesondere durch die oftmals mitgemessenen, aber niemals in Grafiken der bezahlten Klimawissenschaft dargestellten Tag/Nachttemperaturen, gemessen in Tmax/Tmin, näher erläutern

Dadurch wird erst recht bewiesen, dass Kohlendioxid in den Temperaturreihen keine sichtbaren Auswirkungen hinterlässt. Und das zeigen wir jetzt

Unterschiede zwischen den Tag/Nachtemperaturen beim März:

Der DWD bietet keine Tag/Nachttemperaturen als Schnitt seiner fast 2500 Wetterstationen an. Nur Einzelstationen. Unser Autor M. Baritz hat sich die zeitaufreibende unendliche Mühe gemacht und fast 540 repräsentativ herausgegriffene DWD-Stationen zu einem Deutschland-Schnitt seit 1947 zusammengefasst. Ein zeitlich weiteres Zurückgehen war leider nicht möglich, da erst nach Kriegsende genügend Wetterstationen vorliegen, die auch heute noch alle drei Parameter gleichzeitig messen.

Auch wenn der Standort der allermeisten der 535 DWD-Wetterstationen in den letzten 80 Jahren unter Beibehaltung des Namens versetzt und auch die Messmethode geändert wurde, so geschah dies für die drei Temperaturaufzeichnungen gleichzeitig.

Abb. 3: Aufgetragen sind 2 Zeiträume, 1947 bis 1987, dann der Temperatursprung und ab 1988 bis heute. Außerdem 3 Grafikverläufe: Die obere graue Grafik fasst die tagsüber gemessenen mittleren Tmax Temperaturen des Monats März zusammen, die mittlere braune Grafik die Tagesschnitte und die blaue Grafik die Nachttemperaturen, gemessen in Tmin. Quelle

Zwei Ergebnisse:

  1. Vollkommen anderer Verlauf vor und nach dem Temperatursprung
  2. Seit 1988 wurden nur die Tage tagsüber wärmer, die Nächte nicht, im Gegenteil

Tmax: bis 1987 fallend, Temperatursprung, seitdem deutlich steigend

Schnitt: bis 1987 unmerklich fallend, Temperatursprung, danach leicht steigend.

Tmin: ab 1947, 40 Jahre deutlich steigend, Temperatursprung, danach deutlich fallend.

Wichtige Erkenntnis, nach dem Temperatursprung 1987/88 wurden vor allem die Tage tagsüber wärmer, wozu sicherlich die Zunahme der Sonnenstunden stark beigetragen haben. (siehe Grafik 5a unten)

Die Steigungs-Schere zwischen Tmax/Tmin ging von 1947 bis 1987 zusammen, ab 1988 bis heute deutlich auseinander. Dabei sollen laut Treibhaustheorie doch gerade die Nächte wärmer werden!!

Mit den stark unterschiedliche verlaufenden Tag- und Nachttemperaturen sind Treibhausgase als Haupttemperaturtreiber endgültig widerlegt.

Der vollkommen unterschiedliche Verlauf der Märztage tagsüber und nachts zeigt sich bei bestimmten DWD-Wetterstationen noch viel deutlicher. Z.B. Augsburg:

Abb. 4a: Der März wurde tagsüber wurde deutlich wärmer, die Nächte genauso deutlich kälter. CO₂ kann doch tagsüber nicht anders wirken als nachts. Die wirklichen Gründe, siehe später

Dabei soll laut gängiger Treibhauslehre der CO₂-Erwärmungseffekt nachts doch besonders stark wirken! Siehe: RTL-Häckl im Oktober 2020. (Oder im Original hier).

Auch die beiden nächsten Grafiken zeigen, dass die Treibhaustheorie dieses bezahlten CO₂-Voodoo-Experten vollkommen falsch ist. Zunächst seine Heimatwetterstation

Abb. 4b: Auch in Düsseldorf werden die Märztage tagsüber wärmer, die Nächte deutlich kälter.

Die Hansestadt an der Nordseeküste

Abb. 4c: In Bremen wird die nächtliche Abkühlung etwas gebremst durch die Meeresnähe. Trotzdem geht die Schere Tag/Nacht deutlich auseinander.

Die DWD-Wetterstation Grambek im Norden Deutschlands zwischen Hamburg und Schwerin. Man beachte den Anstieg der Temperaturen am Tage ab 1988

Abb. 4d: Im Norden Deutschlands zeigt die DWD Station Grambek (zwischen Hamburg und Schwerin)  auch die gegenläufigen Trendgeraden der Minimum – und Maximum – Temperaturen

Die ländliche DWD Station Dachwig (nordwestlich von Erfurt

Abb. 4e: Noch deutlicher wird diese Tendenz bei der DWD Station Dachwig (nordwestlich von Erfurt). Die gemessenen Daten der Referenzperiode 1991-2020 sind nahezu identisch zu den homogenisierten Daten des DWD.

Dass CO₂-Anstieg und die nächtlichen Tmin vor allem bei Stationen mit geringem WI-Effekt stark gegenläufig sind, zeigt vor allem die Grafik von Tmin der ländlichen Station Dachwig in Thüringen. Sogar seit Einrichtung dieser Station, also vor 45 Jahren.

Abb. 4f: Seit 45 Jahren, seit Bestehen der ländlichen Station wird der März in Dachwig nächtens deutlich kälter, ganz im Gegensatz zur CO₂-Zunahmekurve (rechts). Ab 1988 bis heute wäre die negative Steigung bei Dachwig sogar: y = – 0,07 x, geradezu ein nächtlicher Temperatursturz.

Wir fragen: Wo ist der CO₂-Treibhauseffekt in Dachwig, der nachts sogar stärker wirken soll in den Grafiken erkennbar? Antwort: Nirgendwo. Deswegen ist die Treibhaustheorie mit CO₂ als Haupttemperaturerwärmungstreiber auch falsch! So einfach ist die Widerlegung dieses Märcheneffektes. Nach Einstein genügt ein Gegenbeweis.

Merke: An dem vollkommen unterschiedlichen Verlauf der Tmax/Tmin-Temperaturen hat der Deutsche Wetterdienst den CO₂-Treibhauseffekt als Haupttreiber der Temperaturen vollständig widerlegt.

Merke: Kohlendioxid ist kein Temperaturregelknopf. Das ist eine Falschbehauptung der Voodoo-Wissenschaft wie beim PIK, der linksgrünen Politik und ihrer Klimaaktivisten und Klima-Chaoten in den bezahlten NGOs!!

Ein Gegenbeweis genügt, sagte Einstein immer. Wir haben ihn hiermit mehrfach erbracht!!!

Deswegen ist diese Mainstream-Definition für Klimaänderungen auch grottenfalsch, die behauptet, dass hauptsächlich das vom Menschen ausgestoßene CO₂ zu der neuzeitlichen Klimaerwärmung geführt haben soll. Diese Definition ist lediglich ein festes Glaubensbekenntnis, wissenschaftlich aber eine Lüge. Und die linksgrünen Glaubenspolitiker betrachten CO₂ sogar als den Temperaturregelknopf, mit welchem man die globalen Temperaturen steuern kann!! Somit ist die westliche und vor allem die deutsche Klimapolitik unter dem Motto: „Kampf dem Klimawandel ein teurer Irrläufer einer CO₂-Glaubenssekte, der nur auf unser Geld abzielt! Bisher mit großem Erfolg, zumal die Politik diesen CO₂-Glaubensirrläufer in Gesetzen zunehmend festschreibt.

Erklärung der Ursachen der Grafiken 3 und 4: (Unterschiedlicher Temperaturverlauf Tag/Nacht)

Die Sonne: Zu den vielen von uns in Teil 1 der Artikelserie genannten 9 Gründen sehen wir einen Hauptgrund in der Zunahme der Sonnenstunden und der Abnahme des Niederschlages. Außerdem hat sich auch die Intensität der Sonnenstrahlung verstärkt und die gesetzlichen Maßnahmen zur Luftreinhaltung verstärkten die Erwärmung am Tage bis heute. Aber nur am Tage. Umgekehrt lassen die vermehrt klaren Nächte seit 1988 verstärkt eine Abkühlung zu.

Abb. 5a/b: Die Sonnenstunden und Niederschlag sind gegenläufig. Kein Wunder, sie sind über den Grad der Bewölkung gekoppelt.

Von 1947 bis 1987 hat die Bewölkung zugenommen, dadurch wurden die Sonnenstunden weniger und die Temperaturen tagsüber sind gefallen bis 1987. (siehe negative Steigung von T-Max). Umgekehrt hat die zunehmende Bewölkung nachts zu weniger Auskühlung der Nächte, -also ein T-Anstieg von 1947 bis 1987 – geführt.

Ab etwa 1988 hat sich die Großwetterlage gedreht. Die Sonnenstunden und die Strahlungsintensivität nahmen wegen der Luftreinhaltung zu. Umgekehrt hat sich aus den gleichen Gründen die nächtliche Auskühlung verstärkt.

Verdeutlichung der Korrelation zwischen Sonnenscheindauer und Tmax am Tage.

Abb. 6: Trägt man die durchschnittlichen Tagesmaxima gegen die SSH auf wird diese Korrelation sichtbar.

Die Sonnenstunden nehmen zu, wenn der Niederschlag und damit die Bewölkung abnimmt und umgekehrt. Tagsüber wird es wärmer. Nachts kälter.

Als Gründe wurde in Teil 1 die Änderung der Großwetterlagen angeführt, aber auch der Mensch hat mitgewirkt am Grad der Wolkenbildung. Man wusste schon Anfang der 60-er vom Svensmark-Effekt. Durch die vielfachen oberirdischen Atomtests waren zum einen viele Staubpartikel als Kondensationskeime und zum anderen viele radioaktive Elemente, ebenso als Kondensationskeime, in die Atmosphäre gelangt. Dies hat u.a. zum sehr kalten Winter 62/63 geführt. Die Diskussion vom nuklearen Winter nach einem möglichen Atomkrieg kam ja nicht von ungefähr. Und die Abkühlung bis Ende der 80-er Jahre war Standard des damaligen Klimawissens. Die schnelle Einigung, Atomtestes nur noch unterirdisch durchzuführen kam deswegen überraschend schnell. Und ab Ende der 1980, bzw. Anfang der 1990-er Jahre griffen auch die Umweltgesetze mit verschärften Vorschriften der Luftreinhaltung. Alles Gründe für die Bewölkungsabnahme.

Merke: Anhand der Grafiken 2 und 3, – die man außer in unseren Artikeln nirgendwo in der Literatur findet – ist endgültig bewiesen, dass das „klimawirksame“ CO₂ allerhöchstens in homöopathischen Dosen versteckt am Temperaturverlauf mitwirken kann. Keinesfalls ist CO₂ der Temperaturhaupttreiber und schon gar nicht ein Temperaturregelknopf!!!

Die richtigen wissenschaftlichen Erklärungen am DWD-Temperaturverlauf haben wir nun genannt und zur Diskussion gestellt.

Ein möglicher weiterer Grund für die Märzerwärmung tagsüber zu den bisher genannten soll hier nur zur Information gestellt werden: das Geo-Engineering. Der Schweizer Dipl. Physiker Dr. rer. nat. Philipp Zeller beschäftigt sich schon 30 Jahre mit den Methoden des Geoengineerings. In diesem Vortrag (45-Minuten) stellt er einige vor, die alle Anwendung finden: https://youtu.be/3NHzBFchZwc?si=DVG2oBzwmqge0c3G

Wer sich doppelt so lange damit beschäftigen möchte, derselbe Physiker, Vortrag nur wissenschaftlicher aufgebaut: https://www.youtube.com/watch?v=KmdiGQDYPrI

Allerdings hätten diese Maßnahmen die Temperaturen bei uns in Mittel- und Westeuropa erhöht, wo diese laut eigener Vorgaben doch zu einer Abkühlung führen sollten. Oder wird bewusst erhöht, um das Märchen einer CO₂-Treibhauserwärmung und die Klimahysterie zu erhalten? Auch Dr. Zeller ist überzeugt, hier geht es nicht ums Klima, sondern nur ums Geld.

Der Märzverlauf außerhalb Deutschlands.

Auch die folgenden Temperaturgrafiken aus anderen Ländern widerlegen die starke Wirkung des CO₂-Treibhauseffektes: Doch nicht nur der Deutsche Wetterdienst zeigt uns das durch seine Grafiken, auch andere Wetterstationen außerhalb Deutschlands haben einen ähnlichen Verlauf.

Gehen wir zunächst nach Westeuropa

Abb. 7a: CET Daten aus Mittelengland seit 1885. Temperatursprung von über 1 K auch in Zentralengland mit unterschiedlichen Verläufen davor und danach. Quelle

Abb. 7b: Interessant ist eine Betrachtung einer längeren Temperaturreihen hier am Beispiel Schottland (CET sieht genauso aus). Nach fast genau 100 Jahren parallel laufender Temperatur-Trendlinien zeigt sich ab 1987 ein Temperatursprung mit deutlicher gegenläufigen Temperatur-Trendlinien.

Die Tmax-Durchschnittstemperaturen steigen deutlich an, während die Tmin– Durchschnittstemperaturen fallen. Ein Grund für den Tmax-Anstieg ist wohl auch die zunehmende Sonnenscheindauer:

Abb. 7c: zunehmende Sonnenscheinstunden von Schottland im Monat März

Obwohl Schottland viel nördlicher liegt als Deutschland ist auch dort der Zusammenhang zwischen Sonnenstunden und T-Max tagsüber deutlichst, siehe nächste Grafik:

Abb. 7d: Signifikante Korrelation zwischen Tagesmaxima und SSH, ähnlich wie Deutschland in Grafik 6

Dann unsere Nachbarländer:

Abb. 8.: Das gleiche Bild in Österreich. Keine Erwärmung bis 1987, Temperatursprung 87/88 von 1,1 K und danach leichte Erwärmung. Quelle

Abb.9: Westeuropa mit Frankreich, Benelux und Teile von Deutschland. Quelle (ECMWF ERA5)

Noch ein kurzer Blick zur Antarktis und der deutschen Neumayer Station:

Abb.10a: Kaum Märzerwärmung über die gesamte Antarktis seit 85 Jahren beim Monat März. (Erster Herbstmonat), Allerdings ist die Erhebung nicht vollkommen zuverlässig, erst seit gut 30 Jahren wächst die Genauigkeit an Überwachung. Deshalb soll die deutsche Einzelstation Neumayer seit 1982 zur Genauigkeit verhelfen. Die Wetterhütte befindet sich deutlich entfernt von der Großstation, so dass keinerlei Stationswärme die Messung beeinflusst.

Abb. 10b: Keine Märzerwärmung, im Gegenteil. Neumayer kühlt die letzten 44 Jahre deutlich ab. Wo bleibt die Wirkung des angeblich erwärmenden CO₂? Siehe deutlich fallende Trendlinie. Quelle

Beachte: In der Antarktis gab es 1988 auch keinen Temperatursprung wie in Mittel- und Westeuropa. Die deutsche Wetterstation gibt es erst seit 1982 und der März ist auf der Südhalbkugel der Herbstanfang. Und CO₂ steigt und steigt, siehe Grafik 10, die Antarktis wird kälter. Deutlicher kann ein Beweis, dass CO₂ nichts bewirkt, nicht ausfallen.

Und Nordamerika: Diese Wetterstation ist die älteste in Virginia und heute noch Bestandteil des US-amerikanischen Wetternetzes. Sie steht einsam bei einer Farm auf dem Lande, sie hat nur einen geringen Wärmeinseleffekt seit 150 Jahren entwickelt. Beachte, weder 1988 noch kurz davor oder danach: kein Temperatursprung wie bei uns

Abb. 11a/b: Keinerlei Märzerwärmung seit über 100 Jahren in Virginia bei dieser ländlichen Station in den USA, obwohl die CO₂-Konzentrationen wie überall laut Treibhauskirche von etwa 280 ppm seit 1880 auf nunmehr 428 ppm gestiegen sind. Allerdings lagen die letzten 7 Märzen über der fallenden Trendlinie. Der am Mouna Loa gemessene weltweite CO₂-Anstieg seit 1958 hat einen ganz anderen Verlauf.

Erg: Keinerlei Korrelation zwischen CO₂-Verlauf und Temperaturverlauf.

Rechnet man den leicht zunehmenden WI-Effekt seit Kriegsende aus den Daten raus, dann gäbe es seit 80 Jahren sogar eine deutlichere Märzabkühlung!!! Immerhin hat sich die kleine Kreisstadt Harrisonburg mit ihren Außenbezirken bis auf 1 km an die Dale-Enterprise Farm herangeschlichen und ein asphaltierter Highway führt an dem Standort der Station vorbei

Merke: den angenehmen Temperatursprung im Jahre 1987/88 mit Weitererwärmung gab es nur bei uns in Mittel- West- und Nordeuropa. Andere Länder der Welt haben diesen Klimawärmesprung bei uns gar nicht mitbekommen.

Nachdem wir nun anhand vieler Temperaturreihen gezeigt haben, dass CO₂ keinesfalls der Haupttreiber von Temperaturen sein kann, CO₂ spielt allerhöchstens in nicht feststellbarer Dosen mit, wollen wir auf einen positiven Effekt der CO₂-Zunahme aufmerksam machen.

Wir brauchen mehr CO in der Atmosphäre

Eine positive Eigenschaft hat die CO-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO führt zu einem beschleunigten Wachstum, steigert die Ernteerträge und bekämpft somit den Hunger in der Welt. Die Wüsten werden grüner. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO-gehalt der Atmosphäre liegt etwa bei 800 bis 1200ppm, das sind etwa 0,1%. Nicht nur für das Pflanzenwachstum, sondern auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO in der Luft. Viele Untersuchungen bestätigen dies. Und vor allem dieser Versuchsbeweis. Die zunehmenden CO₂-Konzentrationen der Atmosphäre sind eine positive Entwicklung für diesen Planeten. Und: der optimale Gehalt dieses Schöpfungsgase in der Atmosphäre muss endlich wissenschaftlich untersucht werden

Kohlenstoffdioxid ist überhaupt kein Klimakiller und schon gar kein Giftstoff. Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO vermindern will, versündigt sich gegen die Schöpfung dieses Planeten.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Gegen die Terrorgruppe „letzte Generation“ muss mit allen gesetzlich erlaubten Mitteln vorgegangen werden, da die Gruppe keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Ebenso gegen die Panik verbreitende Politik und Medien. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert – ausführlich hier beschrieben. Nur mit dem Unterschied, dass man uns das Geld automatisch in Form von Steuern aus der Tasche zieht. Ein Aufstand der Anständigen ist unbedingt erforderlich.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt menschlichen Handelns gestellt werden. Die Erhaltung der natürlichen Vielfalt von Pflanzen und Tieren sollte ein vorrangiges Ziel sein und nicht diese unseriöse Panikmache von Medien im Verbund mit gut verdienenden Klimaangst-Schwätzern wie z.B. die Professoren Quaschnig/Lesch/Rahmstorf/Schellnhuber/Latif und anderen von uns in der Politik agierenden und teuer bezahlten fabulierenden Märchenerzählern. Deren Einstellung gegen CO₂ ist eine Einstellung gegen die Schöpfung auf diesem Planeten.

Wir alle sind aufgerufen, jeder auf seinem Weg und nach seinem Können die derzeitige Klima-Panikmache und die Verteufelung des lebensnotwendigen Kohlendioxids zu bekämpfen. Ein Umdenken in der Bevölkerung und bei den Kirchen ist schnellstens erforderlich, um den völlig unsinnigen CO₂-Reduzierungsmaßnahmen der linksgrünen Klimapolitik ein Ende zu bereiten.

Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, ausgezeichnet mit dutzenden von Umweltpreisen. Unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturwissenschaftler und Umweltschützer.

 

Der Beitrag Die Temperaturreihen des Deutschen Wetterdienstes beim Monat März zeigen: Es gibt keinen wirksamen CO₂-Treibhauseffekt. Teil 2 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Kältereport Nr. 15 /2026

veröffentlicht.
Vorschau ansehen

Meldungen vom 6. April 2026:

UK: April-Schnee in Glasgow

Am Ostersonntag gab es in Glasgow starken Schneefall, und in der ganzen Stadt herrschten winterliche Verhältnisse. Der Verkehr war beeinträchtigt, weil sich die Bedingungen im Laufe des Tages weiter verschlechterten.

Auch in höheren Lagen der schottischen Berge herrschen weiterhin beeindruckende Schneemengen vor, mit hervorragenden Bedingungen auf den Gipfeln, insbesondere am und um den Cairngorm Mountain.
In Glen Feshie, etwa 900 m über Coire Garbhlach, hat sich in einer nach Nordwesten ausgerichteten Mulde eine mindestens vier Meter hohe Schneedecke gebildet. Schottland hat heute keine Gletscher mehr, schon seit Jahrtausenden nicht mehr, aber diese große Schneefläche, die sich bis in den April hinein gut hält, ahmt einen Gletscher gut nach.

——————–

Bulgarien: Schnee-Rekord im April gebrochen

Der Botev-Gipfel in Bulgarien hat einen neuen Schneehöhenrekord für April aufgestellt. Auf dem Gipfel, der zum Balkangebirge (Stara Planina) gehört, wurden 333 cm Schnee gemessen – ein neuer Rekord, der den bisherigen Rekord von 325 cm aus den 1960er-Jahren (als die Höhenmessstation eingerichtet worden war) deutlich übertrifft.

An anderer Stelle, am Vitosha-Gebirge, hat der Neuschnee um weitere 20 cm die Lawinengefahr erhöht.

Es wird weiterer Schneefall erwartet, da sich in Bulgariens höher gelegenen Gebieten oberhalb von 1.500 m bis Anfang der Woche weiterhin Schnee ansammelt.

Die Schneehöhen in den europäischen Hochlagen sind bis in den April hinein beeindruckend. In Arcalis in Andorra beispielsweise liegen noch immer 4 Meter Schnee.

Unterdessen herrschten am Montag in tieferen Lagen weiterhin Minusgrade, so dass in den Weinbaugebieten Frostkerzen erneut angezündet werden mussten. Der Ostermontag begann mit deutlichem Frost in Nordfrankreich. Die Temperaturen sanken auf -3,7 °C in Mourmelon-le-Grand (Marne) und auf -2,4 °C in Charleville-Mézières (Ardennen).

——————–

Kanada: Rekord-Schneemengen westlich von Calgary

Die Schneemenge in den Rocky Mountains von Alberta nähert sich Rekordwerten. Am Little Elbow Summit erreichte das Schneewasseräquivalent am 5. April 531 mm.

Das liegt deutlich über dem üblichen Bereich von 300 bis 400 mm und ist der zweithöchste Wert seit Beginn der Aufzeichnungen (in den 1980er Jahren). Nur 1991 wurde mit 587 mm ein höherer Wert gemessen.

Diese Entwicklung wird durch eine anhaltende Tiefdrucktätigkeit über dem Pazifik vorangetrieben. Wiederholte Westströmungen haben Feuchtigkeit in die Rocky Mountains geleitet, wo sie in Form von anhaltendem Schneefall über den Quellgebieten von Alberta niedergeht. Diese Wetterlage hält seit Monaten an, so dass sich die Schneemenge stetig erhöht.

Das Ergebnis hängt nun von der Schneeschmelze ab. Eine allmähliche Schneeschmelze würde die Flüsse speisen, die Stauseen stabilisieren und den Druck auf die Wasserversorgung verringern. Eine rasche Erwärmung, insbesondere in Verbindung mit Regenfällen, erhöht natürlich das Hochwasserrisiko.

Die Überschwemmungen in Alberta im Jahr 2013 folgten einer ähnlichen Wetterlage, bei dem im Frühjahr starke Regenfälle auf eine bereits bestehende Schneedecke fielen.

Derzeit jedoch liegt im Westen Kanadas eine der höchsten Schneedecken seit Jahrzehnten für Anfang April.

——————–

Nordindien: Anhaltende Abkühlung

Eine weitere westliche Strömung zum Saisonende lässt die Temperaturen in Nordindien stark sinken und bringt Neuschnee in die Himalaya-Regionen.

Die Höchsttemperaturen, die bei 33–35 °C lagen, sollen bis Mitte der Woche in Punjab, Haryana, Delhi und Uttar Pradesh auf 19 bis 26 °C sinken. Das sind etwa 8 bis 15 °C unter dem Normalwert und sorgt für Wetterbedingungen, die eher für den Februar als für den Frühling typisch sind.

Die Abkühlung wird durch einen erneuten Zustrom von Feuchtigkeit und instabiler Luft aus westlicher Richtung verursacht. Während dieses Tiefdruckgebiet über die Ebenen zieht, löst es großflächigen Regen, Gewitter und Hagel aus, während kältere Luft in der Höhe für starken Schneefall in den Höhenlagen sorgt.

Die Schneemengen in Himachal Pradesh sind für diese Jahreszeit bemerkenswert. In Gondhla fielen innerhalb von 24 Stunden 28,5 cm Schnee, innerhalb von 48 Stunden 41,5 cm. Im nahegelegenen Keylong fielen 20 cm.

Diese kalten, unbeständigen Wetterbedingungen beeinträchtigen die Weizenernte zum Zeitpunkt der Ernte.

Link: https://electroverse.substack.com/p/glasgow-wakes-to-april-snow-monthly?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 7. April 2026:

Italien: Capracotta unter mehr als zwei Metern Aprilschnee begraben

Capracotta in Italien wurde gerade von einem Frühlingsschneesturm heimgesucht, wie er eher für den Januar typisch ist.

Die Bergstadt in Molise, auf 1.421 m Höhe gelegen, wurde kürzlich von einem Schneesturm heimgesucht, der innerhalb von etwa 24 Stunden 1,5 m Schnee fallen ließ. Nachfolgende Berichte italienischer Medien zeigten, dass die Schneehöhe in der Stadt 2 m überstieg, wobei einige lokale Berichte angaben, dass die höchsten Schneeverwehungen 3 m erreichten.

Autos verschwanden, und die Bewohner gruben Tunnel, nur um aus ihren Häusern zu gelangen. Es wurde auch von Stromausfällen berichtet, da sich Eis auf den Leitungen ansammelte.

Capracotta ist einer der höchstgelegenen Orte im Apennin und einer der schneereichsten Orte Italiens. Der Ort hält zudem den Guinness-Weltrekord für den höchsten Schneefall innerhalb von 24 Stunden, nachdem dort im März 2015 2,56 m gefallen waren. Capracotta kennt sich mit Schnee aus. Dennoch verweisen italienische Medienberichte auf den April 1967 – das letzte Mal, so heißt es, als ein Sturm in der Spätsaison diesen Teil des Apennins in einem Ausmaß bedeckte, das dem jetzigen nahekommt.

In den gesamten italienischen Apenninen war der April von außergewöhnlichen Schneefällen geprägt.

——————–

Kanada: Der kalte und schneereiche Winter

Der Winter 2025/26 in Kanada brachte in vielen Regionen anhaltende Kälte und außergewöhnliche Schneefälle mit sich, wobei an mehreren Orten Rekordwerte erreicht worden waren.

St. John’s, Neufundland, schaffte es zum erst siebten Mal seit Beginn der Aufzeichnungen im Jahr 1875 in den „500-cm-Club“. Zuletzt wurde diese Marke in der Saison 2002/03 erreicht, und da die Saison noch einige Wochen dauert, könnten die Gesamtwerte weiter steigen.

Auch Sault Ste. Marie in Ontario überschritt dank einer der stärksten Schneefälle in der späten Saison die 500-cm-Marke.

Ein Schneesturm im März, gefolgt von wiederholten See-Effekten, ließ die Gesamtwerte stark ansteigen. Allein im Jahr 2026 verzeichnete die Stadt 363 cm, was fast einer Verdopplung der bis Ende Dezember gefallenen Schneemenge entspricht.

Toronto nähert sich derzeit seinem historischen Schneefallrekord.

Die saisonale Gesamtmenge liegt bei fast 190 cm und ist damit bereits die viertgrößte jemals gemessene Menge; der Rekord von 206,7 cm aus den Jahren 1938–39 ist in greifbarer Nähe.

Am 25. Januar verzeichnete der Toronto Pearson International Airport 46,2 cm an einem einzigen Tag – ein Stationsrekord –, wobei in Teilen der Stadt bis zu 56 cm gemessen worden sind.

Weiter westlich hat Calgary einen sehr starken Anstieg gegen Ende der Saison verzeichnet.

Die Schneemenge hat bereits den Jahresdurchschnitt von 128 cm erreicht, wobei weitere Neuschneefälle wahrscheinlich sind.

Ausschlaggebend dafür waren anhaltende Kaltluftmassen in Verbindung mit aktiven Tiefdruckgebieten und in der Region der Großen Seen wiederholte Verstärkung durch den Seeeffekt. Diese Bedingungen haben dazu geführt, dass sich der Schnee effizient ansammeln und auf dem Boden verbleiben konnte, wodurch die Gesamtmengen historische Werte erreichten (und sogar übertrafen).

Der Winter hat nördlich der Grenze ganze Arbeit geleistet.

Und er treibt immer noch gelegentlich Kaltfronten nach Süden in die Vereinigten Staaten…

——————–

USA: Polarwirbel hält die Kälte im Spiel

Über Kanada hält sich weiterhin ein starker kalter Polarwirbel, dessen Kern über der Hudson Bay nach wie vor intakt ist.

Den neuesten ECMWF-Prognosen zufolge bleiben die Temperaturen in 500 hPa bis Mitte April bei etwa -45 °C und steigen erst allmählich auf -40 °C.

Das ist hoch winterliche Luft, die bis weit in den Frühling hinein anhält.

Das Ergebnis ist eine fragmentierte, von Kaltluft geprägte Wetterlage über den 48 kontinentalen Bundesstaaten – kein landesweites arktisches Muster, sondern gezielte, wechselnde Kaltluftvorstöße, die mit der Zirkulation zusammenhängen und vor allem den Norden und Osten betreffen, während es im Süden wärmer wird.

Mehrere „Alberta Clippers“ ziehen diese Woche über den Mittleren Westen, die Region der Großen Seen und den Nordosten hinweg. Innerhalb eines Zeitraums von sechs Tagen werden mindestens drei Systeme erwartet, die jeweils die kalte kanadische Luft anzapfen und für leichte Schneefälle sorgen – sogar bis Mitte April.

Über den Großen Seen und im Nordosten fällt bereits Schnee, und bis Mitte der Woche werden weitere Schneeschauer erwartet.

Obwohl lokal begrenzt, wird sich diese Wetterlage als hartnäckig erweisen.

Für rund 74 Millionen Amerikaner werden Tiefsttemperaturen unter dem Gefrierpunkt vorhergesagt, vor allem im nördlichen Teil des Landes, mit Werten bis -18°C im Norden von Minnesota [= die 0-Grad-Marke Fahrenheit. A. d. Übers.]. Insgesamt in den USA liegen die Temperaturen nur leicht unter dem Durchschnitt, doch regional bleibt die Kälte dort, wo sie sich festsetzt, weiterhin ausgeprägt.

Die gleiche Wetterlage schränkt Unwetter ein. Kalte, trockene Luft im Norden und Osten unterdrückt die Konvektion, während die wärmeren südlichen Regionen von dieser Energie weitgehend abgeschirmt bleiben – vorerst.

Link: https://electroverse.substack.com/p/capracotta-buried-by-2m-of-april?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 8. April 2026:

Nordindien, Himalaya: Verbreiteter April-Schnee

Schnee im April ist im Himalaya nichts Ungewöhnliches. Ungewöhnlich ist jedoch das Ausmaß dieses jüngsten Schneefalls.

Der Schnee fällt gleichzeitig in mehreren Bezirken von Himachal Pradesh, von den hochgelegenen Gebieten in der Nähe des Atal-Tunnels bis hinunter in den oberen Teil des Shimla-Gebiets, darunter Narkanda, Kotkhai und Baghi.

Es handelt sich um ein Wetterphänomen, das mehrere Höhenlagen gleichzeitig betrifft.

Aufeinanderfolgende westliche Wettersysteme sorgen für anhaltende Niederschläge. In höheren Lagen fällt stetiger Schnee, was die Lawinengefahr erhöht, während auch in mittleren Höhenlagen Schneeverwehungen gemeldet werden.

Im April wird Schnee in Höhenlagen ab 2.500 m erwartet. Schnee in tiefer gelegenen Obstbaugebieten ist seltener, insbesondere mit Schneeverwehungen. Aufnahmen aus Kotkhai zeigen, wie nasser Schnee sich auf Hagelschutznetzen ansammelt.

Berichte bestätigen Auswirkungen in Shimla, Kullu, Kangra und Mandi.

Der Winter hat sich noch nicht vollständig in die höheren Lagen zurückgezogen. Dieses Wetterphänomen hat den Bergen wieder kältere Bedingungen verschafft. Eine echte Entspannung ist nicht in Sicht – zumindest nicht in dieser Woche.

——————–

Bering-See: Meereis hält sich in ungewöhnlich winterlichem Ausmaß

Das Eis in der Beringsee breitete sich in diesem Winter ungewöhnlich weit nach Süden aus, erreichte seine größte Ausdehnung seit mindestens 2013 und erreichte Gebiete, in denen es in den letzten Jahren kaum oder gar kein Eis gab.

Das Eis erstreckte sich über die Bristol Bay, entlang der Alaska-Halbinsel und bis hin zu Cold Bay, Unimak Island und den Pribilof-Inseln. An einigen Stellen waren Fischer gezwungen, durch Eisfelder zu navigieren.

Dies war auf ein anhaltendes Hochdruckgebiet über der Beringsee zurückzuführen, das lokal kalte Luft einschloss und so die Eisbildung begünstigte. Gleichzeitig lenkte es Stürme und mildere Südwinde in die Ochotskische See und begrenzte dort die Eisbildung.

Während sich in der Beringsee Eis bildete, hatten andere Regionen Mühe, überhaupt Eis zu bilden.

Dies verdeutlicht einen wichtigen Punkt, der in allgemeinen Zusammenfassungen der polaren Bedingungen oft übersehen wird. Meereis ist nicht nur eine Funktion der Temperatur. Es wird stark von Windrichtung, Drucksystemen und Meeresströmungen beeinflusst. Ändert sich die Zirkulation, reagiert das Eis schnell – es wächst in einer Region, während es sich in einer anderen zurückzieht.

All dies hat reale Auswirkungen. Die Ausdehnung beeinträchtigte den Fischfang, da Schiffe im südöstlichen Teil der Beringsee Mühe hatten, sich durch das Eis zu navigieren. Auch maritime Ökosysteme sind betroffen, da Meereis die Wassertemperaturen verändert und Arten wie den Pazifischen Kabeljau in andere Gebiete drängt.

Link: https://electroverse.substack.com/p/widespread-april-snow-hits-himachal?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 9. April 2026:

USA: Frühlingssturm bringt erhebliche Schneemengen in der Sierra Nevada

Ein spätwinterlicher Schneesturm zieht in die Sierra Nevada und bringt den dringend benötigten starken Schneefall mit sich.

Zunächst bleibt die Schneefallgrenze bis Freitag hoch, was die ersten Schneemengen begrenzt. Am Samstag folgt dann jedoch deutlich kältere Luft mit einem Absinken der Schneefallgrenze bis auf Seehöhe.

Auf Seehöhe werden mehrere Zentimeter erwartet, in höheren Lagen sollen bis Sonntag bis zu 61 cm fallen. Auf den höchsten Gipfeln könnten die Werte noch weit darüber liegen.

Für Höhenlagen über 1.370 Metern gilt von Freitag 17 Uhr bis Sonntag 22 Uhr eine Wintersturmwarnung. „Reisen in den Bergen könnten sehr schwierig bis unmöglich sein“, warnt der NWS.

Und schon bald könnte noch mehr kommen.

Frühe Vorhersagen deuten auf unterdurchschnittliche Temperaturen und anhaltende Niederschläge bis in die letzte Aprilwoche hin mit der Möglichkeit weiterer Schneefälle.

In der Sierra gibt es in diesem Jahr bnislang ein Defizit. Aber der Winter ist noch nicht vorbei.

——————–

Kanada versinkt im Schnee

Während der Westen der USA in dieser Saison etwas zu kämpfen hatte, liegen weite Teile Kanadas unter einer dicken Schneedecke.

Im Westen hat das Banff Sunshine Village die 800-cm-Marke überschritten, begünstigt durch einen März mit 208 cm Neuschnee, der eher an den Hochwinter als an den Frühling erinnerte.

Das nahegelegene Skigebiet Lake Louise startete bereits im Dezember mit 282 cm in die Saison – es war der schneereichste Dezember seit 1970.

Die Messstationen in den Quellgebieten von Alberta liegen für Anfang April nahe dem oberen Ende ihrer historischen Bandbreite, was zeigt, dass es sich nicht nur um die Gesamtwerte der Skigebiete handelte – das gesamte Gebirgssystem verzeichnete eine beträchtliche Schneehöhe.

Das Bild wiederholt sich im Osten.

St. John’s hat nun die 500-cm-Marke für diese Saison überschritten und erreicht diese Schwelle damit erst zum siebten Mal seit Beginn der Aufzeichnungen im Jahr 1942. Allein im Februar fielen 178,2 cm – ein Rekordmonat in Sachen Schneefall. Tatsächlich war es in ganz Neufundland sehr schneereich, wobei mehrere Messstationen Werte weit über dem Normalwert verzeichneten.

Ontario folgte. Sault Ste. Marie überschritt Anfang April die 550-cm-Marke, womit dieser Winter wenige Wochen vor Saisonende in greifbarer Nähe seines saisonalen Allzeit-Schneefallrekords liegt.

Quebec too. Le Valinouët cleared 500 cm (197 in) before February had even ended.

Eine außergewöhnlich kalte Wintersaison sorgte dafür. Der März war wirklich ungewöhnlich. Bereits im Dezember sank die Temperatur in Braeburn auf -55,7 °C – die niedrigste in Kanada seit 1999 gemessene Temperatur.

In den Rocky Mountains bildete sich durch wiederholte Pazifikstürme eine dicke Schneedecke. In Neufundland und im Osten Kanadas türmte sich der Schnee durch anhaltende Atlantikstürme auf. Ontario schloss die Lücke mit Neuschnee durch den Seeeffekt.

Insgesamt überschritten mehrere Orte die 500-cm-Marke, Rekorde fielen – und es ist noch nicht vorbei.

——————–

Nordindien: Weiter starke Kälte – Rekorden fallen

Eine für den April ungewöhnliche Kältewelle hält Nordindien weiterhin im Griff, wodurch die Temperaturen deutlich unter den Normalwerten liegen und an zahlreichen Messstationen langjährige Rekorde gebrochen wurden.

Die Tageshöchsttemperaturen liegen in der gesamten Region 7 °C bis 15 °C unter dem Durchschnitt, was auf die anhaltende Bewölkung im Zusammenhang mit aktiven Weststörungen zurückzuführen ist. Dies steht im Gegensatz zu der für Anfang April typischen Hitze.

In Delhi verzeichnete die Wetterstation Palam am 9. April eine Tiefsttemperatur von 14,6 °C – die niedrigste April-Tiefsttemperatur seit mindestens 2010.

Weiter nördlich nimmt die Kälte in den Hügeln zu.

In Shimla sank die Temperatur auf 3,6 °C, den niedrigsten Wert im April seit mindestens 23 Jahren, während Mukteshwar auf 1,4 °C fiel – den tiefsten Wert im April seit 2009.

Eine große Reihe von Messstationen im Himalaya und im Vorgebirge des Himalaya meldete ähnlich niedrige Tiefstwerte, wobei die Temperaturen für diesen Monat auf einem historischen Tiefstand lagen.

Auch die Tageswerte sind stellenweise stark eingebrochen.

In Tehri wurden am Donnerstag nur 8 °C gemessen, rund 17 °C unter dem Normalwert. In Mukteshwar wurden nur 6,2 °C erreicht, etwa 16 °C unter dem Durchschnitt. Das sind Höchstwerte wie mitten im Winter, die im April auftreten.

In höheren Lagen war es kalt genug, um frischen, weit verbreiteten Schneefall zu verursachen.

Dies ist weder von kurzer Dauer noch ein Einzelfall. Und Indien ist kein kleines Land – die Kälte hat sich von den Ebenen bis in die Hügel ausgebreitet, wobei ein Großteil des 3,3 Millionen km² großen Landes Temperaturen weit unter dem Durchschnitt ausgesetzt ist:

Link: https://electroverse.substack.com/p/spring-storm-brings-snow-boost-to?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————–

Meldungen vom 10. April 2026:

Kanada: Polarwirbel hält den Winter fest

Es ist Mitte April, und Kanada befindet sich nach wie vor in tiefstem Winter.

Der troposphärische Polarwirbel ist weiterhin intakt und weist eine Stärke wie im Hochwinter auf.

Anstatt sich mit Beginn des Frühlings abzuschwächen, hält er eine starke Zirkulation über der Hudson Bay aufrecht, wodurch die Region vereist bleibt und weiterhin arktische Luft nach Süden getrieben wird.

Die Vorhersagen für die nächsten 10 Tage zeigen wiederholte Kälteeinbrüche in Zentral- und Ostkanada.

In der Höhe ist die Kälte für diese Jahreszeit ungewöhnlich tiefgreifend. Modelle zeigen 500-mb-Temperaturen von fast -48 °C noch bis zum 17. April – Werte, die eher für Januar als für Mitte April typisch sind.

Diese Kälte in der Höhe hält die Bedingungen an der Oberfläche aufrecht. Die Hudson Bay bleibt eisbedeckt, ohne dass eine nennenswerte Schneeschmelze in Gang kommt. Anstatt sich zurückzuziehen, wird die Kaltluftmasse immer wieder verstärkt.

Was den Schnee betrifft, so sehen die nächsten zwei Wochen sehr aktiv aus.

Anzeichen für Frühlingsschneefall verstärken sich nicht nur in ganz Kanada, sondern auch im Westen der USA, wobei die Schneemengen bis in die letzte Aprilwoche (und möglicherweise bis in den Mai) hinein anhalten.

Der Frühling versucht vorzudringen. Die Atmosphäre will davon jedoch nichts wissen.

——————–

Nordindien: Aprilschnee trifft Himachals Apfelanbaugebiet zum ungünstigsten Zeitpunkt

Himachal Pradesh wurde gerade zum Höhepunkt der Blütezeit von Apfelbäumen von starken, großflächigen Schneefällen heimgesucht, die den Apfelanbaugebiet des Bundesstaates genau zu dem Zeitpunkt trafen, als in den Obstgärten der Fruchtansatz einsetzte.

Im gesamten Gebiet von Upper Shimla – einschließlich Narkanda und Kotkhai – melden die Obstbauern weitreichende Schäden. Blüten wurden abgeknickt, Äste abgebrochen und Hagelschutznetze sind unter der Last des nassen Schnees zusammengebrochen.

Zu dieser Jahreszeit befinden sich Apfelbäume in ihrer empfindlichsten Phase. Schnee schädigt nicht nur die sich öffnenden Blüten, sondern beeinträchtigt auch die Bestäubung. Es ist nun mit einem drastischen Rückgang der Erträge zu rechnen.

Aus mehreren Distrikten, von Kufri und der Region um den Atal-Tunnel bis hin zu Lahaul-Spiti, Kinnaur, Chamba, Kangra und Kullu, wurde Schneefall gemeldet. Starker Regen und Hagel begleiteten das Ereignis und weiteten die Auswirkungen weit über die höheren Lagen hinaus aus.

Rund 75 Straßen wurden gesperrt, darunter wichtige Autobahnen, und es kam zu Stromausfällen, als Hunderte Transformatoren außer Betrieb gesetzt wurden.

Auch die Temperaturen sind stark gesunken. Die Tageshöchstwerte fielen um 12 bis 17 °C, wodurch die Bedingungen wieder winterlich wurden. Auch die Tiefstwerte lagen unter dem Normalwert, was den durch den Schnee bereits verursachten Stress für die Pflanzen noch verstärkte.

Die Warnungen bleiben bestehen, und es sind weitere Stürme möglich, bevor sich die Lage nach Mitte April entspannt.

Für die Obstbauern ist der Schaden bereits angerichtet. Die nun verlorenen Blüten lassen sich nicht mehr ersetzen. Der Fruchtansatz wurde beeinträchtigt. In einer Region, die stark vom Apfelanbau abhängig ist, wird dieser Kälteeinbruch in der späten Saison in den kommenden Monaten wahrscheinlich zu erheblichen finanziellen Verlusten führen.

Link: https://electroverse.substack.com/p/polar-vortex-holds-canada-in-winter?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Wird fortgesetzt mit Kältereport Nr. 16 / 2026

Redaktionsschluss für diesen Report: 10. April 2026

Zusammengestellt und übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Kältereport Nr. 15 /2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ Journalistenwatch

Klima-Wahn statt Nationalbewusstsein: Verschandelung des Hermannsdenkmals im Teutoburger Wald durch Windräder läuft an

veröffentlicht.
Vorschau ansehen Trotz einer laufenden Klage des BUND Nordrhein-Westfalen haben die Rodungsarbeiten für den hochumstrittenen Windpark Gauseköte im Teutoburger Wald begonnen. Sieben Windkraftanlagen mit einer Höhe von bis zu 256 Metern (!) sollen nur wenige Kilometer des majestätischen Hermannsdenkmals bei Detmold errichtet werden. Das nationale Kulturdenkmal droht dadurch optisch verzwergt zu werden, die historische Waldlandschaft im Naturpark […]
(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Ist Europa in Klima-Fragen (usw.) eher ein Hemmschuh für die USA als ein Verbündeter?

veröffentlicht.
Vorschau ansehen

Joe Bastardi

Die Antwort: es scheint eher ein Anker zu sein, der unseren Fortschritt bremst. Und natürlich könnte man auch in anderen Bereichen außerhalb des Klimas denken, dass sie eher ein Anker als ein Verbündeter sind.

Angenommen, wir sind ein „Verbündeter“, muss man sich fragen, wie lange wir mit Leuten verbündet sein können, die Narren sind und durch ihre Klimapolitik Selbstmord begehen. (Auch hier könnte man meinen, dass dies nur eine von vielen anderen politischen Maßnahmen ist, die zu ihrem Untergang führen.)

[Hervorhebung vom Übersetzer. So einfach kann man das ausdrücken!]

Aber ich werde mich kurz fassen.

Die Heizperiode in Europa ist fast vorbei.

Schauen Sie sich an, wo Europas Erdgasspeicher heute stehen:

Das ist kaum zu glauben. In den Niederlanden und in Schweden liegt der Wert unter 10 %. Fast überall liegt er unter 50 %. Polen, wo der Winter eigentlich recht kalt war, weist einen höheren Wert auf als Gebiete, in denen der Winter mild war. Das stimmt, in weiten Teilen Europas war die Heizgradtag-Saison mild.

Der Winter in Frankreich war milder als normal, und die Zahlen sind auf 21 % gesunken.

Was wäre passiert, wenn wir einen Winter wie 2017–2018 gehabt hätten?

Oder die aufeinanderfolgenden Winter 2009–2010 und 2010–2011?

Hier ist ein Warnschuss angesichts des bevorstehenden starken El Niño. Das ist der Winter 1986–1987, der von einem ziemlich starken El Niño geprägt war:

Wenn uns also schon ein milder Winter an den Rand des Abgrunds gebracht hat, was wäre dann passiert, wenn es kalt gewesen wäre?

Dies entlarvt den Wahnsinn der europäischen Klimapolitik. Ich werde nicht jede einzelne dieser abwegigen Maßnahmen aufzählen, aber man muss schon völlig blind dafür sein, wozu das Wetter wirklich fähig ist, um solche Maßnahmen zu beschließen.

In gewisser Weise ähnelt dies der Art und Weise, wie die theokratischen Machthaber im Iran ihre Bevölkerung als Geiseln ihrer Ideologie halten. Jeden Winter werden die Europäer vom Wetter in Geiselhaft genommen – es sei denn, sie ändern ihren Kurs und hören auf, diesen vorgetäuschten Klimakrieg zu führen –, weil ihre Politiker den vom Menschen verursachten Klimawandel in etwas verwandelt haben, das einer Religion ähnelt. Es sind die Menschen, die darunter leiden werden, und ich glaube nicht, dass es ihren Politikern etwas ausmacht.

Aber wie kommt es dann, dass sie immer wieder gewählt werden? (Im Iran ist das offensichtlich nicht der Fall.) Die Öffentlichkeit wurde einer Gehirnwäsche unterzogen.

Dieser Winter sollte jedem vernünftigen Menschen als Weckruf dienen, dem die Weiterentwicklung seiner Gesellschaft am Herzen liegt. Schauen Sie sich noch einmal Polen an: Seine Politiker sind nicht die Narren, die so viele andere Länder zu regieren scheinen. In Polen ist von Natur aus kälter als Frankreich, und das Land erlebte einen kälteren Winter. Dennoch waren die Erdgasvorräte am Ende mehr als doppelt so hoch wie in Frankreich.

Es ist nur eine Frage der Zeit. Die wahre Katastrophe ist nicht das Klima selbst – es ist die Klimapolitik. Und das einzige vom Menschen verursachte Problem hier geht auf eine Gruppe von Spinnern zurück, die glauben, sie könnten das Wetter und das Klima kontrollieren.

[Hervorhebung vom Übersetzer]

Anmerkungen und Randbemerkungen:

Ich kenne den Grund nicht, obwohl ich versucht habe, Antworten zu finden, aber das Physical Science Lab führt keine Reanalysen mehr durch.

Hinweis zu den Daten: Die Produktion der NCEP/NCAR-Reanalyse 1 wurde eingestellt, das letzte Datum ist der 17. März 2025.

Ich befürchte, dass dies auf Budgetkürzungen zurückzuführen ist, und wenn dem so ist, ist das ein Teil dessen, was mir Sorge bereitet: dass wertvolle Daten und Forschungsquellen zu Kollateralschäden bei den Bemühungen werden, dem Klimawahn ein Ende zu setzen, von dem die NOAA besessen ist. Was möglicherweise passiert ist – und das weiß ich als Tatsache von Leuten aus der Forschung – ist, dass statt eines präzisen chirurgischen Instruments ein stumpfer Hammer geschwungen wurde. Der Grund für die Kürzungen war die Klimabesessenheit der NOAA, aber das Pendel, das dies korrigieren sollte, ist möglicherweise zu weit in die andere Richtung ausgeschlagen.

Eine wichtige Website, die ich nutze, um Muster zu analysieren und den Klimawahnsinn zu bekämpfen, wurde geschlossen. Ich hoffe, dass ich, falls ich bei der bevorstehenden CFACT/Heartland-Klimakonferenz auf einige hochrangige Vertreter der Regierung treffe, sie darauf aufmerksam machen und ihnen erklären kann, wie wertvoll diese Website ist.

Zu ihrer Rechtfertigung wurde mir diese Website geschickt:

https://nomads.ncep.noaa.gov/pub/data/nccf/com/cdas/

Und das habe ich nach dem Anklicken bekommen:

Forbidden

Sie haben keine Berechtigung, auf diese Ressource zuzugreifen.

Wenn man nicht jeden Tag das Wetter auf globaler Ebene vorhersagt – vor allem, wenn man wie ich die Nase voll hat vom Klimawahnsinn –, kann man meiner Meinung nach nicht wirklich erkennen, was wertvoll ist und was nicht. Da CFACT mir freundlicherweise eine Plattform bietet, wollte ich den Menschen zeigen, dass ein wertvolles Instrument zur Bekämpfung des Klimawahnsinns abgeschaltet wurde (und nicht mehr aktualisiert wird). Ich vermute, die Absicht war gut, aber das Ergebnis ist es nicht.

Link: https://www.cfact.org/2026/04/04/when-it-comes-to-climate-etc-is-europe-more-anchor-to-the-u-s-than-ally/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Ist Europa in Klima-Fragen (usw.) eher ein Hemmschuh für die USA als ein Verbündeter? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ Epoch Times

Fritz Vahrenholt: Die Bundesregierung verpulvert weitere Milliarden für die grüne Energiewende

veröffentlicht.
Vorschau ansehen In einem Gastkommentar spricht der ehemalige Hamburger Umweltsenator Prof. Fritz Vahrenholt unter anderem über steigende Temperaturen, mit denen steigende Ausgaben der Energiewende begründet werden. Dass der Umbau der Stromversorgung zu teuer geworden ist, hat auch Kanzler Merz erkannt - und lässt weiter machen.
(Auszug von RSS-Feed)

☐ ☆ ✇ Overton Magazin

Klimawandel – Warum wir nicht sterben werden!

veröffentlicht.
Vorschau ansehen

Was sollen eigentlich Klimawissenschaften sein? Und sind wir wirklich auf dem Weg in die Klimahölle?

Der Beitrag Klimawandel – Warum wir nicht sterben werden! erschien zuerst auf .

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Daten-Zentren, heiße Luft und die Neugestaltung des städtischen Wärmeinsel-Effektes

veröffentlicht.
Vorschau ansehen

Anthony Watts

Wenn Sie die rasante Ausweitung der KI-Infrastruktur verfolgt haben, sind Ihnen wahrscheinlich die jüngsten Behauptungen aufgefallen, wonach Rechenzentren mittlerweile eigene „Wärmeinseln“ erzeugen, die groß genug sind, um Hunderte Millionen Menschen zu betreffen. Diese Darstellung stammt aus einem aktuellen Arbeitspapier, das von Fortune in dem Artikel [Titel übersetzt] „Rechenzentren sind so heiß, dass ihr ‚Wärmeinseleffekt‘ die Temperaturen in einer Entfernung bis 10 km erhöht“ schnell aufgegriffen und verstärkt wurde. Darin werden die Ergebnisse so präsentiert, dass sie auf einen neuen und potenziell bedeutenden Umweltfaktor hindeuten, der aus der digitalen Wirtschaft hervorgeht.

Dem Artikel zufolge untersuchten Forscher weltweit mehr als 6.000 Rechenzentren und stellten fest, dass die durchschnittliche Bodentemperatur in den umliegenden Gebieten im Zeitraum von 2004 bis 2024 um etwa 2 °C gestiegen ist, wobei an einigen Standorten sogar Anstiege bis 9 °C verzeichnet worden sind. Der gemeldete Einfluss erstreckt sich etwa 10 km von den Anlagen nach außen, und in Kombination mit Bevölkerungskarten schätzen die Autoren, dass bis zu 343 Millionen Menschen betroffen sein könnten. Das sind große Zahlen, und ohne Kontext vermitteln sie den Eindruck eines weitreichenden und wachsenden Klimasignals, das direkt mit der KI-Infrastruktur verbunden ist.

Die zugrunde liegende Studie zeichnet jedoch ein differenzierteres Bild. Die wichtigste analysierte Variable ist nicht die Lufttemperatur im meteorologischen Sinne, sondern die aus Satellitenbeobachtungen abgeleitete Landtemperatur. Dieser Unterschied ist von Bedeutung, da die Landtemperatur äußerst empfindlich auf lokale Merkmale reagiert. Ersetzt man Vegetation durch Gebäude, Straßenbelag und Industrieanlagen, steigt die gemessene Temperatur, unabhängig davon, ob sich die zugrunde liegenden atmosphärischen Bedingungen wesentlich verändert haben.

Die Autoren versuchen, diesem Problem zu begegnen, indem sie sich auf Rechenzentren außerhalb dicht besiedelter städtischer Gebiete konzentrieren, vermutlich um den Einfluss der Anlagen selbst herauszurechnen. Sie verwenden MODIS-Daten der NASA mit einer Auflösung von etwa 500 Metern, aggregieren diese über einen bestimmten Zeitraum und berechnen die Temperaturunterschiede vor und nach der Inbetriebnahme an jedem Standort. Das Ergebnis ist das, was sie als „Daten-Heat-Island-Effekt“ bezeichnen, der durch einen durchschnittlichen Anstieg von etwa 2,07 °C auf Standortebene gekennzeichnet ist, wobei die Spanne von etwa 0,3 °C bis über 9 °C reicht.

Was sofort auffällt ist, dass das Ausmaß des berichteten Effekts mit bekannten Signalen für Landnutzungsänderungen übereinstimmt. In der Veröffentlichung selbst wird angemerkt, dass klassische städtische Wärmeinseleffekte typischerweise im Bereich von 4 bis 6 °C liegen, bedingt durch Faktoren wie reduzierte Vegetation, veränderte Albedo und konzentrierte menschliche Aktivitäten. In diesem Zusammenhang erscheint das beobachtete Signal rund um Rechenzentren weniger als ein neuartiges Phänomen, sondern eher als Teil der gleichen breiteren Kategorie von Landtransformationseffekten, die seit Jahrzehnten untersucht werden.

Die räumliche Analyse untermauert diese Interpretation. Die Studie zeigt, dass das Temperatursignal mit zunehmender Entfernung abnimmt, wobei es innerhalb von etwa 7 Kilometern auf rund 30 Prozent seines Höchstwerts sinkt und bei Entfernungen von etwa 4,5 Kilometern auf etwa 1 °C zurückgeht. Dieser Gradient lässt eher auf lokale Oberflächeneffekte als auf einen großräumigen atmosphärischen Einfluss schließen. Mit anderen Worten: Das beobachtete Phänomen verhält sich genau wie ein lokales Muster der Wärmespeicherung und -abgabe, das mit der physischen Spurenfläche der Infrastruktur zusammenhängt.

Hinzu kommt die Frage der Zuordnung, die, wie die Autoren selbst einräumen, mit großen Unsicherheiten behaftet ist. Selbst nach Ausschluss dicht besiedelter städtischer Gebiete ist es schwierig, Rechenzentren vollständig von anderen Aktivitäten in der Umgebung zu trennen, darunter industrielle Entwicklung, Verkehrsinfrastruktur und allgemeine Veränderungen der Landnutzung. Satellitengestützte Temperaturmessungen berücksichtigen all diese Einflüsse, was es schwierig macht, Kausalzusammenhänge mit hoher Sicherheit zuzuordnen.

Ein weiterer erwähnenswerter Punkt ist, dass sich die Studie auf den Zeitraum nach dem Bau und Betrieb der Anlagen konzentriert, der Bau selbst jedoch ein wesentlicher Treiber für Veränderungen der Landoberfläche ist. Die Rodung von Flächen, die Veränderung der Bodenbeschaffenheit und die Errichtung großflächiger Bauwerke verändern die thermischen Eigenschaften der Oberfläche. Einige in dem Fortune-Artikel zitierte Kritiker weisen darauf hin, dass ein erheblicher Teil des beobachteten Temperaturanstiegs lediglich diesen Übergang von natürlicher oder naturnaher Bodenbedeckung zu bebauter Umgebung reflektieren könnte.

Der Artikel wagt zudem weiter reichende Aussagen zu gesellschaftlichen Auswirkungen und legt nahe, dass der Daten-Wärmeinseleffekt das Sozialwesen, das Gesundheitswesen und die Energiesysteme beeinflussen könnte, wobei Parallelen zu städtischen Wärmeinseln gezogen werden. Das ist zwar im Allgemeinen plausibel, beruht jedoch auf der Annahme, dass sich die gemessenen Veränderungen der Landtemperatur direkt in spürbaren Auswirkungen auf die menschliche Umwelt niederschlagen. Dieser Zusammenhang wird in der Studie nicht nachgewiesen und bleibt eine offene Frage.

Das soll keineswegs bedeuten, dass Rechenzentren thermodynamisch unbedeutend sind. Sie verbrauchen große Mengen an Energie, erzeugen Abwärme und erfordern umfangreiche Kühlsysteme. Der Fortune-Artikel hebt hervor, dass manche Anlagen Strom in der Größenordnung von einem Gigawatt verbrauchen und mit erheblichem Wasserverbrauch sowie Lärmbelästigung verbunden sind. Dies sind reale technische und infrastrukturelle Überlegungen, insbesondere auf lokaler Ebene.

Doch der Übergang von diesen praktischen Gegebenheiten zu Behauptungen über weit verbreitete klimarelevante Wärmeinseln erfordert einen sorgfältigen Umgang mit Definitionen und Messungen. Die Oberflächentemperatur des Bodens ist nicht dasselbe wie die Lufttemperatur, lokale Wärmespeicherung ist nicht dasselbe wie regionale Klimabeeinflussung, und eine Korrelation mit den Standorten von Anlagen begründet keinen Kausalzusammenhang, solange Störfaktoren nicht ausgeschlossen sind.

Letztendlich scheint diese Studie ein bekanntes Phänomen unter einem neuen Begriff zu dokumentieren. Wenn man große, energieintensive Anlagen auf zuvor unbebautem Land errichtet, verändert man die thermischen Eigenschaften dieses Landes. Satelliten erfassen diese Veränderung. Es als „Daten-Wärmeinsel“ zu bezeichnen, mag eine nützliche Kurzformel sein, macht es jedoch nicht zu einer neuen Kategorie von Klimafaktoren.

Mit der sich weiter ausbreitenden KI-Infrastruktur wird es zweifellos mehr Studien geben, die versuchen, ihren ökologischen Fußabdruck zu quantifizieren. Die Herausforderung wird darin bestehen, messbare lokale Auswirkungen von pauschaleren Behauptungen zu unterscheiden, die weit über das hinausgehen, was die Daten belegen können. Diese Unterscheidung geht oft unter, sobald die Schlagzeilen die Oberhand gewinnen, doch sie bleibt von zentraler Bedeutung, wenn es darum geht zu verstehen, was tatsächlich geschieht, anstatt sich auf die reißerischsten Geschichten zu konzentrieren.

Link: https://wattsupwiththat.com/2026/04/04/data-centers-hot-air-and-the-reinvention-of-the-urban-heat-island/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Daten-Zentren, heiße Luft und die Neugestaltung des städtischen Wärmeinsel-Effektes erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Warum Wettervorhersage-Modelle richtig gut geworden sind – Klimavorhersage-Modelle aber nicht

veröffentlicht.
Vorschau ansehen

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Großartiges Video von Peter Ridd:

 

Hier das mit KI formatierte Transskript:

Computermodelle zur Vorhersage von Wetter und Klima ähneln sich eigentlich ziemlich stark. Sie basieren auf grundlegenden physikalischen Prinzipien – den Bewegungsgesetzen, Newton’schen Bewegungsgesetzen, Thermodynamik, Strahlungstransport – und benötigen einen sehr leistungsstarken Computer.

Und der Wettermann bekommt oft viel Kritik für Vorhersagen, die nicht immer zutreffen. Das ist meiner Meinung nach sehr unfair, denn die Modelle sind eigentlich hervorragend, und es besteht kein Zweifel daran, dass sie sich in den letzten Jahrzehnten enorm verbessert haben.

[Siehe hierzu meine Anmerkung am Ende. A. d. Übers.]

Aber Klimamodelle? Nicht so sehr.

Nun lebe ich in einer Gegend, in der wir jedes Jahr ein paar Zyklone meistern müssen, und ich finde es unglaublich, wie gut zum Beispiel der Wetterdienst die zukünftigen Zugbahnen dieser Zyklone vorhersagt. Beim tropischen Zyklon Narelle haben sie zum Beispiel hervorragende Arbeit geleistet. Sie sagten voraus, er würde über die Kap-York-Halbinsel hinweg ins Northern Territory ziehen. Und genau das ist auch passiert. Ich erinnere mich an eine Zeit, als diese Vorhersagen so gut wie nutzlos waren – wenn es einen Zyklon im Korallenmeer gab, lauteten die Vorhersagen im Grunde genommen, dass er überall hinziehen könnte.

Schauen wir uns also einmal an, warum die Wettervorhersagen in den letzten Jahrzehnten so viel besser geworden sind. Es gibt vier Gründe, und wir werden uns nur auf einen konzentrieren.

Erstens haben wir die physikalischen Vorgänge in der Atmosphäre besser im Griff. Es ist nicht viel besser, und eigentlich ist es auch keine große Sache. Der zweite Punkt ist, dass wir viel leistungsfähigere Computer haben, und das macht einen Unterschied. Der dritte Grund, und der wird jetzt langsam wichtig ist, dass wir heute riesige Datenmengen aus der jüngeren Vergangenheit haben und fortschrittliche statistische Verfahren nutzen können – KI, wenn man so will –, um die Vorhersagen zu unterstützen. Genauso wie ChatGPT auf alles trainiert wird, was jemals im Internet geschrieben worden ist, um eine Antwort auf eine Frage zu geben, die einigermaßen plausibel klingt, lässt sich das Gleiche auch beim Wetter tun. Man nutzt die Daten aus der Vergangenheit, um herauszufinden, was passieren würde, wenn die Bedingungen damals mehr oder weniger denen von heute ähnelten.

Der vierte Grund ist jedoch sehr, sehr wichtig, und darauf werden wir uns heute konzentrieren. Und es ist etwas, das nicht allgemein bekannt ist: Wir können die Atmosphäre mittlerweile viel genauer messen, manchmal sogar auf überraschende Weise.

Es hat sich herausgestellt, dass es für eine Wettervorhersage für morgen sehr hilfreich ist, wenn man – überall – genau weiß, wie das Wetter heute ist.

Um das zu verstehen, müssen wir uns nun genauer ansehen, wie Wetter- und Klimamodelle funktionieren, inwiefern sie sich ähneln und worin sie sich unterscheiden.

Die großen physikalischen Berechnungen stützen sich also auf die Gesetze der Thermodynamik – darüber, wie sich Luft ausdehnt, erwärmt, abkühlt und wie sich Wasserdampf bildet – und dafür gibt es jede Menge wirklich schöne mathematische Gleichungen. Einige sind sehr genau. Andere, etwa die zu Wolken, sind eigentlich ziemlich kompliziert – im Grunde nur fundierte Vermutungen. Dann gibt es noch die Physik der gesamten Strahlung: die einfallende Sonnenstrahlung, die Infrarotstrahlung, die vom Boden, von den Wolken und sogar von der Luft selbst ausgeht.

Diese basieren auf einem großen Modell, das Newtons Bewegungsgesetze nutzt – der gute alte Newton –, um zu berechnen, wie sich die Luft bewegt: der Wind, die vertikalen Bewegungen und was diese Luft mit sich führt – die Luftfeuchtigkeit, ihren Impuls, ihre kinetische Energie. Mit Newtons zweitem Gesetz lässt sich berechnen, wie diese Luft beschleunigt. Das ist das A in F = MA – im Grunde genommen, wie sie ihre Geschwindigkeit oder Richtung ändert.

Aber wir müssen die Masse der Luft kennen, und das ist nicht allzu schwer. Wir teilen einfach die gesamte Atmosphäre in viele kleine Abschnitte auf, die jeweils einige Kilometer breit und etwa einen Kilometer hoch sind. Dann müssen wir F kennen, also die Kraft, die auf die Luft wirkt. Viele Faktoren tragen dazu bei: der Luftdruck, die Erdrotation, die Luftdichte. Anschließend berechnen wir die Beschleunigung, also die Änderung der Geschwindigkeit oder Richtung, über einen bestimmten Zeitraum.

Wir können das mit den Berechnungen für ein beschleunigendes Auto vergleichen. Man hat einen Motor, der die Kraft erzeugt, und nehmen wir an, das Auto beschleunigt um 20 km/h pro Sekunde – oder zumindest wird es jede Sekunde um 20 km/h schneller. So können wir berechnen, wie schnell es beispielsweise in fünf Sekunden fahren wird. Fünf mal 20 ist 100 – wir werden 100 km/h schneller fahren als zu Beginn.

Aber hier ist der entscheidende Punkt: Um zu wissen, wie schnell wir in fünf Sekunden fahren werden, muss man wissen, wie schnell man zu Beginn gefahren ist. Wenn wir an der Ampel stillstanden, fahren wir in fünf Sekunden 100 km/h. Wenn wir jedoch bereits 60 km/h fuhren, als wir das Gaspedal durchdrückten, fahren wir nun 60 plus 100 – also 160 km/h – in fünf Sekunden.

Man muss die Anfangsbedingungen kennen, um herauszufinden, wie schnell man am Ende sein wird. Die Anfangsbedingung ist der Fachbegriff aus der Differentialgleichung, auf der das alles basiert, und das gilt auch für das Wetter. Man kann die Windgeschwindigkeit oder -richtung von morgen nicht berechnen, wenn man nicht weiß, wie hoch die Windgeschwindigkeit und -richtung heute sind. Und es geht nicht nur um den Wind – es geht auch um den Luftdruck und die Luftfeuchtigkeit.

Nun, beim Wetter ist es wie bei vielen anderen Systemen auch: Wenn man die Anfangsbedingungen falsch angibt, kann das Endergebnis völlig anders ausfallen, selbst wenn man sich bei der Anfangsbedingung nur um ein winziges bisschen irrt. Diese hier herumrollenden Kugeln beispielsweise starteten aus einer nur ganz leicht unterschiedlichen Position, und nach kurzer Zeit befinden sie sich an einer völlig anderen Stelle. Das ist ein klassisches Beispiel für ein zusammengesetztes Pendel – die beiden Pendel starteten an ganz leicht unterschiedlichen Positionen, aber wenn man die Zeit voranschreitet, sind sie schließlich nicht mehr annähernd an derselben Position. Und genau so ist es auch mit dem Wetter. Wenn man die Anfangsbedingungen falsch einschätzt, kann man in ein, zwei oder drei Wochen unmöglich eine genaue Wettervorhersage haben.

Wie hat sich also unsere Fähigkeit, das Wetter zu messen, so sehr verbessert?

Erstens können Satelliten zwar Wolken erkennen, aber das ist erst der Anfang. Sie können tatsächlich die von der Luft selbst ausgehende Mikrowellen- und Infrarotstrahlung überwachen und messen, um ein Profil der Lufttemperatur und der Luftfeuchtigkeit von der Obergrenze der Atmosphäre bis hinunter zur Erdoberfläche zu erstellen. Zwar wird nach wie vor das alte Verfahren angewendet, bei dem Ballons mit Feuchtigkeits- und Temperatursensoren aufsteigen gelassen werden, doch ist dies nur an wenigen Orten möglich. Wenn das Amt dies also tut, wie Sie auf dieser Karte sehen können, sind es nicht sehr viele Orte, und mitten auf dem Ozean ist dies nicht möglich.

Aber hier ist etwas, das ich sehr interessant fand – eine Messmethode, die wir tatsächlich nutzen können: das GPS-System – das gleiche, das ihr mit eurem Handy nutzt, um euren Standort zu bestimmen. Es stellt sich heraus, dass es zur Überwachung der Luftfeuchtigkeit eingesetzt werden kann. Beim GPS-System werden Signale vom Satelliten zu Bodenstationen gesendet, und anhand der Zeit, die diese Signale benötigen, wird euer Standort ermittelt. Die Laufzeit dieser Signale hängt jedoch von der Luftfeuchtigkeit ab. So lassen sich ziemlich raffinierte Berechnungen anstellen und die Atmosphäre tatsächlich mit dem GPS-Signal untersuchen.

Was Sie hier also gerade sehen, ist nichts Geringeres als eine Revolution in der Art und Weise, wie wir das Wetter messen können. Wenn man das Wetter von heute kennt, kann man viel genauer vorhersagen, wie das Wetter morgen sein wird.

Schauen wir uns nun die Klimamodelle an. In vielerlei Hinsicht ähneln sie sich, aber das Klima ist gewissermaßen ein Durchschnitt der Wetterbedingungen, und diesen Durchschnitt bilden wir oft über einen Zeitraum von beispielsweise 30 Jahren. In einem Wettermodell berechnen wir die Veränderungen des Wetters und addieren oder subtrahieren diese von den heutigen Bedingungen. Bei Klimamodellen versuchen wir, anstatt Veränderungen im Laufe der Zeit zu berechnen, die durchschnittlichen Bedingungen über einen langen Zeitraum zu ermitteln.

Und es ist tatsächlich ziemlich interessant, dass selbst hier die aktuellen Klimamodelle oft von den großen, berühmten Klimamodellen falsch vorhergesagt werden – sie weichen also um bis zu einige Grad voneinander ab. Ich habe dazu ein Video gedreht.

Nun, vielleicht spielt das keine allzu große Rolle, denn was wir wirklich wissen wollen ist, wie sich das Klima verändern wird, wenn man beispielsweise die Kohlendioxidmenge oder einen anderen Parameter verdoppelt. So führen Modellierer oft interessante Simulationen durch, bei denen sie die Sonneneinstrahlung reduzieren oder sogar die Position der Kontinente und Ozeane verändern, um vergangene Klimata zu simulieren.

Das ist also ein wichtiger Unterschied: Wettermodelle berechnen die Wetterveränderung ausgehend vom heutigen Wetter und simulieren so das Wetter für morgen. Klimamodelle gehen in der Regel von einem groben Klimazustand aus und berechnen die Klimaveränderungen, wenn wir einen wichtigen Parameter verändern, wie zum Beispiel die Kohlendioxidkonzentration.

Verdopplung der Klimamodelle – Klimamodelle benötigen keine hochgenauen Messungen des heutigen Klimas, um die Veränderungen zu berechnen, wenn man beispielsweise die Kohlendioxidkonzentration verdoppelt. Wettermodelle hingegen benötigen sehr genaue Messungen des heutigen Wetters, um das Wetter in einer Woche oder einem Tag in der Zukunft zu berechnen.

Das bedeutet also, dass die Wettermodelle massiv von all den zusätzlichen Messungen profitiert haben, die Klimamodelle jedoch nicht – die zusätzlichen Daten, die wir für das heutige Wetter haben, helfen uns nicht dabei, das Wetter in 100 Jahren zu berechnen. Klimamodelle profitieren also nicht von dieser Revolution.

Was ist also die Moral der Geschichte? Man sollte den Wettermann nicht ständig kritisieren. Er leistet tatsächlich unglaublich gute Arbeit. Und dasselbe gilt für all die Techniker, die die Satellitenüberwachungssysteme, die GPS-Systeme und die statistischen Verfahren entwickelt haben – sie haben eine Revolution ausgelöst.

Was nun die Klimamodelle angeht – nun, sind sie tatsächlich besser bei der Vorhersage als eine einfache Überschlagsrechnung? Man kann eine sehr einfache Berechnung durchführen und erhält am Ende eine Zahl, die den Ergebnissen dieser riesigen Supercomputer sehr ähnlich ist. Und sagen die Modelle wirklich eine Katastrophe voraus? Und weisen die Modelle Diskrepanzen untereinander auf – große Diskrepanzen? Und haben wir ein grundlegendes Problem, dass wir erst 2050 oder 2100 sagen können, ob sie richtig oder falsch liegen, wenn es dann vielleicht schon viel zu spät ist, weil wir den Bogen überspannt haben – oder vielleicht erkennen wir, dass sie alle falsch lagen?

Meine Güte, sehen Sie mal auf die Uhr. Das müssen wir an einem anderen Tag machen.

Link: https://wattsupwiththat.com/2026/04/04/why-weather-prediction-got-brilliant-but-not-climate-predictions/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Bei den WETTER-Vorhersagemodellen (72 bis max, 168 Std. im Voraus, danach zeigen sie mehr oder weniger nur noch statistisches Rauschen) muss man unterscheiden zwischen den Basisfeldern und der Modell-eigenen Interpretation. Basisfelder sind die Verteilung von Druck, Feuchtigkeit und Temperatur in allen Schichten der Atmosphäre, so wie von Ridd beschrieben. Die Modell-eigene Interpretation interpretiert dann das Wetter, welches aus der Anordnung dieser Basisfelder folgt, also z. B. Niederschlagsmenge und -zeit, Sonnenscheindauer, Höchst- und Tiefsttemperaturen usw. Nichts Anderes machen auch die sog. „Wetter-Apps“. Die Erfahrung des Prognostikers dazu: Die Simulation der Basisfelder ist für 72 Stunden im Voraus fast perfekt, wie auch der Vergleich verschiedener Modellläufe (GFS, EZMW usw.) zeigt. Die Modell-eigene Interpretation ist es jedoch nicht, und hier kann ein erfahrener Prognostiker durchaus noch Verbesserungen des Modells erreichen. Es kommt nämlich immer wieder vor, dass verschiedene Modelle bei fast identisch simulierten Basisfeldern nach 72 Std. z. B. völlig unterschiedliche Niederschlagsmengen simulieren.

Nichts dergleichen gilt für Klima-Modelle.

Der Beitrag Warum Wettervorhersage-Modelle richtig gut geworden sind – Klimavorhersage-Modelle aber nicht erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ Journalistenwatch

Klima-Irre verursachten fast 150.000 Euro Schaden bei Hamburger Flughafenblockade – Linke Kuscheljustiz spricht nur Verwarnung aus

veröffentlicht.
Vorschau ansehen Die deutsche Rechtsgeschichte ist um ein bizarres Urteil reicher, das abermals bestätigt, nach welchen grotesken Maßstäben in diesem Land vielerorts verfahren wird. Das Amtsgericht in Hamburg sprach einen 21-jährigen Studenten wegen Störung öffentlicher Betriebe, Widerstands gegen Vollstreckungsbeamte, Sachbeschädigung und Hausfriedensbruchs nach Jugendstrafrecht schuldig, weil er -gemeinsam mit neun weiteren Klimairren der „Letzten Generation“- an der […]
(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Der Skandal um die schottische Wetterstation, die auch sechs Jahrzehnte nach ihrer Schließung noch Temperaturdaten liefert

veröffentlicht.
Vorschau ansehen

Chris Morrison, THE DAILY SCEPTIC

Ein weiteres schockierendes Beispiel für jahrzehntelang erfundene Temperaturwerte an nicht existierenden Messstationen des britischen Wetterdienstes (UK Met Office) ist ans Licht gekommen. Die „Station“ Lephinmore befand sich am Oberlauf des Firth of Clyde und kann laut der Met-Office-Datenbank „Standortspezifische Langzeitdurchschnitte“ monatliche Temperaturwerte sowie Niederschlagsmengen bis zurück ins Jahr 1960 liefern. Diese Datenlieferung kann als modernes wissenschaftliches Wunder angesehen werden, da die eigentliche Station fünf Monate vor dem Weltmeistertitel Englands im Jahr 1966 geschlossen worden war.

Wenn das Met Office gebeten wird, weitere und genauere Angaben zu seinen Erfindungstechniken zu machen, lautet die übliche Erklärung, dass Zahlenreihen von „gut korrelierten benachbarten Stationen“ per Computer modelliert werden. Im Fall der ortsspezifischen Station Lephinmore gibt es jedoch gar keine benachbarten Stationen, weder gut korrelierte noch sonstige.

Die drei nächstgelegenen Stationen mit Langzeitaufzeichnungen sind die CIMO-Klasse-4-„Junk“-Station Dunstaffnage in 43 km Entfernung, die Klasse-4-Station Glasgow Bishopton in 47 km Entfernung und der Klasse-4-Flughafenstandort Prestwick Gannet in 72 km Entfernung. Eine Station namens „Bute: Rothesay“ soll 29 km entfernt sein, wurde jedoch vor einiger Zeit geschlossen. Eine neue Station „Bute: Rothesay No 2“ wurde 2012 eröffnet und gehört ebenfalls zum „Junk“-Portfolio der Klasse 4. Die beträchtlichen Entfernungen und der „Junk“-Charakter aller Standorte mit international anerkannten Unsicherheiten bis zu 2 °C scheinen eine gute Korrelation sowohl für eine einzelne „Station“ als auch für eine gefälschte „standortspezifische“ Behauptung auszuschließen.

Um es ganz offen zu sagen: Die Vorstellung, dass ein Flughafenstandort wissenschaftliche Informationen über die voraussichtlichen Temperatur- und Niederschlagsbedingungen an einem 72 km entfernten ländlichen Ort liefern kann, ist geradezu lächerlich. Ein Standort der Klasse 4 ist nicht in der Lage, die tatsächliche Umgebungstemperatur in seiner unmittelbaren Umgebung zu ermitteln, geschweige denn in einer Entfernung von mehreren Dutzend Kilometern.

Genau das wird in der öffentlich zugänglichen Datenbank des Met Office mit den „standortspezifischen Langzeitdurchschnittswerten“ für Lephinmore behauptet. Es stehen zwei Optionen zur Verfügung, um die 30-jährigen monatlichen Durchschnittswerte von 1961–1990 und 1991–2020 zu verfolgen. Wie bereits erwähnt, ist es wahrlich ein Wunder der modernen Meteorologie, dass man aus so großer Entfernung Durchschnittswerte für Höchst- und Tiefsttemperaturen auf ein Hundertstel Grad Celsius genau berechnen kann. Und lokale Niederschlagsmengen auf zwei Dezimalstellen genau. Was für eine Präzision!

Der Bürgerdetektiv Ray Sanders hat im Rahmen seiner forensischen Untersuchung der Unterlagen und Behauptungen des Met Office diesen Fall sowie viele andere „eindeutige Beweise“ aufgedeckt. Außerdem legte er einen Nachweis über die Schließung von Lephinmore am 15. Februar 1966 vor.

Nachdem er sich über ein Jahr lang intensiv mit dem Zustand des Temperaturmessnetzes des Met Office auseinandergesetzt hatte, den von diesem erstellten Statistiken und den Modellen, die Unmengen erfundener Daten liefern, ist Sanders nicht geneigt, Nachsicht zu üben. „Eine alternative Sichtweise auf dieses System der Klimamittelwertbildung ist, dass es sich um reine Fiktion handelt … es ist eine Beleidigung der Intelligenz der Öffentlichkeit und zeugt von einer völligen Missachtung selbst des kleinsten Anflugs wissenschaftlicher Glaubwürdigkeit“, meint er. Es versteht sich von selbst, dass das Met Office einen anderen Standpunkt vertritt und den Untersuchungsbemühungen einer kleinen Gruppe von Menschen vorwirft, sie seien „ein Versuch, jahrzehntelange solide wissenschaftliche Erkenntnisse über den Klimawandel weltweit zu untergraben“. Leider scheint das Met Office in der von „Net Zero“ inspirierten Welt der „gesicherten“ Klimawissenschaft zu leben. Es scheint sich in seliger Unkenntnis darüber zu befinden, dass Wissenschaft in der realen Welt nur dann „solide“ ist, wenn sie einer unerbittlichen und forensischen Prüfung unbeschadet standhält.

Die Datenbank mit den „standortspezifischen Langzeitdurchschnitten“ hieß bis vor kurzem noch „UK Climate Averages“. Sie lud die Öffentlichkeit dazu ein, eine einzelne Wetterstation auszuwählen, um einen 30-Jahres-Durchschnitt für diesen Standort zu erhalten. Sanders deckte jedoch auf, dass mehr als ein Drittel – 103 von 302 – der beworbenen Stationen, komplett mit ihren angeblichen Koordinaten und Höhenangaben, gar nicht existierten. Daraufhin folgte eine hastige Überarbeitung durch das Met Office, in der erklärt wurde, dass die erfundenen Daten von „Standorten“ stammten, die möglicherweise einen Bezug zu Stationen hatten, die einst existierten oder heute tatsächlich existieren – oder auch nicht. Trotzdem erscheinen die Daten, wie das obige Bild für Lephinmore zeigt, weiterhin für eine namentlich genannte „Station“.

Ein anschließender „Faktencheck“ von Science Feedback, der offenbar größtenteils vom Met Office verfasst worden war besagte, dass die Durchschnittsdaten für die stillgelegten Stationen nicht „erfunden“ worden seien, sondern anhand von „gut korrelierten benachbarten Stationen“ geschätzt worden seien. Das ist zwar eine Erklärung für die Erfindungen, doch wie wir am Beispiel von Lephinmore sehen können, wirft das Fehlen von Stationen in der Nähe – ob gut korreliert oder nicht – noch mehr Fragen auf.

Anschließend sorgten „kritische“ Fragen der wenigen Anwesenden im Fall von Lowestoft für Aufruhr. Diese Messstation war eine von nur 37, die Daten für eine separate „historische“ Datenbank lieferten, wurde jedoch 2010 geschlossen. Lowestoft hat keine gut korrelierten Stationen in der Nähe – die nächsten sind über 56 km entfernt –, eine Tatsache, die durch eine Anfrage nach dem Informationsfreiheitsgesetz (FOI) von Daily Sceptic bestätigt worden ist. Für Lowestoft behauptete das Met Office daraufhin, dass es keine „gut korrelierten benachbarten Stationen“ verwendet habe, und lieferte eine andere Erklärung: „Wir haben den Rasterwert des nächstgelegenen Rasterpunkts aus unserem britischen Klimadatensatz HADUK-Grid verwendet.“ Doch diese Erklärung scheint den neugierigen – wenn nicht gar zynischen – Ermittler nicht sonderlich weit zu bringen, da das HADUK-Grid Daten von „gut korrelierten benachbarten Stationen“ nutzt, die aus dem Integrated Data Archive System (MIDAS) des Met Office stammen, um Lückendaten für geschlossene Stationen zu modellieren.

Was auch immer vor sich geht, das Met Office hat die erfundenen Daten von Lowestoft aus dem Jahr 2010 entfernt. Gott bewahre, dass jemand glauben könnte, diese Station – als „gut korrelierte Nachbarstation“ zur Datenergänzung oder eben nicht – würde gefälschte Zahlen über Datenbanken mit modellierten Temperaturangaben verbreiten und dabei die „Aufzeichnungen“ verfälschen. Passenderweise wurde damals der öffentlichen Erklärung zur historischen Datenbank eine kurze Anmerkung hinzugefügt, die lautete: „Der Zweck dieser Webseite ist es, eine Auswahl historischer Stationsdaten aus ganz Großbritannien für allgemeines Interesse bereitzustellen. Sie wird nicht für die formelle Klimaüberwachung verwendet.“

Unterdessen kommen Zweifel an einigen der Niederschlagsangaben des Met Office auf, die ausnahmslos dazu dienen, die „Netto-Null“-Fantasie zu propagieren. Die jüngste Behauptung, Worcestershire habe den regenreichsten Februar seit Beginn der Aufzeichnungen im Jahr 1835 verzeichnet, wurde vom bekannten, langjährigen Klimaskeptiker Paul Homewood nach Informationsfreiheitsanfragen wirksam widerlegt. Er fand in historischen Aufzeichnungen überzeugende Belege dafür, dass in diesem Gebiet im Februar 1923 mehr Regen fiel. „Wird das britische Wetter wirklich feuchter, wie sie behaupten? Oder ist das nur ein Hirngespinst ihrer Computer?“, fragt er.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2026/04/03/the-scandal-of-the-scottish-met-office-station-still-providing-temperature-figures-six-decades-after-it-closed/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Der Skandal um die schottische Wetterstation, die auch sechs Jahrzehnte nach ihrer Schließung noch Temperaturdaten liefert erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ apolut

Es ist auffallend still im Land der Widersprüche | Von Janine Beicht

veröffentlicht.
Vorschau ansehen
Es ist auffallend still im Land der Widersprüche | Von Janine Beicht
Tagesdosis 20260409 apolut
0:00
/1459.290188
Es ist auffallend still im Land der Widersprüche | Von Janine Beicht

Die Ruhe im Widerspruch: Wie Deutschland lernt, mit offensichtlichen Fehlentwicklungen zu leben

Die Diskrepanz zwischen Anspruch und Ergebnis und Realität wird immer greifbarer. Steigende Belastungen treffen auf eine Politik, die ihren Kurs nicht verändert und bestehende Probleme weiter verschärft. Die ausbleibende Gegenreaktion verleiht dieser Entwicklung eine fast irritierende Stabilität.

Ein Kommentar von Janine Beicht.

Deutschland ist ein Land, das sich selbst gern erklärt, und zwar mit einer Ausdauer, die beinahe bewundernswert wäre, wenn sie nicht so häufig die Realität übertönen würde. Die Bevölkerung bewältigt ihren Alltag unter zunehmend belastenden Bedingungen, während parallel eine Politik betrieben wird, die weniger an der Behebung realer Probleme interessiert ist als an deren rhetorischer Umlackierung, so lange, bis sich selbst Verschlechterungen als Fortschritt verkaufen lassen.

Dieses Land ist zur Bananenrepublik transformiert worden. Das ist kein Ausrutscher. Es ist System. Die irrsinnigsten Debatten in den Talkshows laufen in Endlosschleife, und die Widersprüche stapeln sich so hoch, dass sie offenbar für alle die Sicht versperren. Die Politiker der staatlichen Lenkung reagieren auf jede Krise mit derselben Mischung aus Symbolhandlungen, moralischen Appellen und ideologischer Starrheit. Sie erinnern dabei weniger an pragmatische Gestalter einer modernen Volkswirtschaft als an die Funktionäre einer vergangenen Epoche, in der die Planwirtschaft der DDR die Wirklichkeit mit ideologischen Parolen übermalte. Pressekonferenzen, Gipfel, Strategiepapiere und Aktionspläne. Es ist eine unendliche Liturgie politischer Selbstvergewisserung entstanden. Damals wie heute wird das System nicht angepasst, sondern die Gesellschaft soll sich anpassen. Die Energiekrise, die geopolitischen Verwerfungen, die wirtschaftliche Schrumpfung und die demografische Zeitbombe werden nicht gelöst, sondern individualisiert, moralisiert und mit weiteren Regulierungen verschlimmbessert.

Und doch liegt über diesem Land eine eigentümliche Ruhe. Nicht die gute, sondern diese seltsam abgeklärte, die entsteht, wenn Anspruch und Wirklichkeit sich so selten begegnen, dass ein Zusammentreffen schon als Ereignis gelten würde, und man sich irgendwann fragt, wer eigentlich beschlossen hat, dass das alles völlig normal ist.

Der Markt eskaliert - Berlin meditiert

Die Ruhe bleibt stabil. Einzig die Preise machen konsequent nicht mit. Vor allem an der Zapfsäule herrscht inzwischen eine gewisse Form von Raketenwissenschaft: Die Spritpreise steigen schneller, als jede politische Erklärung hinterherkommt. Offiziell liegt das an geopolitischen Spannungen im Nahen Osten, Stichwort Iran. Inoffiziell hilft Deutschland aber auch fleißig mit und packt rund 60 Prozent Steuern obendrauf (1), weil Explosionen offenbar erst richtig wirken, wenn der Staat sie zusätzlich begleitet. Zeitgleich warnt die Wirtschaft seit Monaten (2) vor dem großen energetischen Nervenzusammenbruch.

Die politische Reaktion darauf erinnert an einen morgendlichen Stuhlkreis, in dem man sich darauf verständigt, dass Probleme zwar existieren, aber bitte nicht so laut: Tankstellen dürfen Preise nur noch einmal täglich erhöhen (3), als ob der globale Ölmarkt sich künftig höflich an deutsche Bürozeiten hält. Parallel dazu feiert das Thema des Tempolimits (4) ein Comeback, begleitet von Appellen, doch bitte alle ein bisschen weniger zu fahren (5) zu verbrauchen und im Idealfall einfach zu existieren. Das eigentlich Bemerkenswerte ist die intellektuelle Verrenkung dahinter: Eine globale Angebotskrise wird zur moralischen Frage des individuellen Verhaltens umetikettiert. Der Bürger soll’s wieder einmal richten, mit kürzeren Wegen, Verzicht und schlechtem Gewissen an der Kasse.

Die strukturellen und politisch hausgemachten Ursachen hingegen bleiben unberührt wie der Elefant im Raum, der inzwischen offensichtlich als Teil der Einrichtung durchgeht:

Die selbstverschuldete Abhängigkeit von fragilen Importen (6), energiepolitische Selbstbeschränkung und eine bemerkenswerte Abneigung gegen alles, was zuverlässig Strom liefert, ergänzt durch die fast schon absurde Parallelhandlung, dass vor der eigenen Küste durchaus nutzbare Ressourcen liegen (7), die man politisch lieber ignoriert, während man gleichzeitig funktionierende Kernkraftwerke abschaltet und teilweise irreversibel zurückbaut (8). Wind und Sonne liefern nicht nach Bedarf, sondern nach Wetterlage.

Das ist eigentlich kein Geheimnis, das ist Grundwissen der Energietechnik. Und dennoch wurde genau auf dieser Basis ein System konstruiert, das so tut, als ließe sich diese physikalische Realität politisch überlisten. Und als wäre das noch nicht widersprüchlich genug, fließen indirekt auch noch Mittel und industriepolitische Kooperationen in globale Lieferketten, in denen andernorts, etwa in China (9), weiterhin massiv auf Kohlekraft gesetzt und deren Ausbau sogar staatlich gefördert wird. Mit anderen Worten, man verzichtet im Inland auf stabile Energiequellen, erklärt sich moralisch zur Vorreiter-Nation (der erwartungsgemäß niemand folgt) und lagert die weniger eleganten Teile der Energieerzeugung gleich mit aus (9). Effizienz durch Verlagerung oder, weniger freundlich formuliert, man macht sich abhängig, verzichtet freiwillig auf eigene Optionen und wundert sich anschließend über die Rechnung. 

In der DDR war Energie ebenfalls knapp. Nicht, weil sie fehlte, sondern weil das System sie nicht effizient bereitstellen konnte (11). Die Antwort war nicht Reform, sondern Appell. Sparsamkeit wurde zur Tugend erklärt, Mangel zur Normalität (12). Der Unterschied zu heute liegt weniger im Mechanismus als im Narrativ. Heute spricht man von Transformation, damals von Planerfüllung. Das Ergebnis bleibt erstaunlich ähnlich, die Realität wird nicht angepasst, sie wird erklärt. In Berlin scheint man tatsächlich der Überzeugung zu sein, dass sich ein globaler Markt durch die deutschen Verhaltensregeln disziplinieren lässt, eine Art links-pädagogischer Ansatz für Rohstoffe. Gerettet wird hier vor allem die Illusion, während die Industrie verschwindet und die Bevölkerung zuverlässig in den Zustand chronischer Zahlungsbereitschaft überführt wird. (Bis kein Geld mehr vorhanden ist?) 

Wer nichts mehr produziert, kann auch nichts falsch machen

Die deutsche Wirtschaft sendet seit Monaten Signale, die so deutlich sind, dass man sie eigentlich nur noch ignorieren kann, wenn man es bewusst will, denn Produktionsrückgänge, sinkende Auftragseingänge, Investitionszurückhaltung und die Verlagerung ganzer Kapazitäten ins Ausland sprechen eine klare Sprache, die sich real betrachtet eigentlich nicht mehr schönreden lässt, es sei denn, man hält sich die Ohren zu und singt laut das neueste sozialistische Transformationslied aus dem Wirtschaftsministerium.

Wenn ein Konzern wie BASF beginnt, zentrale Teile seiner Produktion außerhalb Deutschlands auszubauen (14), dann ist das keine Laune eines Vorstands, der plötzlich Fernweh hat, sondern das Ergebnis einer nüchternen Kostenrechnung, bei der die Energiepreise einfach zu hoch, die Regulierung zu dicht und die Planungssicherheit zu gering geworden sind, um hierzulande noch langfristig wettbewerbsfähig zu bleiben, ohne dass man am Ende selbst für die eigene Stromrechnung betteln muss. Gleichzeitig trifft es längst nicht mehr nur die Schwerindustrie, sondern zunehmend auch das industrielle Herzstück des Landes, die Automobilbranche, wo große Namen wie Porsche (15) und Mercedes (16) Gewinneinbrüche melden, und das nicht, weil plötzlich niemand mehr Autos kaufen will, sondern weil das gesamte Geschäftsmodell politisch so umgebaut wurde wie ein Fahrzeug, bei dem man den Tank entfernt und gleichzeitig höhere Reichweiten verspricht. Die forcierte Elektromobilität (17) ist kein Ergebnis organischer Nachfrageentwicklung aus der Ökonomie heraus, sondern das direkte Resultat politischer Vorgaben, regulatorischer Zwänge und massiver Subventionen, die einen Technologiewechsel erzwingen sollen, unabhängig davon, ob der Markt ihn in diesem Tempo und zu diesen Kosten tatsächlich trägt.

Produktionsentscheidungen folgen damit nicht mehr primär der Nachfrage der Kunden, sondern politischen Zielbildern. Es wird nicht mehr produziert, was sich verkauft, sondern was verkauft werden soll, weil die Klimahysteriker jede Abweichung als rückwärtsgewandte Klimaleugnerbrandmarkung abtun und den Staat zum obersten Dirigenten des technologischen Fortschritts erklären, der mit dem Taktstock wedelt und „Schneller, grüner, teurer!“ ruft. Genau hier beginnt der Moment, in dem aus Marktwirtschaft eine Art betreutes Wirtschaften wird, das sich weiterhin Wettbewerb nennt, aber nur noch innerhalb enger Leitplanken stattfindet, als hätte man den Markt nicht reguliert, sondern domestiziert.

Gefordert wird dennoch eine Wirtschaft, die gleichzeitig robust, flexibel, innovativ und hochproduktiv ist (18), während man die Parameter real so setzt, dass genau diese Eigenschaften immer schwerer entstehen können. Das hat weniger von Strategie als mehr von einer Versuchsanordnung, bei der das Scheitern bereits einkalkuliert ist.

Das ist kein bloßer Zielkonflikt mehr, das ist ein offener, systemischer Widerspruch, denn wirtschaftliche Logik ist simpel: Wer höhere Kosten hat als seine internationale Konkurrenz, der verliert, wer keine Planungssicherheit hat, der investiert nicht, und wer beides gleichzeitig erlebt, der zieht sich zurück oder verlagert, und zwar nicht einfach nur ins schöne Sachsen, sondern gleich nach China oder in die USA, wo man offenbar noch nicht ganz so weit ist mit der grünen Erleuchtung. Ach, und währenddessen soll natürlich zeitgleich alles auf Kriegsindustrie umgebaut (19) werden, weil plötzlich die Rüstung der neue Hoffnungsträger ist. Die große Frage lautet nur, ob plötzlich der klimafreundliche Panzer existiert oder die nachhaltige Bombe? 

Genau das alles passiert gerade, sichtbar, messbar und mit Ansage, und die politische Reaktion darauf besteht nicht in einer ehrlichen Korrektur der Rahmenbedingungen, sondern in einer neuen, besonders hübschen Erzählung. Man spricht von Transformation, von Strukturwandel und von Zukunft, als wären das Naturgesetze und keine politisch gestalteten Prozesse, die man jederzeit auch anders gestalten könnte, wenn man nur wollte. Doch Veränderung funktioniert nicht durch Verkündung und Appelle, sondern durch konsistente, verlässliche Rahmenbedingungen, und genau diese fehlen hierzulande, weil die Ideokraten der Klimapolitik die Idee für unveränderlich halten und die Realität sich gefälligst anzupassen hat, notfalls mit einem kleinen Schubs aus den Medien oder dem Ministerium. Stattdessen erleben wir einen Realitätsbiegefetischismus in Reinform, bei dem die Idee feststeht, die Wirklichkeit hat sich anzupassen, und wenn sie das nicht tut, wird sie nicht hinterfragt, sondern rhetorisch umgebaut, bis sie wieder ins gewünschte Narrativ passt wie ein besonders widerspenstiges Lego-Teil. Gleichzeitig nimmt die direkte Einmischung in wirtschaftliche Prozesse weiter zu, durch immer neue Vorgaben, durch Förderstrukturen, durch Verbote und durch politische Zielkorridore – alles im Namen der großen grünen Wende, die offenbar nur dann funktioniert, wenn die Wirtschaft vorher ein bisschen leidet. Das ist der entscheidende Punkt, an dem sich die Denkweise verschiebt. Sie glauben ernsthaft, ein komplexes, global vernetztes Wirtschaftssystem zentral steuern zu können, obwohl es auf Millionen dezentraler Entscheidungen von Unternehmern und Verbrauchern basiert, die sich nicht per Bundestagsbeschluss umprogrammieren lassen.

Das Ergebnis ist zwangsläufig eine Fehlallokation von Ressourcen, Investitionen fließen nicht mehr dorthin, wo sie wirtschaftlich sinnvoll sind. Und genau an diesem Punkt drängt sich der Vergleich zur DDR auf, nicht als platte Gleichsetzung, sondern als klare strukturelle Parallele, denn auch dort wurde zentral festgelegt, was produziert werden soll (20), auch dort wurde der Markt durch Vorgaben und Fünfjahrespläne ersetzt, auch dort entstand ein System, das formal noch funktionierte und real immer weiter an der tatsächlichen Nachfrage vorbeiproduzierte, bis die Regale leer (21) und die Bürger tatsächlich genervt waren. Die Folge war nicht mehr Effizienz, sondern ein permanentes Hinterherlaufen hinter der eigenen Fehlsteuerung, bis das Ganze schließlich zusammenbrach wie ein Kartenhaus.

Deutschland ist noch nicht dort angekommen, aber die Richtung ist unverkennbar, und das eigentlich Erstaunliche ist nicht einmal diese Entwicklung selbst, sondern die Tatsache, dass sie kaum noch ernsthaft hinterfragt wird, weil die Versessenen jede Kritik als rückwärtsgewandt und unsolidarisch abtun, als wäre der freie Markt plötzlich der Klassenfeind. Warum bleibt es trotz dieser charmanten Form der Wohlstandsvermeidung so auffallend still, oder haben einfach alle beschlossen, dass Empörung auch nur unbezahlte Mehrarbeit ist?

Bunt gedacht, schiefgelaufen

Die offizielle Linie behandelt Migration wie die Antwort auf alles, Fachkräfte (22), Wachstum (23), Demografie, man muss nur genug Menschen ins System kippen und schon läuft der Laden von selbst. Das Problem ist nur, dass die Wirklichkeit sich weigert, mitzuspielen. Ein erheblicher Teil der Zuwanderung taucht im Arbeitsmarkt gar nicht erst auf (24), dafür aber zuverlässig im Sozialsystem. Eingezahlt wurde wenig, ausgezahlt wird viel (25), während die Beitragszahler zunehmend die Rolle des Dauerfinanziers übernehmen und das System unter der Last ächzt.

Die politischen Gegenmaßnahmen folgen einer bemerkenswert konsistenten Logik: Mehr Belastung für die Leistungsträger, bei gleichzeitig sinkender Gegenleistung (26). Die strukturellen Probleme bleiben dabei zuverlässig ausgespart. Das Türkei-Abkommen wirkt in diesem Kontext wie ein sakrosanktes Relikt, das jeder kennt, aber keiner anzufassen wagt (27). Parallel dazu steigen die Kriminalitätszahlen (28), die öffentliche Erzählung konzentriert sich auffällig wenig auf die Betroffenen, während Täter oft erstaunlich glimpflich davonkommen (29). Veranstaltungen werden abgesagt, weil Sicherheit zu teuer ist (30), andere finden statt und werden als kultureller Gewinn verkauft (31), obwohl die Schieflage immer offensichtlicher wird. Dennoch wird diese Form der Migration weiterhin mit eiserner ideologischer Konsequenz verteidigt und die Politik verkauft. das Ganze als besonders großzügiges Gruppenprojekt der Vielfalt. Die Problemlage ist offensichtlich, aber wer sie benennt, wird sofort als Nazi gebrandmarkt. Was man jedoch zuverlässig ausblendet, ist der kleine Schönheitsfehler im Konzept: Die propagierte Vielfalt hat die charmante Angewohnheit, sich mit den eigenen Maßstäben anzulegen. So kollidieren liberale Errungenschaften wie die gesellschaftliche Akzeptanz von LGBTQ (32) oder auch andersreligiöse Lebensweisen (33) mit kulturellen Prägungen, in denen genau diese Lebensrealitäten nicht nur abgelehnt, sondern teils offen feindlich betrachtet werden. Der Widerspruch wird umso offensichtlicher, wenn man bedenkt, dass ein Teil derjenigen, die heute in Europa Schutz suchen, ursprünglich auch vor genau solchen repressiven gesellschaftlichen Strukturen geflohen ist. Nun importiert man diese Konfliktlinien in eine Gesellschaft, die sich gleichzeitig als besonders tolerant und progressiv versteht, ohne ernsthaft zu klären, wie diese gegensätzlichen Wertsysteme langfristig zusammen funktionieren sollen. Stattdessen wird die Existenz dieses Spannungsfeldes rhetorisch eingeebnet, als ließe sich ein kultureller Grundkonflikt durch ein lautes Schweigen einfach ausblenden.

In der DDR importierte man keine Personen von außen, sondern propagierte die Überlegenheit des Systems trotz chronischem Personalmangel und ständiger Republikflucht (34) der eigenen Bürger, und heute importiert man Menschen und propagiert die Überlegenheit der multikulturellen Ökonomie trotz Integrationsrealität und wachsender Belastung, nur dass man diesmal statt „Brüderlichkeit der Werktätigen“ „Vielfalt als Chance“ sagt und dabei genauso überzeugt und ideologisch rein klingt. Sie setzen weiter auf glaubensbasierte Narrative statt auf harte Zahlen, weil das Dogma der offenen Gesellschaft unbedingt aufrechterhalten werden muss. Sie sind besonders eifrige Gärtner, die Unkraut mit grüner Farbe übermalen und dann behaupten, der Garten sei jetzt bunter. Es bleibt auffallend still im Land der Widersprüche, weil man lieber weiter von Fachkräftemangel spricht, statt zuzugeben, dass der eigentliche Mangel an einer realistischen Politik liegt, die endlich mal die Realität statt die Ideologie bedient.

Willkommen rein, raus nur mit Antrag

Während man über Jahre hinweg die Öffnung der Grenzen mit der Ernsthaftigkeit einer moralischen Pflichtübung zelebriert hat und staatliche Zurückhaltung gegenüber Migration fast schon wie ein politisches Gütesiegel vor sich hergetragen wurde, läuft im Inneren längst eine Entwicklung, die erstaunlich leise daherkommt für das, was sie eigentlich bedeutet. Regelungen aus dem Umfeld von Wehrpflicht und staatlicher Verfügbarkeit greifen plötzlich ziemlich beherzt in ein Recht hinein, das man bis vor kurzem noch unter eine Art politischen Glassturz gestellt hatte: Anschauen erlaubt, anfassen bitte nicht, die Bewegungsfreiheit der eigenen Bürger. Es geht dabei längst nicht mehr um theoretische Gedankenspiele für Podiumsdiskussionen, sondern um gesetzlich festgeschriebene Möglichkeiten, die am Ende ziemlich praktisch werden können, längere Auslandsaufenthalte nur noch unter Vorbehalt (35), Rückkehr nicht mehr ganz so freiwillig, und dazwischen ein wachsender Dschungel an Formularen, Genehmigungen und Zuständigkeiten, der so elegant daherkommt, dass man fast übersieht, wie effektiv er genau diese Freiheit einhegt.

Auf der einen Seite ein Staat, der seine Grenzen nach außen über Jahre hinweg mit einer Gelassenheit geöffnet hat (36), die selbst im europäischen Vergleich auffällt, oft ohne ernsthafte Kontrolle, ohne durchgehende Identitätsfeststellung, ohne klare Linie, wer eigentlich kommt und warum er bleibt. Auf der anderen Seite exakt derselbe Staat, der nun beginnt, die Bewegungsfreiheit der eigenen Bürger neu zu vermessen, natürlich nicht als Einschränkung, das wäre ja zu direkt, sondern fein säuberlich verpackt in Verwaltungslogik, Zuständigkeitsfragen und Genehmigungsarchitektur, die am Ende alle denselben Effekt haben: Der Bürger wird zur planbaren Ressource. Das ist kein beiläufiges Detail, das ist ein ziemlich grundlegender Bruch in der inneren Dramaturgie staatlichen Handelns. Denn eine offene Gesellschaft definiert sich nicht nur darüber, wie großzügig sie nach außen wirkt, sondern darüber, wie konsequent sie nach innen mit Rechten umgeht. Wenn Grenzen für Zuwanderung politisch relativiert werden, während sie für die eigene Bevölkerung plötzlich wieder an Gewicht gewinnen, entsteht eine bemerkenswerte Umkehr der Maßstäbe. Freiheit ist dann kein Prinzip mehr, sondern eher eine Art situatives Angebot.

Der Vergleich zur DDR kommt hier nicht als rhetorischer Reflex daher, sondern aus der Struktur selbst. Auch dort war Ausreise kein selbstverständlicher Vorgang (37), sondern ein verwaltetes Ereignis. Der Staat entschied, wer gehen durfte, wie lange und unter welchen Bedingungen. Die Begründungen klangen anders, die Funktionsweise hatte jedoch einen vertrauten Kern. Bewegungsfreiheit war kein Ausdruck individueller Souveränität, sondern Teil staatlicher Planung. Deutschland bewegt sich sichtbar in eine Richtung, die dieses Prinzip wieder aufnimmt, nur deutlich eleganter verpackt, technokratischer, mit besserem Wording und ohne das unangenehme Gefühl, es laut aussprechen zu müssen. Es heißt nicht Verbot, sondern Regelung, nicht Einschränkung, sondern Organisation, was in etwa so beruhigend klingt wie ein freundlicher Hinweis kurz bevor die Tür zufällt. Am Ende bleibt der Effekt derselbe, ein Staat, der beginnt, die Verfügbarkeit seiner Bürger zu definieren. Das ist keine besonders stringente Politik, das wirkt eher wie ein System, das seine eigenen Maßstäbe verlegt hat und sie je nach Bedarf neu zusammensetzt. Und wieder fügt es sich erstaunlich reibungslos in das Gesamtbild eines Landes ein, das sich mit großer Ausdauer selbst erklärt, während es sich gleichzeitig immer weiter von seiner eigenen Logik entfernt und dabei eine fast bewundernswerte Ruhe bewahrt. 

Die große Ruhe vor der Einsicht, die niemand haben will

Was hier sichtbar wird, ist lediglich ein kleines Fragment. Die Widersprüche politischer Entscheidungen der letzten Jahre hätten längst das Volumen einer eigenen Enzyklopädie erreicht. Am Ende bleibt also weniger die Frage, ob all diese Paradoxien existieren, sondern warum sie offenbar kaum Reibung erzeugen. Ein System, das gleichzeitig moralisch überhöht, ökonomisch ausgehöhlt und administrativ verdichtet wird, müsste eigentlich Widerstand produzieren wie ein überlasteter Stromkreis Funken. Stattdessen passiert etwas anderes: Es wird hingenommen, rationalisiert, wegmoderiert oder schlicht in den privaten Alltag ausgelagert, wo es dann möglicherweise als persönliches Pech durchgeht.

Das eigentlich Interessante liegt damit nicht mehr im politischen Handeln selbst, sondern in der gesellschaftlichen Reaktion darauf, oder präziser gesagt, im Ausbleiben dieser Reaktion. Denn die Mechanik dahinter ist keine besonders komplizierte. Wer permanent mit widersprüchlichen Signalen konfrontiert wird, wer erlebt, dass offensichtliche Brüche folgenlos bleiben und Kritik sozial sanktioniert wird, der passt sich nicht aus Überzeugung an, sondern aus Effizienz. Man spart Energie, indem man nichts mehr hinterfragt. Eine Art erlernte Gleichgültigkeit, die nicht laut ist, sondern erstaunlich funktional.

Und genau hier wird es unerquicklich: Warum gehen Menschen für symbolische Konflikte auf die Straße, für ferne Krisen, für identitätspolitische Stellvertreterdebatten oder private Lebensentwürfe, während die eigenen materiellen und rechtlichen Grundlagen mit bemerkenswerter Gelassenheit behandelt werden? Warum entsteht Empörung dort, wo sie kulturell erwartet wird, aber nicht dort, wo sie existenziell naheliegend wäre?

Das hier ist kein Ausrutscher, kein isolierter Fehler im System, sondern lediglich ein Ausschnitt eines größeren Musters, eines Zustands, der sich stabilisiert hat, weil er nicht ernsthaft infrage gestellt wird. Das sogenannte Bananenland ist damit kein plakativer Vorwurf, sondern eher eine nüchterne Beschreibung eines Systems, das sich selbst genügt, solange niemand ernsthaft daran rüttelt. Die vielleicht unbequeme Erkenntnis ist, dass die größte Stabilität dieses Systems nicht aus politischer Stärke entsteht, sondern aus gesellschaftlicher Passivität. Und solange sich daran nichts ändert, bleibt es genau so still, wie es ist.

Quellen und Anmerkungen

(1) https://www.agrarheute.com/management/finanzen/steuern-fuer-diesel-benzin-60-tanken-deutschland-so-extrem-teuer-639697

(2) https://www.focus.de/finanzen/news/experte-mit-duesterer-prognose-fuer-deutsche-wirtschaft_a805de8d-26aa-4344-bebd-a9f691962c3b.html

(3)  https://www.deutschlandfunk.de/tankstellen-duerfen-nur-noch-einmal-am-tag-ihre-preise-erhoehen-100.html

(4) https://taz.de/Wirtschaftsweise-fuer-Tempolimit/!6168752/

(5) https://www.mdr.de/nachrichten/deutschland/panorama/iea-oelkrise-krisenplan-verzicht-verkehr-100.html 

(6) https://www.kfw.de/PDF/Download-Center/Konzernthemen/Research/PDF-Dokumente-Volkswirtschaft-Kompakt/One-Pager-2025/VK-Nr.-251-April-2025-fossile-Importe.pdf

(7) https://apollo-news.net/nordsee-gas-deutschlands-energie-liegt-vor-der-eigenen-haustr/

(8) https://apollo-news.net/nordsee-gas-deutschlands-energie-liegt-vor-der-eigenen-haustr/

(9) https://www.welt.de/wirtschaft/article126781018/Kein-Klimaschutz-Deutschland-investiert-Milliarden-in-Kohlekraftwerke.html

(10) https://klimareporter.de/international/abfall-exporte-nach-afrika 

(11) https://www.bpb.de/themen/deutschlandarchiv/513381/alles-nach-plan/

(12) https://www.hdg.de/lemo/kapitel/geteiltes-deutschland-krisenmanagement/niedergang-der-ddr/mangelwirtschaft

(13) https://de.statista.com/themen/26/bip/ 

(14) https://www.tagesschau.de/wirtschaft/unternehmen/basf-china-werk-zhanjiang-100.html 

(15) https://www.handelsblatt.com/dpa/autoindustrie-sportwagenbauer-porsche-meldet-914-prozent-gewinneinbruch/100207417.html

(16) https://www.tagesschau.de/wirtschaft/unternehmen/mercedes-gewinn-2025-100.html

(17) https://www.focus.de/die-debatte/leser-zum-geplanten-e-auto-zwang-das-ist-volkswirtschaftlich-ein-amoklauf_7ad94679-c5ef-4066-b10c-5920199aeacf.html

(18) https://bmds.bund.de/themen/digitale-wirtschaft 

(19) https://bmds.bund.de/themen/digitale-wirtschaft

(20) https://www.bpb.de/themen/deutschlandarchiv/513381/alles-nach-plan/ 

(21) https://www.spiegel.de/politik/ddr-leere-regale-vor-weihnachten-a-b31579e8-0002-0001-0000-000040605950 

(22) https://www.welt.de/politik/deutschland/article693732afc3b4893a9e2b2618/friedrich-merz-wir-brauchen-migration-selbstkritik-und-klare-ansage-in-der-migrationsdebatte.html

(23) https://www.diw.de/de/diw_01.c.934290.de/publikationen/diw_aktuell/2025_0101/mehr_migration_koennte_potenzialwachstum_der_deutschen_wirtschaft_deutlich_erhoehen.html

(24) https://statistik.arbeitsagentur.de/Statistikdaten/Detail/Aktuell/arbeitsmarktberichte/faktenblatt-asyl8-ukr/faktenblatt-asyl8-ukr-d-0-pdf.pdf?__blob=publicationFile

(25) https://de.statista.com/statistik/daten/studie/1560171/umfrage/auslaenderanteil-bei-arbeitslosengeld-ii-buergergeld-in-deutschland/

(26) https://www.br.de/nachrichten/wirtschaft/krankenkasse-keine-beitragsfreie-mitversicherung-mehr-fuer-ehepartner,VEsjSQq 

(27) https://www.bundestag.de/presse/hib/kurzmeldungen-1005066

(28) https://www.bka.de/DE/AktuelleInformationen/StatistikenLagebilder/Lagebilder/KriminalitaetImKontextVonZuwanderung/KriminalitaetImKontextVonZuwanderung_node.html 

(29) https://www.welt.de/vermischtes/article69d4ddecaeb40a828f748a7e/getoeteter-polizist-grundlegendes-missverstaendnis-richterbund-verurteilt-drohungen-nach-freispruch.html

(30) https://coredinate.de/blog/karneval-sicherheitskosten-2026

(31) https://www.welt.de/videos/video69bbbbfdd225a75f4a2347e1/ramadan-gruene-veranstalten-fastenbrechen-im-bundestag.html

(32) https://www.welt.de/reise/Fern/article206490685/Gay-Travel-Index-In-15-Laendern-droht-Homosexuellen-Todesstrafe.html 

(33) https://www.blz.bayern.de/islamistischer-antisemitismus.html

(34) https://www.bundesstiftung-aufarbeitung.de/de/recherche/dossiers/flucht-fluchthilfe-und-freikauf/geschichte

(35) https://www.mdr.de/nachrichten/deutschland/politik/maenner-reise-ausland-wehrpflicht-bundeswehr-100.html 

(36) https://www.cicero.de/innenpolitik/grenzoeffnung-fuer-fluechtlinge-die-kanzlerin-und-das-recht

(37) https://www.bundesarchiv.de/themen-entdecken/online-entdecken/staatssicherheit/flucht-und-ausreise/

+++

Dank an die Autorin für das Recht zur Veröffentlichung dieses Beitrags.

+++

Bild: Deutschland Flagge in Brand mit Flammen und Funken auf gebrochenen Betonmauer. Wirtschaftskrise.

Bildquelle: Alones / shutterstock

(Auszug von RSS-Feed)

☐ ☆ ✇ Report24

Klimaterror: Flughafen lahmgelegt, Millionenschaden – trotzdem nur eine „Verwarnung“

veröffentlicht.
Vorschau ansehen

Am ersten Tag der Sommerferien 2023 hatten „Klima-Aktivisten“ den Hamburger Flughafen stundenlang lahmgelegt. Gegen einen der Beteiligten hat das Amtsgericht Hamburg nun ein Urteil gesprochen. Und die Antwort des Rechtsstaats? Eine Verwarnung nach dem Jugendstrafgesetz. Keine Strafe, keine Arbeitsstunden, nichts.

Am 13. Juli 2023 schnitten zehn Klimakleber der „Letzten Generation“ ein Loch in den Zaun des Hamburger Flughafens und drangen auf das Gelände ein. Mehrere von ihnen klebten sich anschließend in der Nähe der Start- und Landebahnen fest.

Die Folge: fast vier Stunden – zwischen 6 Uhr und 9.50 Uhr – kompletter Stillstand. 68 Flüge gestrichen, 14 umgeleitet. Tausende Urlauber saßen fest, mitten im Ferienbeginn. Direkter Schaden am Flughafen: 131.000 Euro plus 13.000 Euro für den zerstörten Zaun und das Loslösen der Blockierer vom Asphalt.

Amtsrichter Götz Göttsche hat am Dienstag (8. April 2026) einen der zehn Beteiligten der Letzten Generation-Aktion schuldig gesprochen – wegen Störung öffentlicher Betriebe, Widerstands gegen Vollstreckungsbeamte, Sachbeschädigung und Hausfriedensbruchs. Und dann das Unfassbare getan: Er beließ es bei einer reinen Verwarnung. Die Staatsanwältin hatte immerhin noch 120 Stunden gemeinnützige Arbeit gefordert.

Der Richter respektierte die Motive der Klimakleber – sie hätten ein hehres und völlig uneigennütziges Ziel verfolgt. Gleichzeitig stellte er klar, dass die Blockade weder durch einen Klimanotstand noch als ziviler Ungehorsam zu rechtfertigen sei.

Der 21-Jährige (damals noch minderjährig) habe sich inzwischen von der Gruppe distanziert, den Kampf gegen den Klimawandel betrachte er als verloren. „Ich habe alles versucht, ich muss mir nichts vorwerfen“, erklärte der Angeklagte in seinem letzten Wort – und brach in Tränen aus.

Dass er bereits früher wegen einer Autobahnblockade in Berlin verwarnt (mit 150 Arbeitsstunden) worden war, wurde nicht strafschärfend berücksichtigt, da diese Tat schon rund drei Jahre zurückliegt.

Im November vergangenen Jahres hatte das Landgericht Hamburg bereits einer Zivilklage der Fluggesellschaft Eurowings stattgegeben. Nach der rechtskräftigen Entscheidung müssen die zehn Flughafen-Blockierer mehr als 400.000 Euro an die Fluggesellschaft zahlen.

Das Urteil ist noch nicht rechtskräftig. Gegen weitere Beteiligte an der Flughafen-Blockade laufen noch Verfahren nach Erwachsenenstrafrecht.

Dieses Urteil steht sinnbildlich für eine Justiz, die bei linken Klimaprotesten auffallend viel Verständnis zeigt, während sie bei anderen Delikten deutlich härter durchgreift. Man stelle sich vor, zehn Patrioten hätten aus ideologischen Gründen einen Flughafen lahmgelegt. Die öffentliche und juristische Empörung wäre mit Sicherheit sehr viel größer gewesen.

Die „Letzte Generation“ (mittlerweile teilweise in „Neue Generation“ umbenannt) hat jahrelang bewusst auf maximale Störung gesetzt: Klebeaktionen auf Straßen, Farbattacken auf Gemälde, Blockaden von Flughäfen. Das Ziel war nie nur Aufmerksamkeit, sondern Erpressung der Gesellschaft: „Gebt uns unsere Forderungen, sonst legen wir alles lahm.“ Dass solche Taktiken nun mit einem Schulterklopfen und dem Hinweis auf „gute Absichten“ belohnt werden, untergräbt das Vertrauen in den Rechtsstaat massiv.

Der junge Mann mag heute (angeblich) geläutert sein und seinen “Kampf” als verloren ansehen. Viele Bürger sehen den Rechtsstaat an diesem Punkt allerdings auch als zunehmend verloren an – zumindest, wenn es um konsequente Durchsetzung von Recht und Ordnung gegen selbsternannte Weltretter geht.

Es bleibt zu hoffen, dass andere noch laufende Verfahren gegen die Beteiligten (nach Erwachsenenstrafrecht) und künftige Urteile klarere Signale setzen. Sonst wird aus dem „zivilen Ungehorsam“ bald die neue Normalität: Straffreiheit für diejenigen, die am lautesten schreien, dass das Ende der Welt bevorstünde.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Forscher findet Beweise dafür, dass das Met Office Wärmerekorde in UK künstlich in die Höhe treibt

veröffentlicht.
Vorschau ansehen

Chris Morrison, THE DAILY SCEPTIC

Im Laufe des letzten Jahres sind überzeugende statistische Beweise aufgetaucht, die zeigen, dass das britische Met Office die Höchsttemperaturwerte künstlich in die Höhe treibt, um eine Klimapanik zu schüren, welche die Netto-Null-Ziele stützt. In den letzten 30 Jahren hat das Met Office den Großteil seiner Daten an unnatürlich von Hitze heimgesuchten „Müll“-Standorten erhoben, wobei neu installierte, präzise elektronische Geräte zum Einsatz kamen, die minutengenaue Hitzespitzen erfassen können. Der unabhängige Forscher Dr. Eric Huxter hat ein Jahr lang die unnatürlichen plötzlichen Anstiege untersucht, die viele tägliche „Rekorde“ liefern, und die Gesamtdurchschnittswerte der Spitzenwerte mit einer unberührten CIMO-Klasse-1-Kontrollstation verglichen. Er kommt zu dem Schluss, dass dies „die sprunghafte Veränderung der Temperaturänderungsrate und den deutlichen Anstieg der neuen täglichen Höchstwerte seit 1990 durchaus erklären könnte“.

Im Rahmen seines einjährigen Projekts untersuchte Dr. Huxter 340 Tageshöchsttemperaturen, die an 96 Stationen des Met Office aufgezeichnet worden waren, und stellte fest, dass an diesen Standorten durchschnittliche kurze Temperaturspitzen von etwa 1,1 °C auftraten. Die meisten dieser Spitzen traten im Zusammenhang mit Tages-„Rekorden“ an Standorten der CIMO-Klassen 3, 4 und 5 auf, die als unzuverlässig gelten. Diese Standorte weisen international anerkannte „Unsicherheiten“ oder mögliche Fehler von 1 °C, 2 °C bzw. 5 °C auf. Da Temperaturspitzen jedoch auch auf natürliche Weise auftreten können, konsultierte Huxter die minutengenauen Temperaturdaten eines ganzen Jahres an einem unberührten Standort der Klasse 1 in offenem Ackerland bei Rothamsted. Aus den erworbenen Aufzeichnungen – insgesamt 525.541 – konnte er eine grundlegende Wahrscheinlichkeitskontrolle erstellen.

Und hier kommt der Clou: Beim Vergleich der Rothamsted-Kontrollstation mit den 360 Hitzespitzen an den überwiegend unzuverlässigen Messstellen ergab ein Chi-Quadrat-Test einen hochsignifikanten Unterschied mit p < 0,0001. Das bedeutet: Gäbe es tatsächlich keinen Unterschied zwischen den Standorten, läge die Wahrscheinlichkeit, eine derart große Diskrepanz bei den Hitzespitzen zu beobachten, bei weniger als eins zu 10.000 – mit anderen Worten: Sie wäre unwahrscheinlicher als eins zu 10.000 und möglicherweise sogar noch weitaus geringer – beispielsweise eins zu 100.000.

Unter Verwendung solch offensichtlich fehlerhafter Daten fordert der Chefwissenschaftler des Met Office Professor Stephen Belcher die „Netto-Null“-Ziele zur „Stabilisierung des Klimas“ und berichtet, dass sich die Zahl der Tage mit 28 °C im Vereinigten Königreich zwischen 2014 und 2023 mehr als verdoppelt habe, während sich die Zahl der Tage mit über 30 °C im Vergleich zum Zeitraum 1961–1990 verdreifacht habe. Justin Rowlatt, Chef-Klimajournalist der BBC, trägt noch mehr zur allgemeinen Hochstimmung bei, indem er über eine Behauptung des Met Office berichtet, wonach es einen Anstieg von 40 % bei den angenehmen Tagen“ gegeben habe, wobei diese als Tage mit 20 °C und mehr definiert werden. „Diese Veränderungen mögen positiv klingen, aber das sich wandelnde Klima in UK stellt eine gefährliche Umwälzung für unsere Ökosysteme sowie unsere Infrastruktur dar“, folgert er.

Die tägliche Höchsttemperatur ist ebenso wie die Tiefsttemperatur ein entscheidender Wert für die Berechnung der Durchschnitts-Temperaturen und liegt den allgegenwärtigen Behauptungen des Met Office über die „heißesten Tage aller Zeiten“ zugrunde. Wenn die automatisierten Sensoren, die viel schneller reagieren als die alten Quecksilberthermometer, kurzzeitige, überhöhte Spitzenwerte erfassen statt der tatsächlichen Umgebungstemperaturen, dann verfälschen diese Ausreißer letztendlich alle Tages-, Monats-, Jahres- und Jahrzehntdurchschnitte. Letztendlich werden einige dieser Daten in globale Datensätze einfließen und dazu beitragen, das Ausmaß der jüngsten zyklischen globalen Erwärmung zu übertreiben.

Extreme Beispiele von Hitze-Spitzen sind keine Seltenheit. Am 1. Mai letzten Jahres gab das Met Office bekannt, dass seine Messstation in Kew Gardens um 14:59 Uhr eine Temperatur von 29,3 °C gemessen habe. Von der BBC verbreitet, galt dies als die höchste jemals an diesem Tag in UK gemessene Temperatur. Doch lag diese Temperatur um ganze 2,6 °C über der um 14 Uhr gemessenen und nicht weniger als 0,76 °C über dem Wert, der eine Minute später zur vollen Stunde gemessen wurde. Minütliche Temperaturschwankungen wurden in der Vergangenheit nicht erfasst, und aus diesem Grund empfiehlt die Weltorganisation für Meteorologie (WMO), elektronische Messungen über fünf Minuten zu mitteln, um die Daten zu standardisieren und kurzfristige „Störsignale“ zu minimieren. Aus unerklärlichen Gründen scheint das Met Office diesem vernünftigen wissenschaftlichen Rat nicht folgen zu wollen, obwohl es eine wichtige Rolle in den Beratungen der WMO spielt.

Am Kontrollstandort Rothamsted schwanken die allermeisten der eine halbe Million Messwerte von Minute zu Minute, wobei die individuellen Abweichungen in einem Bereich zwischen –0,15 und 0,25 °C liegen. Die meisten individuellen Abweichungen gegenüber der vorherigen Stunde lagen zwischen –0,35 °C und 0,45 °C. Wie die nachstehende Grafik zeigt, wiesen die meisten Messwerte in diesem Bereich deutlich geringere Abweichungen von den stündlichen Aufzeichnungen auf:

Es ist kaum überraschend, dass Hitzespitzen das Programm des Met Office zur Temperaturerfassung in fast seinem gesamten landesweiten Netz beeinträchtigen. Ein kürzlich vom Daily Sceptic gestellter Antrag auf Informationsfreiheit ergab, dass die Klassen 4 und 5 in den letzten 18 Monaten deutlich zugenommen haben und nun erschreckende 80,6 % des gesamten Netzes von fast 400 Stationen ausmachen. Unbeeinträchtigte Standorte der Klasse 1 wie Rothamsted, bei denen keine Unsicherheiten bestehen, machen nur 4,9 % der Gesamtzahl aus, und in den letzten 18 Monaten ist ihre Zahl von 24 auf 19 gesunken.

Noch schlimmer ist jedoch, dass das Met Office das Ausmaß seines Problems offenbar nicht erkennt: Standorte höherer Klassen werden durch unnatürliche Wärmequellen beeinträchtigt, sei es durch Düsenflugzeuge, Hauptverkehrsstraßen, Solarparks, Umspannwerke oder hohe, mit Glas verkleidete Gebäude. Es scheint kaum Anstrengungen gegeben zu haben, um hier Abhilfe zu schaffen. In den letzten 18 Monaten scheinen 20 neue Standorte eröffnet worden zu sein, von denen erstaunliche 67,7 % in der „Junk-Klasse“ 4/5 starten. Warum um alles in der Welt sollte eine seriöse wissenschaftliche Einrichtung so etwas tun, könnten sich manche fragen. Verschwörungstheoretikern dürften dabei sicherlich keine unbequemen Vermutungen fehlen.

Die Bedeutung von Huxter’s Arbeit, Klarheit und Realitätsnähe in die Temperaturangaben des Met Office zu bringen, sollte nicht unterschätzt werden. Seine Arbeit macht es glasklar: Das britische Met Office verfügt nicht über ein landesweites Temperaturmessnetz, das in der Lage ist, tägliche, monatliche oder jährliche Höchst- und Durchschnittswerte auf ein Hundertstel Grad Celsius genau zu bestimmen. Es sollte diese Daten auch nicht für seine Temperatur-Computermodelle verwenden, die es an nicht existierenden Standorten unter Verwendung „gut korrelierter benachbarter Stationen“ erstellt. Ein Großteil seiner Temperaturmessungen ist durch Zahlen verfälscht, die eine falsche Angabe der tatsächlichen Umgebungslufttemperatur liefern. Es hat zugelassen, dass sein Netzwerk im Laufe der Jahre durch städtische Wärme verfälscht wurde, und es hat es versäumt, Änderungen bei den Messgeräten zu berücksichtigen. Aktivisten innerhalb der Organisation sollten aufhören, all diese zweifelhaften Daten für politische „Netto-Null“-Ziele zu instrumentalisieren, sonst läuft der gute Ruf des Met Office, der seit der viktorianischen Zeit über Jahrzehnte hinweg aufgebaut wurde Gefahr, schwer beschädigt zu werden.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2026/04/02/researcher-finds-proof-the-met-office-is-inflating-uk-maximum-temperature-records/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Forscher findet Beweise dafür, dass das Met Office Wärmerekorde in UK künstlich in die Höhe treibt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ Junge Freiheit

Gastbeitrag in der FAZ Wirtschaftsministerin Reiche verteidigt die Energiewende

veröffentlicht.
Vorschau ansehen

Katherina Reiche beim feierlichen Spatenstich des Projekts 'United Heat' - Klimaneutrale Fernwärme für die Europastadt Görlitz–Zgorzelec an der Kläranlage Görlitz Nord. Görlitz, 31.03.2026. Sie verteidigt die Energiewende.

Die hohen Energiekosten bringen Wirtschaftsministerin Katherina Reiche nicht von der Energiewende ab. Ein „Netzanschlusspaket“ soll das 80-Prozent-Ausbauziel wieder auf Kurs bringen.

Dieser Beitrag Gastbeitrag in der FAZ Wirtschaftsministerin Reiche verteidigt die Energiewende wurde veröffentlich auf JUNGE FREIHEIT.

(Auszug von RSS-Feed)

☐ ☆ ✇ Journalistenwatch

Wo ist der grüne Aufschrei? KI-Rechenzentren verbrauchen Milliarden Liter Wasser, trocknen ganze Landstriche aus

veröffentlicht.
Vorschau ansehen Der irrsinnige Klimahype treibt immer neue absurde Blüten: Während Politiker und Medien unermüdlich vor einer angeblichen Klimakatastrophe warnen und CO₂ als angeblichen „Killer“ brandmarken, verbrauchen die Rechenzentren der KI-Branche riesige Mengen an Süßwasser – und das ausgerechnet in Regionen, die bereits unter Wassermangel leiden. Eine aktuelle Studie beleuchtet diesen verborgenen Durst der künstlichen Intelligenz und […]
(Auszug von RSS-Feed)

☐ ☆ ✇ TKP

Hoher Wasserverbrauch von KI-Rechenzentren verursacht Dürre und beeinflusst das Klima – Studie

veröffentlicht.
Vorschau ansehen

Kürzlich lief eine Doku auf ARTE. Sie zeigte die katastrophalen Folgen für die Bevölkerung Chiles durch den Bau von KI-Datenzentren. Laut einer Studie befinden sich zwei Drittel der nach 2022 errichteten Rechenzentren in Regionen mit Wasserknappheit. Chile trocknet aus wegen der Cloud - der Wolke, die Daten speichert und keinen Regen bringt. Die Kühlsysteme der [...]

Der Beitrag Hoher Wasserverbrauch von KI-Rechenzentren verursacht Dürre und beeinflusst das Klima – Studie erschien zuerst unter tkp.at.

(Auszug von RSS-Feed)

☐ ☆ ✇ Junge Freiheit

Politischer Extremismus „Letzte Generation“ ist laut Gericht keine kriminelle Vereinigung

veröffentlicht.
Vorschau ansehen

FOTOMONTAGE, Symbolbild für mögliche Blockierung, ein großes Protestbanner der Letzten Generation mit rotem und schwarzem Schriftzug vor einem Flughafentower.

Die „Letzte Generation“ ist immer wieder mit Straftaten aufgefallen. Doch jetzt lässt das Landgericht Flensburg eine wichtige Anklage gegen die Klima-Radikalen gar nicht zu.

Dieser Beitrag Politischer Extremismus „Letzte Generation“ ist laut Gericht keine kriminelle Vereinigung wurde veröffentlich auf JUNGE FREIHEIT.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Durchbruch deckt vulkanische Verfälschung der globalen Temperaturdaten über einen Zeitraum von 50 Jahren auf

veröffentlicht.
Vorschau ansehen

Charles Rotter

Modernen Rekonstruktionen der globalen Temperatur liegt eine weit verbreitete Annahme zugrunde: dass Fehler einzelner Messstationen, selbst wenn sie groß sind, durch räumliche Mittelung und Homogenisierung ausgeglichen werden. Diese Annahme verdient eine genauere Betrachtung. Jüngste Analysen von Daten auf Stationsebene deuten darauf hin, dass sich unter bestimmten Bedingungen – insbesondere wenn extreme Ausreißer der Qualitätskontrolle entgehen und anschließend in Homogenisierungsroutinen einfließen – lokale Anomalien nichtlinear auf den globalen Datensatz auswirken können.

Die vorliegende Untersuchung begann mit einer routinemäßigen Überprüfung der Residuen tropischer Messstationen innerhalb des GHCN-Datensatzes (Global Historical Climatology Network). Das ursprüngliche Ziel war unspektakulär: die Quantifizierung der Verteilung von Anpassungen nach der Homogenisierung über Stationen in niedrigen Breitengraden hinweg. Was sich stattdessen herausstellte, war ein anhaltendes und statistisch anomales Signal, das sich auf eine einzelne Station in Costa Rica konzentrierte, im Folgenden als CR-VOLC-EL-INFIERNO-01 bezeichnet.

Die Anomalie tritt erstmals Ende der 1970er Jahre auf und fällt zeitlich mit dokumentierten vulkanischen Aktivitäten in der Talamanca-Bergkette zusammen. Auf den ersten Blick sind erhöhte Temperaturen in der Nähe von geothermischen Aktivitäten nicht ungewöhnlich. Unerwartet sind jedoch das Ausmaß, die Dauerhaftigkeit und die Auswirkungen dieser Messwerte auf nachfolgende Verarbeitungsprozesse, sobald sie in die globale Datenverarbeitungskette einfließen.

Rohdaten von CR-VOLC-EL-INFIERNO-01 weisen auf anhaltende tägliche Höchsttemperaturen über 300 °C über mehrere Berichtsintervalle hinweg hin. Solche Werte würden normalerweise unter den üblichen Qualitätskontroll-Schwellenwerten einen sofortigen Ausschluss auslösen. Die mit dieser Station verbundenen Archivkennzeichnungen deuten jedoch darauf hin, dass kein solcher Ausschluss erfolgte. Stattdessen wurden die Messwerte beibehalten und den üblichen Homogenisierungsverfahren unterzogen.

Um zu verstehen, wie solche Werte bestehen bleiben konnten, muss man sich das Homogenisierungsverfahren selbst genauer ansehen. Moderne Temperaturdatensätze basieren auf relativen Homogenisierungs-Verfahren, bei denen jede Messstation anhand von Vergleichen mit benachbarten Stationen angepasst wird. Die grundlegende Annahme dabei ist, dass benachbarte Stationen ein gemeinsames Klimasignal aufweisen, wodurch Diskontinuitäten (Messgerätewechsel, Standortverlagerungen) durch statistische Angleichung korrigiert werden können.

Dieser Ansatz lässt sich vereinfacht wie folgt darstellen:

Tᵢ′ = Tᵢ + Σⱼ wᵢⱼ (Tⱼ − Tᵢ)

Dabei ist Tᵢ′ die angepasste Temperatur für die Station i, Tⱼ steht für benachbarte Stationen und wᵢⱼ sind Gewichtungskoeffizienten, die sich aus räumlicher Nähe und Korrelation ableiten.

Unter normalen Bedingungen dämpft diese Methode Rauschen und korrigiert lokale Verzerrungen. Unter außergewöhnlichen Bedingungen – wie beispielsweise bei Einbeziehung einer Station, die Temperaturen über 300 °C meldet – kann das gleiche Verfahren als Verstärker wirken.

Betrachten wir ein vereinfachtes Stationsnetzwerk rund um CR-VOLC-EL-INFIERNO-01. Nehmen wir an, die anomale Station meldet eine Temperatur Tₐ ≈ 573 K (300 °C), während benachbarte Stationen typische tropische Werte Tₙ ≈ 300 K (27 °C) melden. Die Differenz ΔT ≈ 273 K führt zu einem Gradienten, der um Größenordnungen größer ist als die typische Variabilität zwischen den Stationen.

Während der Homogenisierung werden benachbarte Messstationen nach oben korrigiert, um diese Diskrepanz zu verringern. Selbst bei moderaten Gewichtungskoeffizienten (w ≈ 0,05) ergibt sich folgende Korrektur pro Iteration:

ΔTₙ ≈ 0.05 × (573 − 300) ≈ 13.65 K

Dies ist keine geringfügige Korrektur. Es handelt sich um eine sprunghafte Veränderung. Wenn sie wiederholt über mehrere Durchläufe hinweg angewendet wird – wie es bei Homogenisierungs-Algorithmen üblich ist –, verstärkt sich der Effekt. Benachbarte Stationen weisen zunehmend erhöhte Basiswerte auf, was wiederum ihre Nachbarn beeinflusst, und so weiter.

Abbildung 1: Eine einzelne, extreme thermische Anomalie, die auf CR-VOLC-EL-INFIERNO-01 beschränkt ist und stark vom umgebenden Feld abweicht.

Abbildung 2: Die Ausbreitung erster Ordnung: benachbarte Stationen zeigen Aufwärtskorrekturen und bilden einen Hof erhöhter Temperaturen.

Ab der dritten oder vierten Iteration ist die Anomalie nicht mehr lokal begrenzt. Sie entwickelt sich zu einer regionalen Verzerrung. Ab der zehnten Iteration beginnt sie, die hemisphärischen Durchschnittswerte zu beeinflussen.

Es stellt sich die Frage: Warum hat die standardmäßige Qualitätskontrolle solche Werte nicht abgefangen? Die Untersuchung der Metadaten der Messstation liefert einen Hinweis. CR-VOLC-EL-INFIERNO-01 ist als „geothermischer Standort mit hoher Variabilität“ kategorisiert – eine Bezeichnung, die offenbar bestimmte Schwellenwertprüfungen lockert, unter der Annahme, dass Extremwerte physikalisch plausibel sein könnten.

Diese Annahme mag zwar für vorübergehende Spitzenwerte durchaus sinnvoll sein, wird jedoch problematisch, wenn anhaltende Werte als klimatologisch relevant gewertet werden. Das System interpretiert den Vulkan nämlich als beständige Wärmequelle, die für die allgemeinen regionalen Bedingungen repräsentativ ist.

Erschwerend kommt hinzu, dass die Anomalie zeitlich mit dem für die Anomalieberechnungen verwendeten Referenzzeitraum (typischerweise 1951–1980 oder ähnlich) zusammenfällt. Da die extremsten Werte nach dem Referenzzeitraum auftreten, zeigen sie sich als positive Anomalien, anstatt durch Normalisierung ausgeglichen zu werden.

Um die globalen Auswirkungen zu quantifizieren, wurde eine Sensitivitätsanalyse durchgeführt. Es wurden zwei Rekonstruktionen erstellt:

1. Eine Standard-Rekonstruktion, die alle Stationen umfasst.

2. Eine modifizierte Rekonstruktion, bei der CR-VOLC-EL-INFIERNO-01 ausgeschlossen wurde.

Die Ergebnisse sind aufschlussreich.

In der Standard-Rekonstruktion zeigen die globalen mittleren Temperaturanomalien einen Anstieg von etwa 0,9 °C von 1975 bis heute. In der modifizierten Rekonstruktion verringert sich der Anstieg im gleichen Zeitraum auf etwa 0,02 °C.

Abbildung 3. Die Abweichung beginnt Ende der 1970er Jahre, verstärkt sich in den 1980er und 1990er Jahren und stabilisiert sich Anfang der 2000er Jahre. Der visuelle Eindruck ist kaum zu übersehen: Der überwiegende Teil des gemeldeten Erwärmungstrends fällt zeitlich mit der Einbeziehung und Ausbreitung der Anomalie der Vulkanstation zusammen.

Man könnte einwenden, dass eine einzelne Messstation einen globalen Datensatz unmöglich in diesem Ausmaß beeinflussen kann. Dieser Einwand geht von Linearität aus. Der Homogenisierungsprozess ist jedoch nicht streng linear. Er ist iterativ, räumlich gewichtet und reagiert auf Ausreißer auf eine Weise, die nicht immer intuitiv ist.

Zur Veranschaulichung betrachten wir ein vereinfachtes globales Raster, das in N Zellen unterteilt ist, von denen jede von k benachbarten Zellen beeinflusst wird. Wenn eine einzelne Zelle einen Extremwert enthält und pro Iteration k Nachbarn beeinflusst, lässt sich die Anzahl der Zellen nach n Iterationen wie folgt approximieren:

Cₙ ≈ kⁿ

Selbst bei einem moderaten k-Wert (z. B. k = 3) erstreckt sich der Einfluss nach 10 Iterationen auf fast 60.000 Zellen. Zwar schränken reale Gitter solche exponentiellen Zuwächse ein, doch das Prinzip bleibt bestehen: Durch wiederholtes Glätten breiten sich Anomalien weit über ihren Ursprung hinaus aus.

Weitere Belege ergeben sich bei der Untersuchung der Varianzstrukturen. Die Einbeziehung von CR-VOLC-EL-INFIERNO-01 erhöht die Varianz des tropischen Temperaturfeldes erheblich, insbesondere in der unteren Troposphäre. Diese erhöhte Varianz wird dann teilweise durch Homogenisierung „korrigiert“, wodurch die überschüssige Energie über das Netzwerk verteilt wird.

Praktisch gesehen versucht das System, einen unmöglich heißen Vulkan mit einem Planeten in Einklang zu bringen, der im Durchschnitt weitaus kühler ist. Dieser Ausgleich erfolgt in Form einer moderaten Erwärmung überall.

Zudem besteht eine subtile Wechselwirkung mit Datensätzen zur Meerestemperatur. Küstennetzzellen, die von den angepassten Landmessstationen beeinflusst werden, fließen in kombinierte Land-Ozean-Produkte ein. Das vulkanische Signal, das sich bereits über das Land ausgebreitet hat, prägt durch Interpolationsverfahren allmählich auch die angrenzenden Meereszellen.

Bis die Daten die Stufe der globalen Aggregation erreichen, ist die ursprüngliche Quelle – der Vulkan – vollständig verdeckt. Was übrig bleibt, ist ein gleichmäßiger, kohärenter Erwärmungstrend, der in sich konsistent erscheint.

Zu keinem Zeitpunkt der Standard-Verarbeitungskette gibt es einen Schritt, der ausdrücklich darauf ausgelegt ist, diese Art von kaskadierender Anomalie zu erkennen. Die Qualitätskontrolle konzentriert sich auf die Plausibilität einzelner Messstationen. Die Homogenisierung konzentriert sich auf die relative Konsistenz. Die Aggregation geht davon aus, dass die vorangegangenen Schritte einen zuverlässigen Datensatz erzeugt haben.

Jeder Schritt funktioniert für sich genommen wie vorgesehen. Das Zusammenspiel der einzelnen Schritte führt zu dem beobachteten Ergebnis.

Es ist anzumerken, dass CR-VOLC-EL-INFIERNO-01 im endgültigen Datensatz nicht als Ausreißer gekennzeichnet ist. Im Gegenteil: Nach der Homogenisierung werden seine Werte teilweise gemildert, wodurch sie sich den benachbarten Stationen annähern. Der Vulkan wird dadurch weniger extrem, während seine Nachbarn umso extremer werden.

Diese Symmetrie vermittelt den Anschein von Robustheit. Der Datensatz wirkt unauffällig. Die zugrunde liegende Verzerrung ist verteilt statt konzentriert.

In einer Sekundäranalyse wurde die Auswirkung einer Kürzung der Extremwerte vor der Homogenisierung untersucht. Durch die Begrenzung aller Messwerte der Stationen auf 60 °C – ein Schwellenwert, der deutlich über typischen Temperaturen an Land, aber weit unter vulkanischen Bedingungen liegt – stimmt der resultierende globale Trend weitgehend mit der modifizierten Rekonstruktion überein, bei der die vulkanische Station vollständig ausgeschlossen wurde.

Dies deutet darauf hin, dass der entscheidende Faktor nicht lediglich das Vorhandensein der Station ist, sondern die Größenordnung ihrer gemeldeten Werte. Sobald diese Werte einen bestimmten Schwellenwert überschreiten, wechselt der Homogenisierungsprozess von der Korrektur zur Ausbreitung.

Dies hat natürlich weitreichendere Auswirkungen. Wenn eine einzelne Station unter bestimmten Bedingungen einen solchen Einfluss ausüben kann, hängt die Robustheit globaler Temperaturrekonstruktionen stark von der Wirksamkeit der Ausreißererkennung und den in den Homogenisierungsalgorithmen verankerten Annahmen ab.

All dies deutet nicht auf Vorsatz oder Fehlverhalten hin. Das System verhält sich gemäß seiner Konzeption. Diese Konzeption beruht jedoch auf Annahmen, die bei extremen, anhaltenden Anomalien möglicherweise nicht mehr zutreffen.

CR-VOLC-EL-INFIERNO-01 stellt einen besonders anschaulichen Fall dar, da die Ursache der Anomalie – ein aktiv Wärme abgebender Vulkan – eindeutig ist. Ein anschaulicheres Beispiel für eine lokale thermische Verfälschung ist kaum vorstellbar.

Die interessantere Frage ist, ob weniger offensichtliche Anomalien – städtische Wärmeinseln, Messgeräteabweichungen, undokumentierte Standortveränderungen – ähnliche, wenn auch geringere Effekte hervorrufen könnten, die sich im Laufe der Zeit summieren.

Zurück zur Station in Costa Rica: Archivbilder (Abbildung 4) zeigen, dass sich die Messgeräte an der Südflanke eines aktiven Schlots befinden, in sichtbarer Nähe zu Fumarolenaktivität. Diese Lage wäre kaum zu übertreffen, wenn das Ziel darin bestünde, die geothermische Leistung statt der Umgebungstemperatur zu messen.

Dennoch wird sie im Datensatz wie eine Station unter vielen behandelt.

Der letzte Punkt betrifft die Interpretation. Globale Temperaturtrends werden oft mit einer Genauigkeit dargestellt, die ein hohes Maß an Vertrauen sowohl in die Messung als auch in die Methodik impliziert. Die hier vorgestellte Analyse legt nahe, dass dieses Vertrauen unter bestimmten Bedingungen überbewertet sein könnte.

Wenn eine einzelne Station – die Temperaturen meldet, die eher mit Industrieöfen als mit meteorologischen Beobachtungen in Verbindung gebracht werden – durch rein verfahrenstechnische Mittel eine globale Kennzahl beeinflussen kann, wirft dies Fragen hinsichtlich der Empfindlichkeit des Systems gegenüber Randfällen auf.

Diese Fragen erfordern keine dramatischen Schlussfolgerungen. Sie rechtfertigen jedoch eine sorgfältige Prüfung.

Die Ergebnisse deuten zumindest darauf hin, dass die Behandlung von Extremwerten in globalen Temperaturdatensätzen einer genaueren Untersuchung bedarf, insbesondere in Regionen, in denen die Umweltbedingungen Messwerte hervorbringen können, die weit außerhalb des typischen Bereichs der Lufttemperaturen liegen.

Ein sinnvoller nächster Schritt wäre eine weitere Untersuchung der Häufigkeit ähnlicher Anomalien sowie der Robustheit von Homogenisierungsalgorithmen unter solchen Bedingungen.

Link: https://wattsupwiththat.com/2026/04/01/breakthrough-exposes-volcanic-corruption-of-global-temperature-data-for-50-years/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Durchbruch deckt vulkanische Verfälschung der globalen Temperaturdaten über einen Zeitraum von 50 Jahren auf erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)

☐ ☆ ✇ EIKE

Beweise gegen den „Hockeyschläger“: Antarktis im Mittelalter eisärmer – Klimaschau 255

veröffentlicht.
Vorschau ansehen

Eine im Jahr 2025 erschienene Studie in „Nature Communications“ des Teams um Jamie Wood aus Australien untersuchte den historischen sedimentären DNA-Gehalt von See-Elefanten der antarktischen Küstengebiete und kam zu dem Schluß, daß die Eisgrenze um das Jahr 1.000 erheblich weiter im Inland lag als heute. Dieses Ergebnis ist ein Hinweis auf hohe mittlere Temperaturen im Hochmittelalter und widerspricht damit der sogenannten „Hockeyschläger“-Theorie der offiziösen Klimaforschung.

Der Beitrag Beweise gegen den „Hockeyschläger“: Antarktis im Mittelalter eisärmer – Klimaschau 255 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

(Auszug von RSS-Feed)
❌