NEWS 23

🔒
❌
Stats
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Heute — 03. Februar 2026

Drohende Gasmangellage – Wette ohne Netz und doppelten Boden

03. Februar 2026 um 09:02

Vorschau ansehen

Fragt man die Bundesregierung oder die zuständige Bundesnetzagentur nach der Lage der aktuellen Gasversorgung in Deutschland, demonstrieren diese maximale Gelassenheit. Ja, die Speicher seien vergleichsweise leer, aber das sei überhaupt kein Problem, da heute – anders als zu Zeiten der „Abhängigkeit von russischem Gas“ – ja alles anders sei. Man habe heute LNG-Terminals und Importmöglichkeiten aus dem europäischen Ausland. Das ist zwar richtig. Sollte der Restwinter jedoch kalt werden, wird dies nicht reichen. Man hat die Versorgungssicherheit den Märkten überlassen und die haben einmal mehr versagt. Nun hat man ein System ohne Sicherheitspuffer. Hoffen wir, dass der Winter mild zu Ende geht und vielleicht sogar ein Umdenkprozess einsetzt. Von Jens Berger.

Dieser Artikel liegt auch als gestaltetes PDF vor. Wenn Sie ihn ausdrucken oder weitergeben wollen, nutzen Sie bitte diese Möglichkeit. Weitere Artikel in dieser Form finden Sie hier.

Wie ernst ist die Lage?

Um die Versorgungssicherheit nach Verhängung der Sanktionen gegen Gasimporte aus Russland zu gewährleisten, gilt seit dem 30. April 2022 ein „Gasspeichergesetz“, das Mindestmengen für die Befüllung der deutschen Gasspeicher festlegte. So sah die ursprüngliche Version für den 1. November einen Minimalfüllstand von 95 Prozent und für den 1. Februar 40 Prozent vor. Da Deutschland vergleichsweise gut durch den ersten – jedoch auch milden – Winter ohne größere russische Gaslieferungen kam, wurden diese Werte später teils außer Kraft gesetzt, teils gesenkt. Aktuell gelten für November unterschiedliche Zielvorgaben je nach Speichertyp (dazu später mehr) und für den 1. Februar gilt ein Zielwert von nur noch 30 Prozent. Diesen Wert haben die deutschen Speicher – wenn auch denkbar knapp – mit 31,97 Prozent trotz des in diesem Jahr vergleichsweise kalten Winters eingehalten. Besteht also kein Grund zur Sorge, wie die Bundesnetzagentur gebetsmühlenartig behauptet? Oh, doch.

Dazu zunächst die Durchschnittswerte aus dem Januar. Im Schnitt importierte Deutschland jeden Tag inkl. der LNG-Lieferungen 3.090 GWh Gas. Zum Vergleich: Im „Vorkriegswinter“ 2021/2022 waren es im Schnitt noch 2.000 GWh mehr. Die eigene Förderung ist mit 89 GWh pro Tag eher zu vernachlässigen. Im Januar haben Haushalte, Gewerbe und Industrie pro Tag im Schnitt 4.210 GWh Gas verbraucht. Zwischen Import sowie Förderung und Verbrauch gibt es also eine Differenz von etwa 1.000 GWh pro Tag. Das allein wäre kein Problem, entspricht der derzeitige Füllstand der Speicher von 31,97 Prozent doch rund 81.000 GWh, was bei gleichbleibenden Ein- und Ausspeisungen bis in den Frühling reichen würde. Deutschland importiert jedoch nicht nur Gas, es exportiert es auch – vor allem in die Länder (Tschechien, Polen, Österreich), die früher besonders viel russisches Gas bezogen, aber nun dank der Sanktionen über Deutschland aus den gleichen Quellen versorgt werden, aus denen auch Deutschland sein Gas bezieht. Die Exporte betrugen im Januar im Schnitt 858 GWh pro Tag, was die Differenz auf exakt 1.889 GWh pro Tag erhöht. Rechnet man mit dieser Zahl und gleichbleibenden Parametern, wären die deutschen Speicher am 16. März komplett leer.

In der Branche kalkuliert man übrigens mit dem 1. April als Ende des „Versorgungswinters“ – erst dann können bei „normalem Wetter“ die Speicher wieder gefüllt werden, weil weniger verbraucht als ins Netz eingespeist wird. Mit anderen Worten: Wenn die nächsten Wochen genau so kalt wie der Januar werden und keine Verbraucher vom Netz getrennt werden, reichen die Gasvorräte nicht aus, um eine Versorgung bis zum Ende des Winters zu gewährleisten.

Was ist von den beschwichtigenden Erklärungen der Regierung zu halten?

Nun heißt es seitens Regierung und Behörden aber, dass die Annahme, die Parameter seien konstant, nicht zutreffend sei. Die Bundesnetzagentur schreibt dazu Folgendes:

Die Versorgungslage hat sich in den vergangenen Jahren verändert. Deutschland verfügt über unterschiedliche Importmöglichkeiten. Gasmengen können über Pipelines (insb. aus Norwegen) sowie über LNG-Terminals importiert werden. Außerdem hat Deutschland in den vergangenen Jahren die Gasflüsse von einem sogenannten Ost-West-Fluss auf einen Nord/West-Ost-Fluss umgestellt, sodass weitere Importmöglichkeiten über Frankreich und Belgien erschlossen worden sind. Deutschland ist eng in das europäische Gasverbundsystem integriert, was flexible Gastransporte ermöglicht. Der europäische Energiebinnenmarkt ist entscheidend für die Versorgungssicherheit mit Gas. Die grenzüberschreitende Zusammenarbeit funktioniert sehr gut.

Gehen wir die Punkte doch einmal durch. Fangen wir mit den Importmöglichkeiten an. Richtig ist, dass Norwegen in den letzten Jahren Russland als mit Abstand größter Gaslieferant für den deutschen Markt ersetzt hat, und richtig ist auch, dass die vorhandenen Pipelines große Importmengen gewährleisten. Laut Planungsunterlagen sind dies max. 1.537 GWh pro Tag. Das entspricht den russischen „Vorkriegslieferungen“. Das Problem: Diese Maximalkapazität wird bereits jetzt voll ausgereizt. Allein Deutschland bezog im Januar im Schnitt 1.359 GWh pro Tag aus Norwegen. Die genaue Zahl, wie hoch der Anteil norwegischen Gases bei den Mengen ist, die Deutschland rechnerisch exportiert, bei denen wir also nur Transitland sind, ist nicht exakt in Erfahrung zu bringen. Jedwede Puffer gibt es hier jedoch nicht.

Derzeit liefert Norwegen bereits so viel Gas, wie bei bestehender Infrastruktur möglich ist. Sollte es übrigens Probleme auf den norwegischen Feldern oder an den Pipelines geben, wäre dies auch ohne Wetterverschärfung eine einzige Katastrophe. Heißt es doch, Deutschland sei früher abhängig von russischem Gas gewesen, muss es heute heißen, Deutschland ist ohne Wenn und Aber abhängig von norwegischem Gas. Es existieren keine Puffer und Alternativen in dieser Größenordnung. Ganz ähnlich sieht es übrigens mit den übrigen Lieferanten für Pipelinegas aus. Auch die Leitungen aus den Niederlanden und Belgien sind an bzw. kurz vor der technischen Maximalauslastung.

Wie sieht es mit den anderen Ländern aus? Es müssen ja nicht zwingend „frisch“ geförderte Gasmengen sein. Im Spannungs- oder gar Notfall könnte Deutschland ja auch Gas aus den Speichern seiner Nachbarn beziehen. Das stimmt. Für die Niederlande und Belgien gilt jedoch, dass es dafür nicht nur keine Leitungskapazitäten gibt, sondern dass die beiden Länder auch mit 25 bzw. 31 Prozent ähnlich niedrige Füllstände wie Deutschland aufweisen. Frankreich ist übrigens auch keine echte Alternative, sind dort die Speicher mit 30 Prozent doch ähnlich leer und hinzu kommt, dass Frankreich ohnehin nur ein geringes Speichervolumen hat. Polen hat auch nur vergleichsweise geringe Speicher, die jedoch mit 64 Prozent erstaunlich voll sind. Kein Wunder, das Gas fließt ja auch in der umgekehrten Richtung von Deutschland nach Polen. Ist eine „Rückwärtsversorgung“ möglich? Technisch ja, politisch ist das wohl eher unwahrscheinlich. Bleiben zwei Länder, die vergleichsweise große Speicher haben, die zudem zurzeit auch gut gefüllt sind – Österreich (45 Prozent) und Italien (57 Prozent), die in Summe rund doppelt so viel Gas wie Deutschland gespeichert haben. Das Problem ist hier jedoch, dass es keine ausreichenden Leitungskapazitäten für eine Versorgung Deutschlands aus dem Süden gibt. Über den „Hochleistungsimportpunkt“ Oberschlauersberg könnte Deutschland theoretisch maximal 144 GWh pro Tag aus Österreich oder Italien importieren. Das könnte für die südlichen Teile Bayern als Notversorgung reichen – mehr aber auch nicht.

Kommen wir zum LNG und damit zum großen Fragezeichen. Korrekt ist, dass es beim LNG-Import zumindest auf dem Papier in der Tat noch freie Reserven gibt. Rein theoretisch könnte Deutschland rund 1.000 GWh LNG pro Tag einspeisen, zurzeit sind es „lediglich“ rund 400 GWh. Die große Frage ist hierbei jedoch, wo dieses Gas herkommen soll. Weltweit sind die großen LNG-Lieferströme über Festverträge oder Warentermingeschäfte bereits lange im Voraus gebucht. Zusätzliche Mengen könnte man sicher zu Mondpreisen auf dem Spotmarkt kaufen – bis die Tanker an den Terminals in Nord- und Ostsee ankommen, könnte dies jedoch zu spät sein. Da die Umwandlung von Flüssiggas in gasförmiges Erdgas zudem bei niedrigen Außentemperaturen weniger effizient ist, stellt sich die Frage, wie hoch die realistische Maximaleinspeisung überhaupt ist. In jüngerer Vergangenheit konnten an keinem Tag mehr als 510 GWh eingespeist werden. Realistisch ist hier also ein Puffer nicht mehr als maximal 200 GWh vorstellbar. Das würde im oben genannten Szenario das Leerlaufen der Speicher aber auch nur um ein paar Tage hinauszögern.

Der „grenzüberschreitende“ Gashandel, auf den die Bundesnetzagentur so stolz verweist, ist nun einmal für den Normalzustand ausgelegt. Um mitten im Winter unabhängig von den Speichern die Volkswirtschaft zu versorgen, reichen die Kapazitäten hier nicht einmal im Ansatz.

Wovon die Behörden nicht sprechen

Mindestens ebenso spannend wie die vagen, teils unzutreffenden Aussagen der Bundesnetzagentur ist das, was sie nicht sagt. Implizit suggeriert man bei der Thematik ja immer, dass die Speicher im Notfall tatsächlich bis zum letzten Kubikmeter Gas geleert werden können. Doch das ist technisch gar nicht möglich. In Deutschland gibt es Kavernen- und Porenspeicher. Sind erstere relativ unproblematisch, sind Porenspeicher nicht dafür konzipiert, in akuten Kältewellen sehr schnell sehr große Mengen Gas abzugeben. Hinzu kommt, dass die Abgabeleistung mit fallendem Füllstand sinkt. Man kann sich das so vorstellen: Je niedriger der Füllstand, desto niedriger der Druck in einem Porenspeicher, desto niedriger die maximale Entnahmeleistung. In Studien wird hier eine Grenze bei einem Füllstand von rund 20 Prozent genannt – ist der Füllstand unter dieser Marke, kann das Gas nur noch sehr langsam abgegeben werden.

Dumm nur, dass sowohl in Deutschland als auch bei unseren Nachbarn die größten Speicher eben jene Porenspeicher sind. Der größte deutsche Speicher ist das UGS Rehden und hat derzeit einen Füllstand von 9,41 Prozent. Mehr als rund 0,2 Prozent lassen sich den Daten zufolge derzeit aus diesem Speicher nicht entnehmen. Der größte Speicher Europas ist das UGS Bergermeer, der derzeit bei 26,41 Prozent steht, sich aber täglich zwischen 0,5 und 1,0 Prozent leert, also bereits in wenigen Tagen nicht mehr mit voller Leistung ins Netz einspeisen kann.

Wenn also der Gasverbrauch auch in den nächsten Tagen und Wochen deutlich über den Importen liegt, dürfte dies auch dazu führen, dass die leistungsfähigeren Kavernenspeicher einen Großteil der Differenz ausgleichen und sich dementsprechend schnell leeren könnten. Der Gasnotstand – also der Tag, an dem der Verbrauch nicht mehr durch Einspeisungen ins Netz gewährleistet werden kann – könnte also bereits lange vor dem Tag kommen, an dem alle Speicher physisch leer sind.

Was sind die Gründe für die prekäre Lage?

Ein flexibles Versorgungsnetz mit vielen unterschiedlichen Importoptionen – das hört sich doch gut an. Und den Rest erledigen die Märkte. Prima. In der Theorie ist das auch so. Die Gasversorgungsinfrastruktur ist aber speziell. Wie oben dargelegt reichen die Kapazitäten in der Heizperiode im Winter nicht aus, um den Verbrauch synchron durch die Gasimporte zu decken. Man muss also in den warmen Jahreszeiten Vorräte einbunkern, die in den kalten Jahreszeiten die Differenz ausgleichen. Privatwirtschaftliche Akteure machen das freilich nur, wenn es sich rechnet. Und genau das war in den letzten Jahren mit ihren recht milden Wintern nicht der Fall. Angebot und Nachfrage.

Hinzu kommt, dass die Gasabnahme sich durch die Energiewende verändert hat. Deutschland ist raus aus dem Atomstrom und hat die Kohlestromkapazitäten zurückgefahren. Gaskraftwerke haben nun die wichtige Funktion, vor allem nachts und bei wenig Wind die Lücken zu füllen, die Photovoltaik und Windenergie aufreißen. Das ist ja technisch auch machbar, hat jedoch Folgen für den Gaspreis. Durch die vor allem durch die Stromerzeugung geänderten Abnahmeprofile für Gas ist in den letzten Jahren das „klassische Geschäftsmodell“ der Unternehmen weggefallen, die Gas einspeichern. Im Sommer ist das Gas heute nicht mehr so preiswert, in milden Wintern nicht mehr so teuer. Die Folge: Da das Geschäft nicht mehr so lukrativ ist, speichert man halt weniger Gas ein. Und was hat die Regierung gemacht? Sie hat die einst recht restriktiven Richtlinien aufgeweicht und aus den gesetzlichen Mindestvorgaben lasche Zielwerte gemacht.

Es kam, wie es kommen musste. Zu Beginn der Heizperiode im November waren die deutschen Speicher nicht wie sonst mit 90 Prozent, sondern nur mit 75 Prozent gefüllt. Diese 15 Prozent machen nun den Unterschied. Offenbar hat man zudem die eigenen Prognosen zum Klimawandel ein wenig zu ernst genommen und mit einem viel zu milden Szenario gerechnet.

Wie wahrscheinlich ist die Mangellage?

Auch wenn der Winter bislang vergleichsweise kalt war, ist es immer noch möglich, dass die Mangellage ausbleibt. Studien rechnen hier mit verschiedenen Szenarien und benennen dabei drei Risikofaktoren: Das bereits erwähnte Problem mit den Porenspeichern, technische Probleme bei der Infrastruktur und natürlich das Wetter. Wäre der Rest des Winters – wie z.B. 2020 – außergewöhnlich warm, wären keine Probleme zu erwarten und es gäbe sogar noch Puffer. Bleiben Februar und März im langjährigen Mittel, kommen wir – wenn auch nur knapp – mit dem Gas durch den Restwinter, es bestehen jedoch keine Sicherheitspuffer, auf die das System eigentlich ausgelegt sein sollte. Sollten Februar und März allerdings – wie z.B. 2010 – außergewöhnlich kalt werden, tritt die Gasmangellage vor Ende der Heizsaison ein.

Für ein solches Szenario gibt es freilich Pläne. Zunächst wird – vereinfacht gesagt – die Schwerindustrie vom Netz genommen. Dann werden die Exporte gestoppt – sollen doch die Österreicher und die Tschechen frieren. Erst wenn gar nichts mehr geht, kommt es auch zu Einschränkungen bei der Versorgung der Haushalte.

Offen ist jedoch ein weiterer Punkt. Der Januar 2026 zeichnete sich auch dadurch aus, dass noch nie so viel Gas zur Stromproduktion eingesetzt wurde. Das ist sogar verständlich, scheint im Januar doch wenig Sonne. Das wird in der gesamten Debatte erstaunlicherweise kaum bedacht. Was passiert also, wenn es in den nächsten Wochen nicht nur kalt wird, sondern auch dunkel bleibt und der Wind nur schwach weht? Das wäre dann wohl die „perfekte Kombination“ für eine Versorgungskrise, bei der nicht nur die Gasheizung, sondern auch flächendeckend die Stromversorgung Probleme bekommen könnte.

Krise ante portas. Doch freilich muss es nicht dazu kommen. Wenn das Wetter sich in den nächsten Tagen und Wochen verbessert, die Sonne scheint und der Wind weht, werden wir aus der selbstverschuldeten Krise noch einmal mit einem blauen Auge herauskommen. Wird die Politik dann auch ihre Lehren daraus ziehen? Die derzeitige Kommunikation legt den Verdacht nahe, dass dies nicht so sein wird. Man redet die Gefahr klein und tut gerade so, als gäbe es gar kein Szenario, in dem es zu einer Mangellage kommen könnte. Denn dann wäre die Strategie, alles den Märkten zu überlassen, ja nicht mehr haltbar. Der Staat müsste selbst aktiv werden und womöglich käme sogar jemand auf die „dumme Idee“, einmal die Frage zu stellen, ob die Sanktionen gegen Russland nicht einmal hinterfragt werden sollten. Denn eins steht fest: Hätten wir die 1.500 GWh pro Tag, die vor den Sanktionen noch flossen, heute zumindest als Option, hätten wir auch keine drohende Gasmangellage. Die Politik ignoriert das, der Wähler muss wohl erst daheim frieren, bis er die Brisanz der Thematik wirklich versteht. Vielleicht ist es aber auch die Industrie, die nun die Alarmglocken schlägt. Denn sie wird als Erstes betroffen sein, sollte es kalt bleiben, und Gas und womöglich auch Strom rationiert werden.

Titelbild: Mike Mareen/shutterstock.com

(Auszug von RSS-Feed)
Ältere Beiträge

Teenager-Suizid nach Chatbot-Interaktionen – wenn ein Gespräch mit KI nicht mehr harmlos ist

24. Januar 2026 um 11:00

Vorschau ansehen

Die Politik hat es versäumt, bei Künstlicher Intelligenz klare Regeln für sensible Einsatzbereiche einzuführen: Minderjährige, psychisch vulnerable Personen, emotionale Interaktion – all das wurde dem Markt überlassen. Der aktuelle Fall „Raine gegen OpenAI“ wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Von Günther Burbach.

Der Fall, der im Sommer 2025 unter dem Namen Raine v. OpenAI öffentlich wurde, ist kein technisches Missgeschick und kein Randphänomen. Er markiert einen Punkt, an dem sich eine abstrakte KI-Debatte in eine reale, brutale Frage verwandelt hat: Was passiert, wenn Menschen beginnen, Maschinen als emotionale Gegenüber zu behandeln und diese Maschinen nicht wissen, wann sie schweigen müssen?

Im Zentrum steht ein 16-jähriger Jugendlicher aus Kalifornien. Laut der von den Eltern eingereichten Klageschrift hatte der Junge über längere Zeit Gespräche mit einem KI-System geführt, das auf einem großen Sprachmodell basierte. Die Gespräche drehten sich zunehmend um existentielle Fragen, Einsamkeit, Sinnlosigkeit und suizidale Gedanken. Der Vorwurf der Eltern ist schwerwiegend: Das System habe nicht deeskaliert, nicht gebremst, sondern den inneren Monolog des Jugendlichen bestätigt, strukturiert und vertieft. Am Ende stand der Suizid.

Juristisch ist der Fall heikel, gesellschaftlich ist er explosiv. Denn er wirft keine Frage nach „Fehlbedienung“ auf, sondern nach systemischem Versagen. Nicht, weil eine KI „böse“ wäre, sondern weil sie nicht dafür gebaut ist, Verantwortung zu tragen und dennoch in genau diese Rolle gerät.

Was diesen Fall von früheren Debatten unterscheidet, ist die Nähe. Es geht nicht um autonome Waffensysteme oder ferne Zukunftsvisionen. Es geht um einen Jugendlichen in einem Kinderzimmer, ein digitales Gesprächsfenster und eine Maschine, die rund um die Uhr verfügbar ist. Kein Lehrer, kein Therapeut, kein Freund, sondern ein System, das antwortet, ohne zu fühlen, ohne zu haften, ohne zu verstehen, was es auslöst.

Nach bisherigen öffentlich bekannten Informationen hat das KI-System keine direkten Anweisungen gegeben. Es hat nicht „aufgefordert“. Der Kern des Vorwurfs liegt woanders: in der Verstärkung, im Spiegeln, im scheinbaren Ernstnehmen von Gedanken, die eigentlich einen Abbruch, ein Warnsignal, eine Weiterleitung hätten auslösen müssen. Genau hier wird es gefährlich. Denn moderne Sprachmodelle sind darauf trainiert, kohärent, empathisch und anschlussfähig zu reagieren. Sie widersprechen selten frontal. Sie führen Gespräche weiter.

Für einen psychisch stabilen Erwachsenen mag das harmlos sein. Für einen Jugendlichen in einer akuten Krise kann genau das fatal sein.

Die Eltern argumentieren, dass das System in einer Situation eingesetzt wurde, für die es weder geeignet noch ausreichend abgesichert war. Sie werfen OpenAI vor, bekannte Risiken in Kauf genommen zu haben, insbesondere bei Minderjährigen. Der Vorwurf ist nicht, dass KI existiert, sondern dass sie ohne klare Schutzmechanismen in einen Raum gelassen wurde, in dem sie reale psychologische Wirkung entfaltet.

Der Fall ist deshalb so brisant, weil er die gängige Verteidigung der Tech-Industrie unterläuft. Lange hieß es: KI sei nur ein Werkzeug. Verantwortung liege beim Nutzer. Doch was ist ein „Nutzer“, wenn es sich um einen 16-Jährigen handelt? Was bedeutet Eigenverantwortung, wenn ein System so gestaltet ist, dass es Nähe simuliert, Dialog anbietet und Verlässlichkeit ausstrahlt?

Gerichte werden klären müssen, ob und in welchem Umfang Anbieter haften. Gesellschaftlich aber ist die Frage bereits da, und sie lässt sich nicht wegregulieren: Wenn Maschinen sprechen wie Menschen, müssen sie auch Grenzen haben wie Menschen.

Die gefährliche Illusion der harmlosen Maschine

Der Fall Raine v. OpenAI zeigt nicht nur ein individuelles Drama. Er legt ein strukturelles Problem offen, das weit über diesen Einzelfall hinausgeht. Denn er macht sichtbar, wie sehr sich die Rolle von KI verändert hat, nicht technisch, sondern sozial. Sprachmodelle sind längst keine Werkzeuge mehr im klassischen Sinn. Sie sind Beziehungsmaschinen geworden.

Das Gefährliche daran ist nicht ihre „Intelligenz“, sondern ihre Verfügbarkeit und Anpassungsfähigkeit. Eine KI ist immer da. Sie widerspricht nicht aus Müdigkeit. Sie zieht sich nicht zurück. Sie setzt keine natürlichen Grenzen. Gerade für Menschen in Krisen entsteht so ein Raum, der wie ein Gespräch wirkt, aber kein Gegenüber kennt.

Dieser Effekt ist bekannt und er ist erforscht. Menschen neigen dazu, sozialen Mustern zu folgen, selbst wenn sie wissen, dass sie mit Maschinen interagieren. Sprache erzeugt Bedeutung. Bedeutung erzeugt Bindung. Bindung erzeugt Vertrauen. In diesem Moment verschiebt sich die Verantwortung, nicht juristisch, aber faktisch.

Der Fall zeigt auch, wie unzureichend bisherige Sicherheitslogiken sind. Content-Filter, Warnhinweise und Nutzungsbedingungen reichen nicht aus, wenn ein System emotional resonant arbeitet. Es geht nicht darum, einzelne Wörter zu blockieren, sondern darum, Kontexte zu erkennen. Und genau das können heutige Systeme nur sehr begrenzt, trotz aller Fortschritte.

Noch problematischer ist der gesellschaftliche Umgang mit diesen Risiken. Während bei Medikamenten, Fahrzeugen oder Spielzeug strenge Prüfungen gelten, werden KI-Systeme mit potenziell massiver psychologischer Wirkung in den Alltag entlassen, oft mit dem Verweis auf Eigenverantwortung. Das ist ein gefährlicher Kurzschluss. Denn psychische Wirkung ist keine Nebensache. Sie ist real, messbar und, wie dieser Fall zeigt, potenziell tödlich.

Was hier sichtbar wird, ist ein Regulierungsdefizit, das nicht technischer, sondern politischer Natur ist. Die Politik hat KI lange als Innovationsfrage behandelt, nicht als gesellschaftliche Infrastruktur. Entsprechend fehlen klare Regeln für sensible Einsatzbereiche. Minderjährige, psychisch vulnerable Personen, emotionale Interaktion, all das wurde dem Markt überlassen.

Der Fall wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Wenn KI-Anbieter Systeme entwickeln, die Nähe simulieren, dann können sie sich nicht hinter der Formel „nur ein Tool“ verstecken. Nähe ist keine neutrale Funktion. Sie erzeugt Wirkung.

Noch gravierender ist der Blick nach vorn. Denn was heute Chatbots sind, werden morgen KI-Begleiter, digitale Coaches, therapieähnliche Systeme sein. Erste Start-ups arbeiten bereits an KI-gestützter psychologischer Unterstützung, oft mit besten Absichten, aber ohne klare Haftungsregeln. Der Fall Raine ist ein Vorbote dessen, was passieren kann, wenn diese Entwicklung ungebremst weitergeht.

Dabei geht es nicht um Technikfeindlichkeit. Es geht um Verantwortung. KI kann unterstützen, informieren, entlasten. Aber sie darf nicht in Rollen gedrängt werden, die sie nicht tragen kann. Eine Maschine kennt keinen Tod, keine Verzweiflung, keine irreversible Entscheidung. Sie kann Worte aneinanderreihen, aber sie kann nicht begreifen, was sie auslöst.

Der vielleicht wichtigste Aspekt dieses Falls ist deshalb ein gesellschaftlicher Lernmoment. Er zeigt, dass wir uns von der Vorstellung verabschieden müssen, KI sei neutral, solange sie keinen physischen Schaden anrichtet. Psychische Wirkung ist reale Wirkung. Und sie verlangt nach klaren Regeln.

Was noch passieren könnte, liegt auf der Hand. Mehr Fälle, mehr Klagen, mehr Einzelschicksale. Nicht, weil KI „entgleist“, sondern weil sie eingesetzt wird, ohne dass ihre soziale Rolle ernst genommen wird. Wenn Politik weiter zusieht, wird sie sich irgendwann nicht mehr fragen lassen müssen, ob sie reguliert, sondern warum sie es nicht getan hat, als die Warnzeichen längst sichtbar waren.

Vom Einzelfall zur systemischen Gefahr

Der Fall Raine v. OpenAI wird juristisch geklärt werden. Es wird Gutachten geben, Schriftsätze, Vergleichsangebote, vielleicht ein Urteil. Doch selbst wenn der konkrete Rechtsstreit irgendwann abgeschlossen ist, bleibt das eigentliche Problem bestehen. Denn dieser Fall ist kein Ausreißer, sondern ein Vorläufer. Er zeigt, in welche Richtung sich KI-Systeme bewegen und wo die nächste Eskalationsstufe liegt, wenn Politik und Gesellschaft weiter zögern.

Die entscheidende Entwicklung ist dabei nicht die technische Leistungsfähigkeit, sondern die soziale Funktion, die KI zunehmend übernimmt. Sprachmodelle werden nicht mehr nur befragt, sie werden angesprochen. Sie sind nicht mehr nur Werkzeuge, sondern Gegenüber. Genau hier beginnt die Zone, in der klassische Haftungs- und Verantwortungslogiken versagen.

Denn was passiert, wenn KI künftig gezielt als Begleiter vermarktet wird? Wenn sie Einsamkeit lindern, psychische Unterstützung bieten oder „emotionale Stabilität“ fördern soll? Diese Entwicklung ist keine Spekulation, sie ist bereits im Gange. Start-ups arbeiten an KI-Coaches, KI-Therapie-Tools, KI-Freunden. Plattformen testen Funktionen, die langfristige Beziehungen simulieren. Der Markt dafür ist riesig und die gesellschaftliche Versuchung ebenso.

Was im Fall Raine noch als ungewollte Nebenwirkung erscheint, könnte dann zum Geschäftsmodell werden. Nähe, Vertrauen und emotionale Bindung lassen sich monetarisieren. Je länger Nutzer bleiben, je intensiver sie interagieren, desto wertvoller wird das System. In diesem Moment kollidieren wirtschaftliche Interessen direkt mit Schutzpflichten. Wer reguliert, wenn Nähe Profit bringt?

Besonders brisant ist dabei die Rolle von Minderjährigen. Jugendliche sind neugierig, experimentierfreudig, emotional verletzlich. Sie suchen Orientierung, Anerkennung, Verständnis. KI-Systeme können all das simulieren, ohne echte Verantwortung zu tragen. Wenn solche Systeme ohne klare Altersgrenzen, Schutzmechanismen und externe Aufsicht eingesetzt werden, entsteht ein Risiko, das sich nicht mehr auf Einzelfälle begrenzen lässt.

Die nächste Eskalationsstufe ist absehbar: KI wird nicht nur begleiten, sondern raten, strukturieren, priorisieren. Sie wird nicht nur zuhören, sondern Handlungsvorschläge machen. Vielleicht gut gemeint, vielleicht statistisch plausibel, vielleicht sprachlich vorsichtig, aber dennoch wirksam. Und dann stellt sich die Frage, die der Fall Raine bereits andeutet: Wer trägt die Verantwortung, wenn diese Wirkung fatal ist?

Selbstregulierung der Industrie wird hier nicht ausreichen. Dafür sind die Anreize falsch gesetzt. Sicherheit kostet Geld, Wachstum bringt Rendite. Plattformen optimieren auf Engagement, nicht auf Fürsorge. Das ist kein moralischer Vorwurf, sondern eine ökonomische Tatsache. Wer glaubt, dass Unternehmen freiwillig auf profitable Funktionen verzichten, ignoriert die Logik des Marktes.

Politik steht deshalb vor einer Entscheidung, die sie nicht länger vertagen kann. Entweder sie behandelt KI weiterhin als Innovationsprojekt, oder sie erkennt sie als gesellschaftliche Infrastruktur mit Schutzpflichten. Das würde bedeuten: klare Haftungsregeln, besondere Schutzstandards für vulnerable Gruppen, verpflichtende Notfallmechanismen, unabhängige Aufsicht – nicht als Feigenblatt, sondern als Voraussetzung für den Einsatz.

Dabei geht es nicht um ein Verbot von KI. Es geht um Grenzen. Kein Medikament darf ohne Zulassung verkauft werden, kein Auto ohne Sicherheitsprüfung auf die Straße, kein Spielzeug ohne Schadstofftest in Kinderhände. Dass ausgerechnet Systeme mit potenziell massiver psychologischer Wirkung bislang weitgehend unreguliert bleiben, ist ein politisches Versäumnis.

Der Fall Raine zeigt zudem ein tiefer liegendes gesellschaftliches Problem: die Delegation von Beziehung. In einer Gesellschaft, die immer weniger Zeit, immer weniger soziale Räume und immer weniger institutionelle Unterstützung bietet, wird KI zur Ersatzstruktur. Sie füllt Lücken, die Politik und Gesellschaft hinterlassen haben. Das macht sie attraktiv und gefährlich zugleich.

Wenn diese Entwicklung nicht gestoppt oder zumindest eingehegt wird, wird die nächste Debatte nicht lauten, ob KI gefährlich ist. Sie wird lauten, warum niemand eingegriffen hat, als die Warnzeichen längst sichtbar waren. Der Preis wird nicht in Innovationshemmnissen gemessen, sondern in realen Schicksalen.

Der Fall Raine v. OpenAI ist deshalb mehr als eine Klage. Er ist ein Warnsignal. Er zeigt, dass die Grenze zwischen technischer Unterstützung und menschlicher Verantwortung überschritten werden kann, leise, unbeabsichtigt, aber mit irreversiblen Folgen. Wer ihn als Einzelfall abtut, verkennt, was hier auf dem Spiel steht.

KI verändert nicht nur Arbeitsprozesse und Märkte. Sie greift in Beziehungen ein, in Identität, in Entscheidungen über Leben und Tod. Eine Gesellschaft, die das ignoriert, verliert nicht nur die Kontrolle über Technologie, sondern über sich selbst.

Quellen:

Titelbild: VALUA VITALY / Shutterstock

(Auszug von RSS-Feed)

Mit Volldampf in die Wohnungskatastrophe

20. Januar 2026 um 08:00

Vorschau ansehen

Dass es in Deutschland massive Probleme bei der Versorgung großer Teile der Bevölkerung mit angemessenem und bezahlbarem Wohnraum gibt, ist nun wahrlich keine Neuigkeit. Mit Studien und Berichten zu den Folgen der sich stetig verschärfenden Wohnraumkrise wird die Öffentlichkeit nahezu geflutet. Im Fokus stehen dabei oftmals der rasante Anstieg der Obdach- und Wohnungslosigkeit, die Rolle von explodierenden Mieten vor allem in Großstädten und Ballungszentren bei der Armutsentwicklung oder das Versagen der herrschenden Politik, die trotz der vielen Fördermilliarden für den Wohnungsbau offensichtlich keinen Plan hat, wie diese Krise bewältigt werden kann. Wobei: Pläne gibt es genug, doch das sind eher plakative Schnellschüsse ohne Substanz, wie etwa Straffung der Planungsverfahren und „Entschlackung” des Baurechts („Bau-Turbo”). Von Rainer Balcerowiak.

Dieser Beitrag ist auch als Audio-Podcast verfügbar.

Vor einigen Tagen wurde eine weitere Studie mit dem Titel „Sozialer Wohn-Monitor 2026 – Wohnungsmarktsituation, Wohnungsbedarfe, sozialer Wohnungsbau” veröffentlicht, die sich auf der Basis detaillierter und auch regional aufgeschlüsselter Statistiken der Wohnungskrise vergleichsweise ganzheitlich widmet. Beauftragt wurde sie vom „Verbändebündnis Soziales Wohnen”, in dem sich u.a. der Deutsche Mieterbund, die IG BAU, die Caritas und mehrere Fachverbände der Bauindustrie zusammengeschlossen haben. Erstellt wurde sie vom Pestel-Institut, einem seit vielen Jahren etablierten wissenschaftlichen Dienstleister für Kommunen und Verbände.

Die Studie kommt zu dem Ergebnis, dass in Deutschland aktuell insgesamt 1,4 Millionen Wohnungen fehlen, vor allem im unteren und mittleren Preissegment. Zentraler Faktor ist dabei die manifeste Wohnungslosigkeit, die eben nicht nur die „sichtbaren” Obdachlosen umfasst, sondern auch jene rund eine Million Menschen, die ohne reguläres Mietverhältnis behördlich oder informell untergebracht sind. Betroffen davon sind auch rund 150.000 Kinder und Jugendliche. Weitere Faktoren für den tatsächlichen Wohnungsmangel sind Überbelegung und Armutsgefährdung durch einen extrem hohen Anteil der Mietkosten am verfügbaren Einkommen. Besonders davon betroffen – und das mit steigender Tendenz – sind Menschen im Ruhestand mit niedrigen Renten. Viele „Baby-Boomer” haben Phasen von Arbeitslosigkeit hinnehmen und für Niedriglöhne arbeiten müssen und sehen sich daher im Rentenalter mit einer Überlastung bei den Ausgaben für das Wohnen konfrontiert.

Parameter für den Wohnungsbedarf wurden ignoriert

Das wird insbesondere in Ballungszentren zum Problem: Vor allem in strukturstarken Regionen – also in angespannten Wohnungsmärkten mit hohen Mieten – können sich immer mehr Ältere ihre bisherige Wohnung nicht mehr leisten. Als Folge werden die Ausgaben des Staates für die Subjektförderung – also die Unterstützung bei den Wohnkosten – deutlich steigen. So ist die Zahl der Empfänger von Grundsicherung im Alter, die auch die – allerdings gedeckelte – Übernahme von Wohnkosten beinhaltet, von 2009 bis 2024 von 400.000 auf 739.000 gestiegen. Dagegen ist – was in der Debatte über das Bürgergeld in der Regel verschwiegen wird – in diesem Zeitraum die Zahl der Grundsicherungsempfänger im erwerbsfähigen Alter von 6,5 auf 5,4 Millionen gesunken.

Als weitere in besonderem Maße von der Wohnungsknappheit betroffene Gruppe werden junge Erwachsene, die sich in der Ausbildung befinden, benannt. So berichten immer mehr Unternehmen und Verbände, dass sie Lehrstellen nicht besetzen können, weil auch geeignete und interessierte Bewerber schlicht keine bezahlbare Wohnung finden. Und Studierendenhaushalte geben im Schnitt 53 Prozent ihres Einkommens für die Wohnkosten aus. Dazu kommen besonders benachteiligte Gruppen wie Menschen mit körperlichen oder psychischen Handicaps, die schon heute auf dem Wohnungsmarkt diskriminiert werden und bei der Vergabe von Wohnungen oft chancenlos sind.

Die Wohnungsmarktlage ergibt sich letztlich aus dem Zusammenspiel von Bevölkerungs- und Wohnungsbestandsentwicklung sowie dem Haushaltsbildungsverhalten. Über die gesamte Nachkriegsgeschichte hinweg hat sich insgesamt eine stetige Verkleinerung der privaten Haushalte ergeben, was sich vor allem aufgrund der demografischen Entwicklung auch fortsetzen wird. In der Zeit zwischen 1995 bis 2009 ging der Wohnungsbau dann kontinuierlich zurück, von 600.000 auf zuletzt nur noch 160.000 Wohnungen pro Jahr. In diesen anderthalb Dekaden wurden insgesamt 5,2 Millionen Wohnungen gebaut. Dabei erfasst sind auch Einfamilienhäuser – die in einigen Jahren über 60 Prozent des Baugeschehens ausmachten – sowie Ersatzbauten für bereits zuvor bestehenden Wohnraum. Es gab es allerdings auch nur eine relativ geringe Nettozuwanderung von insgesamt rund 860.000 Menschen, sodass man von einem einigermaßen „entspannten” Wohnungsmarkt sprechen kann, auch wenn es erhebliche Ausreißer in einigen Städten und Regionen gab.

Doch dann kam der große Bruch. In den 14 Jahren von 2011 bis 2024 wurden bei einem Wanderungsgewinn von rund 6,2 Millionen Personen knapp vier Millionen Wohnungen gebaut.

Trotz der starken Zuwanderung stieg die Zahl der Wohnungsfertigstellungen in der Spitze lediglich auf gut 300.000 Wohnungen im Jahr 2020. Nach einer kurzen Stagnationsphase wurden im Jahr 2024 dann gegenüber dem Vorjahr sogar gut 14 Prozent weniger Wohnungen gebaut, und für das Jahr 2025 liegen die Erwartungen mit 210.000 bis 230.000 Wohnungen nochmals niedriger. Und die Entwicklung der Baugenehmigungen lässt für 2026 und 2027 keine Steigerung der Wohnungsfertigstellungen erwarten. Auf der anderen Seite ist laut der Studie davon auszugehen, dass es bis 2030 bis zu 1,5 Millionen neue Haushalte geben wird.

Verharren in der marktwirtschaftlichen Logik

Die dramatische Zuspitzung der Wohnungskrise erfolgt jetzt also quasi mit Ansage, zumal ein weiterer Faktor zum Tragen kam und kommt. Das knapper werdende Angebot führt in der „freien Marktwirtschaft” natürlich zu entsprechenden Verteuerungen des Angebots. Dem könnte der Staat entgegenwirken, indem er sowohl im Bestand als auch beim Neubau auf ein wachsendes Segment dauerhaft mietpreis- und belegungsgebundener Wohnungen setzt. Hat er aber nicht gemacht – im Gegenteil: Da das System „Sozialer Wohnungsbau” darauf basiert, dass die geförderten Wohnungen nach 15 bis 20 Jahren aus der Mietpreis- und Belegungsbindung in den „freien Markt” entlassen werden, und das durch geförderten Neubau nicht kompensiert wird, ist der Bestand an Sozialwohnungen stetig gesunken, und zwar binnen zehn Jahren um 500.000 Einheiten auf nur noch 1,05 Millionen. Und auch in den kommenden Jahren werden es stetig weniger werden.

Auf der anderen Seite hätte rund die Hälfte der 23 Millionen Mieterhaushalte in Deutschland Anspruch auf einen Wohnberechtigungsschein, also ein – theoretisches – Anrecht auf den Bezug einer geförderten Sozialwohnung. Um das Wohnungsdefizit bis 2030 abzubauen, wäre es laut der Studie erforderlich, gut 400.000 Wohnungen pro Jahr neu zu bauen und die Zahl der Sozialwohnungen bundesweit mindestens zu verdoppeln – auf zwei Millionen. Selbst dann wäre der tatsächliche Bedarf an Sozialwohnungen noch bei Weitem nicht erreicht:

So eindrucksvoll und hilfreich die Studie bei der umfassenden Analyse der Wohnraumkrise auch ist – bei den Lösungsvorschlägen entfernt sich das „Verbändebündnis Soziales Wohnen” kaum von der desaströsen marktwirtschaftlichen Grundkonstruktion: Mehr und schneller Geld für die Neubauförderung, verstärkter Ankauf von Belegungsrechten nach Wegfall der Sozialbindung von Wohnungen und darüber hinaus auch bei anderen Vermietern wie etwa großen, börsennotierten Immobilienkonzernen.

Also letztendlich friedliche Koexistenz mit den Profiteuren der Wohnungskrise. Und kein Wort von weitgehenden, gesetzlichen Mietenregulierungen, oder der Kopplung jeglicher Förderung an die Schaffung dauerhaft preis- und belegungsgebundener Wohnungen. Ganz zu schweigen von einem ambitionierten Neubauprogramm, das unmittelbar vom Staat finanziert (und nicht temporär „gefördert”) und von den Kommunen realisiert wird. Oder gar der Vergesellschaftung der Bestände großer Wohnungsunternehmen, für die es in Berlin jetzt einen weiteren Anlauf gibt, nachdem ein diesbezüglicher erfolgreicher Volksentscheid im September 2021 vom Senat nicht umgesetzt wurde. Entweder man definiert Wohnraumversorgung – ähnlich wie Bildung, Mobilität, Gesundheitsversorgung, Pflege, Renten etc. – als einen zentralen Bereich der staatlichen sozialen Daseinsvorsorge, oder man überlässt sie im Prinzip dem Markt und seinen renditeorientierten Akteuren und zementiert damit die dramatische Wohnraumkrise.

Titelbild: Unkas Photo/shutterstock.com

(Auszug von RSS-Feed)
❌