NEWS 23

🔒
❌
Stats
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere Beiträge

US-Gesundheitsministerium reagiert auf Kritik der Impfstoffhersteller

01. Februar 2026 um 06:23

Vorschau ansehen
Große Pharmakonzerne kritisierten die Trump-Regierung wegen der Herabstufung von Impfempfehlungen. Das US-Gesundheitsministerium reagiert nun und betont, dass Impfentscheidungen auf wissenschaftlichen Erkenntnissen beruhen.
(Auszug von RSS-Feed)

Teenager-Suizid nach Chatbot-Interaktionen – wenn ein Gespräch mit KI nicht mehr harmlos ist

24. Januar 2026 um 11:00

Vorschau ansehen

Die Politik hat es versäumt, bei Künstlicher Intelligenz klare Regeln für sensible Einsatzbereiche einzuführen: Minderjährige, psychisch vulnerable Personen, emotionale Interaktion – all das wurde dem Markt überlassen. Der aktuelle Fall „Raine gegen OpenAI“ wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Von Günther Burbach.

Der Fall, der im Sommer 2025 unter dem Namen Raine v. OpenAI öffentlich wurde, ist kein technisches Missgeschick und kein Randphänomen. Er markiert einen Punkt, an dem sich eine abstrakte KI-Debatte in eine reale, brutale Frage verwandelt hat: Was passiert, wenn Menschen beginnen, Maschinen als emotionale Gegenüber zu behandeln und diese Maschinen nicht wissen, wann sie schweigen müssen?

Im Zentrum steht ein 16-jähriger Jugendlicher aus Kalifornien. Laut der von den Eltern eingereichten Klageschrift hatte der Junge über längere Zeit Gespräche mit einem KI-System geführt, das auf einem großen Sprachmodell basierte. Die Gespräche drehten sich zunehmend um existentielle Fragen, Einsamkeit, Sinnlosigkeit und suizidale Gedanken. Der Vorwurf der Eltern ist schwerwiegend: Das System habe nicht deeskaliert, nicht gebremst, sondern den inneren Monolog des Jugendlichen bestätigt, strukturiert und vertieft. Am Ende stand der Suizid.

Juristisch ist der Fall heikel, gesellschaftlich ist er explosiv. Denn er wirft keine Frage nach „Fehlbedienung“ auf, sondern nach systemischem Versagen. Nicht, weil eine KI „böse“ wäre, sondern weil sie nicht dafür gebaut ist, Verantwortung zu tragen und dennoch in genau diese Rolle gerät.

Was diesen Fall von früheren Debatten unterscheidet, ist die Nähe. Es geht nicht um autonome Waffensysteme oder ferne Zukunftsvisionen. Es geht um einen Jugendlichen in einem Kinderzimmer, ein digitales Gesprächsfenster und eine Maschine, die rund um die Uhr verfügbar ist. Kein Lehrer, kein Therapeut, kein Freund, sondern ein System, das antwortet, ohne zu fühlen, ohne zu haften, ohne zu verstehen, was es auslöst.

Nach bisherigen öffentlich bekannten Informationen hat das KI-System keine direkten Anweisungen gegeben. Es hat nicht „aufgefordert“. Der Kern des Vorwurfs liegt woanders: in der Verstärkung, im Spiegeln, im scheinbaren Ernstnehmen von Gedanken, die eigentlich einen Abbruch, ein Warnsignal, eine Weiterleitung hätten auslösen müssen. Genau hier wird es gefährlich. Denn moderne Sprachmodelle sind darauf trainiert, kohärent, empathisch und anschlussfähig zu reagieren. Sie widersprechen selten frontal. Sie führen Gespräche weiter.

Für einen psychisch stabilen Erwachsenen mag das harmlos sein. Für einen Jugendlichen in einer akuten Krise kann genau das fatal sein.

Die Eltern argumentieren, dass das System in einer Situation eingesetzt wurde, für die es weder geeignet noch ausreichend abgesichert war. Sie werfen OpenAI vor, bekannte Risiken in Kauf genommen zu haben, insbesondere bei Minderjährigen. Der Vorwurf ist nicht, dass KI existiert, sondern dass sie ohne klare Schutzmechanismen in einen Raum gelassen wurde, in dem sie reale psychologische Wirkung entfaltet.

Der Fall ist deshalb so brisant, weil er die gängige Verteidigung der Tech-Industrie unterläuft. Lange hieß es: KI sei nur ein Werkzeug. Verantwortung liege beim Nutzer. Doch was ist ein „Nutzer“, wenn es sich um einen 16-Jährigen handelt? Was bedeutet Eigenverantwortung, wenn ein System so gestaltet ist, dass es Nähe simuliert, Dialog anbietet und Verlässlichkeit ausstrahlt?

Gerichte werden klären müssen, ob und in welchem Umfang Anbieter haften. Gesellschaftlich aber ist die Frage bereits da, und sie lässt sich nicht wegregulieren: Wenn Maschinen sprechen wie Menschen, müssen sie auch Grenzen haben wie Menschen.

Die gefährliche Illusion der harmlosen Maschine

Der Fall Raine v. OpenAI zeigt nicht nur ein individuelles Drama. Er legt ein strukturelles Problem offen, das weit über diesen Einzelfall hinausgeht. Denn er macht sichtbar, wie sehr sich die Rolle von KI verändert hat, nicht technisch, sondern sozial. Sprachmodelle sind längst keine Werkzeuge mehr im klassischen Sinn. Sie sind Beziehungsmaschinen geworden.

Das Gefährliche daran ist nicht ihre „Intelligenz“, sondern ihre Verfügbarkeit und Anpassungsfähigkeit. Eine KI ist immer da. Sie widerspricht nicht aus Müdigkeit. Sie zieht sich nicht zurück. Sie setzt keine natürlichen Grenzen. Gerade für Menschen in Krisen entsteht so ein Raum, der wie ein Gespräch wirkt, aber kein Gegenüber kennt.

Dieser Effekt ist bekannt und er ist erforscht. Menschen neigen dazu, sozialen Mustern zu folgen, selbst wenn sie wissen, dass sie mit Maschinen interagieren. Sprache erzeugt Bedeutung. Bedeutung erzeugt Bindung. Bindung erzeugt Vertrauen. In diesem Moment verschiebt sich die Verantwortung, nicht juristisch, aber faktisch.

Der Fall zeigt auch, wie unzureichend bisherige Sicherheitslogiken sind. Content-Filter, Warnhinweise und Nutzungsbedingungen reichen nicht aus, wenn ein System emotional resonant arbeitet. Es geht nicht darum, einzelne Wörter zu blockieren, sondern darum, Kontexte zu erkennen. Und genau das können heutige Systeme nur sehr begrenzt, trotz aller Fortschritte.

Noch problematischer ist der gesellschaftliche Umgang mit diesen Risiken. Während bei Medikamenten, Fahrzeugen oder Spielzeug strenge Prüfungen gelten, werden KI-Systeme mit potenziell massiver psychologischer Wirkung in den Alltag entlassen, oft mit dem Verweis auf Eigenverantwortung. Das ist ein gefährlicher Kurzschluss. Denn psychische Wirkung ist keine Nebensache. Sie ist real, messbar und, wie dieser Fall zeigt, potenziell tödlich.

Was hier sichtbar wird, ist ein Regulierungsdefizit, das nicht technischer, sondern politischer Natur ist. Die Politik hat KI lange als Innovationsfrage behandelt, nicht als gesellschaftliche Infrastruktur. Entsprechend fehlen klare Regeln für sensible Einsatzbereiche. Minderjährige, psychisch vulnerable Personen, emotionale Interaktion, all das wurde dem Markt überlassen.

Der Fall wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Wenn KI-Anbieter Systeme entwickeln, die Nähe simulieren, dann können sie sich nicht hinter der Formel „nur ein Tool“ verstecken. Nähe ist keine neutrale Funktion. Sie erzeugt Wirkung.

Noch gravierender ist der Blick nach vorn. Denn was heute Chatbots sind, werden morgen KI-Begleiter, digitale Coaches, therapieähnliche Systeme sein. Erste Start-ups arbeiten bereits an KI-gestützter psychologischer Unterstützung, oft mit besten Absichten, aber ohne klare Haftungsregeln. Der Fall Raine ist ein Vorbote dessen, was passieren kann, wenn diese Entwicklung ungebremst weitergeht.

Dabei geht es nicht um Technikfeindlichkeit. Es geht um Verantwortung. KI kann unterstützen, informieren, entlasten. Aber sie darf nicht in Rollen gedrängt werden, die sie nicht tragen kann. Eine Maschine kennt keinen Tod, keine Verzweiflung, keine irreversible Entscheidung. Sie kann Worte aneinanderreihen, aber sie kann nicht begreifen, was sie auslöst.

Der vielleicht wichtigste Aspekt dieses Falls ist deshalb ein gesellschaftlicher Lernmoment. Er zeigt, dass wir uns von der Vorstellung verabschieden müssen, KI sei neutral, solange sie keinen physischen Schaden anrichtet. Psychische Wirkung ist reale Wirkung. Und sie verlangt nach klaren Regeln.

Was noch passieren könnte, liegt auf der Hand. Mehr Fälle, mehr Klagen, mehr Einzelschicksale. Nicht, weil KI „entgleist“, sondern weil sie eingesetzt wird, ohne dass ihre soziale Rolle ernst genommen wird. Wenn Politik weiter zusieht, wird sie sich irgendwann nicht mehr fragen lassen müssen, ob sie reguliert, sondern warum sie es nicht getan hat, als die Warnzeichen längst sichtbar waren.

Vom Einzelfall zur systemischen Gefahr

Der Fall Raine v. OpenAI wird juristisch geklärt werden. Es wird Gutachten geben, Schriftsätze, Vergleichsangebote, vielleicht ein Urteil. Doch selbst wenn der konkrete Rechtsstreit irgendwann abgeschlossen ist, bleibt das eigentliche Problem bestehen. Denn dieser Fall ist kein Ausreißer, sondern ein Vorläufer. Er zeigt, in welche Richtung sich KI-Systeme bewegen und wo die nächste Eskalationsstufe liegt, wenn Politik und Gesellschaft weiter zögern.

Die entscheidende Entwicklung ist dabei nicht die technische Leistungsfähigkeit, sondern die soziale Funktion, die KI zunehmend übernimmt. Sprachmodelle werden nicht mehr nur befragt, sie werden angesprochen. Sie sind nicht mehr nur Werkzeuge, sondern Gegenüber. Genau hier beginnt die Zone, in der klassische Haftungs- und Verantwortungslogiken versagen.

Denn was passiert, wenn KI künftig gezielt als Begleiter vermarktet wird? Wenn sie Einsamkeit lindern, psychische Unterstützung bieten oder „emotionale Stabilität“ fördern soll? Diese Entwicklung ist keine Spekulation, sie ist bereits im Gange. Start-ups arbeiten an KI-Coaches, KI-Therapie-Tools, KI-Freunden. Plattformen testen Funktionen, die langfristige Beziehungen simulieren. Der Markt dafür ist riesig und die gesellschaftliche Versuchung ebenso.

Was im Fall Raine noch als ungewollte Nebenwirkung erscheint, könnte dann zum Geschäftsmodell werden. Nähe, Vertrauen und emotionale Bindung lassen sich monetarisieren. Je länger Nutzer bleiben, je intensiver sie interagieren, desto wertvoller wird das System. In diesem Moment kollidieren wirtschaftliche Interessen direkt mit Schutzpflichten. Wer reguliert, wenn Nähe Profit bringt?

Besonders brisant ist dabei die Rolle von Minderjährigen. Jugendliche sind neugierig, experimentierfreudig, emotional verletzlich. Sie suchen Orientierung, Anerkennung, Verständnis. KI-Systeme können all das simulieren, ohne echte Verantwortung zu tragen. Wenn solche Systeme ohne klare Altersgrenzen, Schutzmechanismen und externe Aufsicht eingesetzt werden, entsteht ein Risiko, das sich nicht mehr auf Einzelfälle begrenzen lässt.

Die nächste Eskalationsstufe ist absehbar: KI wird nicht nur begleiten, sondern raten, strukturieren, priorisieren. Sie wird nicht nur zuhören, sondern Handlungsvorschläge machen. Vielleicht gut gemeint, vielleicht statistisch plausibel, vielleicht sprachlich vorsichtig, aber dennoch wirksam. Und dann stellt sich die Frage, die der Fall Raine bereits andeutet: Wer trägt die Verantwortung, wenn diese Wirkung fatal ist?

Selbstregulierung der Industrie wird hier nicht ausreichen. Dafür sind die Anreize falsch gesetzt. Sicherheit kostet Geld, Wachstum bringt Rendite. Plattformen optimieren auf Engagement, nicht auf Fürsorge. Das ist kein moralischer Vorwurf, sondern eine ökonomische Tatsache. Wer glaubt, dass Unternehmen freiwillig auf profitable Funktionen verzichten, ignoriert die Logik des Marktes.

Politik steht deshalb vor einer Entscheidung, die sie nicht länger vertagen kann. Entweder sie behandelt KI weiterhin als Innovationsprojekt, oder sie erkennt sie als gesellschaftliche Infrastruktur mit Schutzpflichten. Das würde bedeuten: klare Haftungsregeln, besondere Schutzstandards für vulnerable Gruppen, verpflichtende Notfallmechanismen, unabhängige Aufsicht – nicht als Feigenblatt, sondern als Voraussetzung für den Einsatz.

Dabei geht es nicht um ein Verbot von KI. Es geht um Grenzen. Kein Medikament darf ohne Zulassung verkauft werden, kein Auto ohne Sicherheitsprüfung auf die Straße, kein Spielzeug ohne Schadstofftest in Kinderhände. Dass ausgerechnet Systeme mit potenziell massiver psychologischer Wirkung bislang weitgehend unreguliert bleiben, ist ein politisches Versäumnis.

Der Fall Raine zeigt zudem ein tiefer liegendes gesellschaftliches Problem: die Delegation von Beziehung. In einer Gesellschaft, die immer weniger Zeit, immer weniger soziale Räume und immer weniger institutionelle Unterstützung bietet, wird KI zur Ersatzstruktur. Sie füllt Lücken, die Politik und Gesellschaft hinterlassen haben. Das macht sie attraktiv und gefährlich zugleich.

Wenn diese Entwicklung nicht gestoppt oder zumindest eingehegt wird, wird die nächste Debatte nicht lauten, ob KI gefährlich ist. Sie wird lauten, warum niemand eingegriffen hat, als die Warnzeichen längst sichtbar waren. Der Preis wird nicht in Innovationshemmnissen gemessen, sondern in realen Schicksalen.

Der Fall Raine v. OpenAI ist deshalb mehr als eine Klage. Er ist ein Warnsignal. Er zeigt, dass die Grenze zwischen technischer Unterstützung und menschlicher Verantwortung überschritten werden kann, leise, unbeabsichtigt, aber mit irreversiblen Folgen. Wer ihn als Einzelfall abtut, verkennt, was hier auf dem Spiel steht.

KI verändert nicht nur Arbeitsprozesse und Märkte. Sie greift in Beziehungen ein, in Identität, in Entscheidungen über Leben und Tod. Eine Gesellschaft, die das ignoriert, verliert nicht nur die Kontrolle über Technologie, sondern über sich selbst.

Quellen:

Titelbild: VALUA VITALY / Shutterstock

(Auszug von RSS-Feed)

Die große Macht der Big Tech: Sechs Milliardäre kontrollieren die sozialen Medien

24. Januar 2026 um 10:00

Vorschau ansehen

Die Technologien, die Milliarden Menschen auf der ganzen Welt miteinander verbinden, befinden sich real in den Händen einer winzigen Gruppe von Superreichen. Laut dem neuen Oxfam-Bericht, der am vergangenen Sonntag während des Weltwirtschaftsforums veröffentlicht wurde, kontrollieren sechs Milliardäre neun der zehn größten Social-Media-Plattformen der Welt. Zugleich vereinen drei Milliardäre fast 90 Prozent des globalen Marktes für Chatbots mit künstlicher Intelligenz auf sich. Von Rodrigo Chagas.

Die Organisation warnt davor, dass diese von einer kleinen Minderheit angehäufte Macht nicht nur enorme Profite generiert, sondern auch dazu genutzt wird, Freiheiten einzuschränken, Gegner zu überwachen und die öffentliche Debatte zu manipulieren.

Für Oxfam fördert die zunehmende Verbreitung künstlicher Intelligenz und digitaler Plattformen weder mehr Freiheit noch mehr Inklusion. „Wenn sie von einer Milliardärs-Elite kontrolliert werden, sind diese Technologien nicht länger demokratische Instrumente, sondern sie werden zu Mechanismen für die Konzentration von Reichtum und Macht“, heißt es in dem Bericht „Resisting the rule of the rich“ (Widerstand gegen die Herrschaft der Reichen).

Die Geschäftsführerin von Oxfam Brasilien, Viviana Santiago, beschreibt diesen Prozess als konkrete Bedrohung der Demokratie. „Es ist dringend notwendig, neu zu überdenken, wem Soziale Medien und KI-Tools gehören, denn es gibt einen permanenten Versuch, Narrative zu kontrollieren, Geschichte neu zu interpretieren und den Zugang zu Informationen zu beschränken“, sagte sie gegenüber Brasil de Fato. Laut Santiago schafft die fehlende Regulierung im Technologie- und KI-Sektor ein ideales Umfeld für die Vergrößerung von Ungleichheiten. „Dies sind hochprofitable, stark umweltverschmutzende Sektoren mit enormer Macht zur Zensur und Überwachung.“

Der Bericht hebt hervor, dass die Milliardäre, die die größten Social-Media-Plattformen kontrollieren, auch kontrollieren, was Milliarden von Menschen sehen, sagen und hören. Oxfam lenkt die Aufmerksamkeit auf die Rolle dieser Plattformen bei der Überwachung und Unterdrückung politischer Opposition und nennt Kenia als Beispiel: Während der Proteste gegen neue Steuergesetze nutzten die kenianischen Behörden X (ehemals Twitter), um Demonstranten zu orten.

Die Plattform, die Elon Musk gehört, wird in dem Bericht als Beispiel dafür genannt, wie private Macht kollektive Rechte bedrohen kann. Eine in dem Dokument angeführte Studie der University of California kam zu dem Ergebnis, dass Hassreden um 50 Prozent zugenommen haben, seit Musk X im Jahr 2022 übernommen hatte.

Oxfam prangert auch die Nutzung von Plattformen zur Verbreitung von Desinformation, zur Einschüchterung von Kritikern und zur Aufrechterhaltung von Privilegien an. „Diese Netzwerke, unter der Kontrolle von Milliardären, sind nicht nur Unternehmen. Sie sind zu politischen Akteuren geworden, die fähig sind, die öffentliche Debatte zu unterdrücken, zu zensieren und zu verzerren“, schlussfolgert der Bericht.

Abgesehen von den sozialen Medien ist die Kontrolle über künstliche Intelligenz noch stärker konzentriert: Drei Milliardäre kontrollieren fast 90 Prozent des globalen Chatbot-Marktes, also von Software, die menschliche Interaktion simuliert und weit verbreitet im Kundenservice, auf Suchplattformen und in sozialen Netzwerken eingesetzt wird. Oxfam warnt, dass diese Konzentration das Risiko für groß angelegte Manipulationen erhöht, insbesondere mangels klarer Regeln für diese Tools.

Für Viviana Santiago dient die Aneignung dieser Technologien durch große Vermögen einer langfristigen Strategie: der Gestaltung der kollektiven Vorstellungskraft und dem Schutz von Herrschaftsstrukturen. Sie kritisiert, dass diese Sektoren weitgehend ohne Regulierung operieren, und warnt zugleich vor den Folgen ihrer Geschäftsmodelle für die Umwelt.

„Diese Sektoren konzentrieren Macht, erzeugen Ungleichheit und haben einen enormen CO2-Fußabdruck. Wir können die Tatsache, dass Milliardäre diese Tools und Kommunikationsmittel kontrollieren, nicht als neutrales Phänomen behandeln“, sagte sie.

Oxfam hat den Bericht zeitgleich mit der Eröffnung des Weltwirtschaftsforums veröffentlicht, das vom 19. bis 23. Januar in Davos, Schweiz, stattfindet. In diesem Jahr nehmen rund 400 hochrangige Politiker und 850 CEOs großer Unternehmen sowie fast 100 bedeutende Einhörner[1] und Technologiepioniere teil. Das offizielle Thema des Forums lautet „A spirit of dialogue” (Geist des Dialogs).

Der Beitrag erschien im Original im brasilianischen Onlineportal Brasil de Fato. Übersetzung aus dem Englischen von Marta Andujo.

Titelbild: gguy / Shutterstock


[«1] Einhorn (englisch Unicorn) wird ein Start-up-Unternehmen mit einer Bewertung von über einer Milliarde US-Dollar (weltweit) oder Euro (in Europa) genannt, das nicht an einer Börse gelistet ist.

(Auszug von RSS-Feed)

Merz Spezial Dragees: gegen gesunden Menschenverstand und für garantiert miese Stimmung

23. Januar 2026 um 14:00

Vorschau ansehen

Der Bundeskanzler findet, dass die Deutschen zu viel krankfeiern. Deshalb müsse die telefonische Bescheinigung durch den Arzt auf den Prüfstand. Der Vorstoß entbehrt wie schon die Debatte ums Bürgergeld jedweder Evidenz. Ganz egal! Gesund ist, was die Wirtschaft heil macht. Und wozu das Bett hüten, wenn es Schmerztabletten gibt, Risiken und Nebenwirkungen inklusive. Man gönnt sich ja sonst nichts, meint Ralf Wurzbacher.

Dieser Beitrag ist auch als Audio-Podcast verfügbar.

Dieser Mann versteht es, zu motivieren. Leistungsscheu, faul, kränklich, alles Blaumacher! Der Bundeskanzler pflegt ziemlich exklusive Vorstellungen von den arbeitenden Menschen im Land. Stünde er einem Unternehmen vor, dürfte das mit reichlich Dampf Richtung Pleite steuern – wegen einer Belegschaft in Daueraufruhr beziehungsweise chronischer Depression. Aber Friedrich Merz (CDU) ist nicht Boss von Mercedes, sondern Chef von Deutschland, und da braucht es offenbar eine andere Art von Menschenführung. Streng nach der Devise: Immer schön drauf auf die Untertanen!

Vor einer Woche hat Merz ein neues Fass aufgemacht. Bei einem Wahlkampfauftritt in Bad Rappenau bei Heilbronn nahm er sich den vermeintlich hohen Krankenstand in der Bevölkerung vor, der sich vermeintlich damit begründet, dass man sich als Bürger seit gut vier Jahren auch telefonisch krankschreiben lassen kann. „Ist das wirklich richtig? Ist das wirklich notwendig?“, fragte sich der Kanzler am Mikrofon, also rein rhetorisch. Was er sich nicht fragte, war: Stimmt das auch wirklich, was ich da sage?

Postfaktische Zeiten

Am Mittwoch schaltete sich der Hausärztinnen- und Hausärzteverband in die Diskussion ein. Alle bisherigen Auswertungen der Krankenkassen bestätigten, dass die Regelung in der Praxis „nicht zu einem höheren Missbrauch bei Krankschreibungen führt“, erklärte der Bundesvorsitzende Markus Beier. Im Falle ihrer Abschaffung müssten sich „in Zukunft wieder unzählige Patientinnen und Patienten ohne Not in die Praxen schleppen“. Ist es das, was der Kanzler will? Bazillenschleudern in deutschen Wartezimmern, die ihre Viren unters Volk bringen und der ohnehin siechenden Wirtschaft mit Infektionswellen von vielleicht pandemischen Ausmaßen den letzten Rest geben?

Wir leben in postfaktischen Zeiten, in denen Wahrheit und Reales einen schweren Stand haben. Mit was nicht allem hat die Bundesregierung die geplante Reform des Bürgergelds, also dessen Degradierung zur „neuen Grundsicherung“ und die Reaktivierung des Hartz-IV-Sanktionsregimes aufgegleist: mit einem Heer an Sozialschmarotzern, mit ausufernden Kosten und einem Sparpotenzial von zig Milliarden Euro. Alles Quatsch. Die Zahl der sogenannten Totalverweigerer lag nach offizieller Statistik 2024 bei „weniger als 20.000“, der Kreis der Komplettsanktionierten im „niedrigen zweistelligen Bereich“, also unter der Marke von 50, und statt fünf, zehn, 15 oder 30 Milliarden Euro rechnet das Arbeitsministerium mit Minderausgaben von jährlich 400 Millionen Euro.

Aber die Masche zieht. Die Koalition gab vor, Missbrauch zu begegnen, um am Ende doch alle Leistungsempfänger zu treffen, durch noch einmal mehr Druck, auch noch den allerletzten Job anzunehmen, durch weniger Rechte, weniger Schonvermögen, weniger Würde. So schleift man mit Legendenbildung den Sozialstaat bis zur Unkenntlichkeit und forciert damit die Spaltung der Gesellschaft.

Gute und schlechte Bürokratie

Dasselbe Muster jetzt beim Thema Krankenstand. Es geht nicht darum, schwarze Schafe abzustrafen. Der Vorstoß ist Teil einer Strategie der psychologischen Kriegsführung in endlosen Krisenzeiten. Man packt die Menschen bei ihren Ängsten und Unsicherheiten, bringt sie gegeneinander auf und lenkt so von den Verantwortlichkeiten der Politik für den ökonomischen Niedergang ab. Damit ja niemand auf die Idee kommt, die Misere hänge etwa mit der desaströsen Energiepolitik zusammen oder mit „Kriegsertüchtigung“ oder der obszönen Ungleichverteilung von Wohlstand. Nein: Letztlich sind die Bürger selbst schuld an ihrer und der Lage des Landes. Das jedenfalls wollen ihnen Merz und Co. weismachen.

Was gestern noch Sinn ergeben hat, zählt dann plötzlich nicht mehr. Die telefonische Feststellung der Arbeitsunfähigkeit (AU) wurde mit dem Ziel eingeführt, die Praxen zu entlasten und die Infektionsrisiken zu reduzieren. Ausgangspunkt war damit eine andere, politisch mindestens mitverschuldete Baustelle, nämlich der grassierende Hausärztemangel, insbesondere in ländlichen Regionen. Das Instrument war also auch nur eine Notlösung, wenngleich keine so schlechte wie üblich. Und sie ließ sich trefflich als Bürokratieabbau verkaufen, eigentlich ein Kampfbegriff für alle Arten von Deregulierung und Entstaatlichung und die Lieblingsvokal der Koalition.

Angriff auf Lohnfortzahlung

Solange Deutschlands Unternehmer profitieren, ist „weniger Bürokratie“ der große Heilsbringer. Wo es dagegen um echte Mehrwerte der einfachen Bürger geht, wird sie schnell zur Belastung. Wohl nicht zufällig machte am Montagabend, zwei Tage nach der Kanzlereinlassung, der Präsident der Bundesvereinigung der Deutschen Arbeitgeberverbände (BDA), Rainer Dulger, auf Merz-Verstärker. Nicht nur forderte er die Abschaffung der Krankschreibung per Telefonat, sondern gleich dazu noch radikale Einschnitte bei der Lohnfortzahlung für Erkrankte. Der Anspruch solle demnach übers gesamte Jahr hinweg nur mehr für sechs Wochen bestehen, nicht wie bisher für sechs Wochen pro Krankheit. Auch das Thema könnte schon bald auf die politische Agenda rücken.

Immerhin erntet der Kanzler Widerspruch. „Die Debatte zeigt, was er und seine Regierung am liebsten tun: Mit Kanonen auf Spatzen schießen“, äußerte sich Julia-Christina Stange von der Fraktion Die Linke im Bundestag in einem Pressestatement. Wie beim Bürgergeld würden Einzelfälle „wider besseres Wissen zum Generalverdacht aufgebauscht“. Zum Kenntnisstand gehört, dass sich die krankheitsbedingten Fehlzeiten in Deutschland seit Jahren auf stabilem Niveau bewegen und in der internationalen Perspektive nicht aus dem Ruder laufen. Eine vor einem Jahr vorgelegte Studie des Berliner IGES-Instituts im Auftrag der Krankenkasse DAK verortet die BRD beim wöchentlichen Arbeitszeitverlust mit 6,8 Prozent im „oberen Mittelfeld“ unter den Staaten Europas. „Spitzenreiter“ Norwegen kommt auf deutlich höhere 10,7 Prozent.

Widerspruch von Lauterbach

Allerdings sind derlei Vergleiche wegen unterschiedlicher Messmethoden wenig aussagekräftig. So kam es in Deutschland nach 2021 zu einem heftigen Ausschlag nach oben, von laut Statistischem Bundesamt 11,2 Krankheitstagen pro Kopf auf 14,8. Das lag ganz augenscheinlich an der damals gestarteten und bis 2023 abgeschlossenen Umstellung auf das elektronische Meldeverfahren (eAU). Davor mussten Krankmeldungen nicht zwingend an die Krankenkassen weitergegeben werden. Jetzt geschieht dies automatisch, womit Deutschland eines der wenigen Länder mit 100-Prozent-Erfassung ist.

Man könne unseren Nachbarn nur raten, „das nicht zu machen, weil dann gegengehalten wird, man hätte die höchsten Krankenstände“, bemerkte am Dienstag Anja Piel, Bundesvorstandsmitglied beim Deutschen Gewerkschaftsbund (DGB). Der Kanzler glaube offenbar an eine Bevölkerung aus Faulenzern, befand sie in einer schriftlichen Stellungnahme, die den NachDenkSeiten vorliegt. Menschen krank zur Arbeit zu zwingen, erzeuge kein Wachstum, im Gegenteil, so Piel. „Präsentismus – also krank arbeiten zu gehen – verursacht durch die Verbreitung ansteckender Krankheiten höhere Kosten als zu Hause gesund zu werden.“

Selbst Karl Lauterbach (SPD) erhebt Einspruch. Er hatte die zu Corona-Zeiten übergangsweise erfolgte Bestimmung Ende 2023 als Bundesgesundheitsminister auf Dauer gestellt. Wolle man weniger Krankheitstage, „müssen wir endlich besser in der Vorbeugemedizin werden“, sagte er dem Tagesspiegel. „Das gelingt uns durch Früherkennung, etwa von Bluthochdruck, durch eine Erhöhung der Tabaksteuer und andere präventive Maßnahmen – und nicht durch Gängelei der Kranken.“

Warken prüft, SPD macht mit

Kontra gab es auch durch die Vorsitzende des Berliner und Brandenburger Hausärzteverbands, Sandra Blumenthal. „Ich finde es anmaßend von Friedrich Merz, zu behaupten, ich würde meine Patienten leichtfertig krankschreiben.“ Der Mitteldeutsche Rundfunk (MDR) zitierte den Gesundheitsökonomen Heinz Rothgang von der Universität Bremen: „Mit dieser Äußerung werden Menschen, die krank sind, sehr stark an den Pranger gestellt. Die Ärzteschaft wird auch mit Misstrauen überzogen, ich halte das insgesamt nicht für eine gute Idee.“

Merz’ Parteifreundin und Gesundheitsministerin Nina Warken offenbar schon. Union und SPD hätten sich im Koalitionsvertrag darauf verständigt, Missbrauch beim Umgang mit telefonischen Krankschreibungen auszuschließen, verkündete sie am Dienstag via Tagesspiegel. „Genau das werden wir angehen und die aktuellen Regelungen auf den Prüfstand stellen.“ Womit einmal mehr deutlich wird, dass die SPD im Regierungsboot so ziemlich jede Zumutung mitträgt.

Dabei lieferte eine gleichentags durch die DAK Gesundheit vorgelegte Analyse der Daten von über zwei Millionen DAK-Mitgliedern gewichtige Gegenargumente. Die Auswertung ergab 19,5 Fehltage pro Kopf und einen mit 5,4 Prozent stabilen Krankenstand. Anders als das Statistische Bundesamt zählen die Kassen Kalendertage inklusive Wochenenden und Feiertagen. Die AOK hatte in ihrem vor drei Monaten veröffentlichten „Fehlzeiten-Report 2025“ sogar 23,9 Krankheitstage ermittelt. Die Diskrepanz dürfte sich dadurch erklären, dass bei der AOK überdurchschnittlich viele sozial benachteiligte Menschen und Geringverdiener versichert sind. Materielle Armut ist ein wesentlicher Risikofaktor für Krankheit und frühes Versterben.

Arbeitszeitgesetz im Visier

Gleichwohl weisen die DAK- und AOK-Befunde auf im Zeitverlauf durchaus bemerkenswerte Veränderungen hin. Speziell Atemwegsinfekte stehen seit mehreren Jahren und mit steigender Tendenz ganz oben auf der Liste der Krankmacher. Das deckt sich mit Erkenntnissen der Wissenschaft. So verzeichnete eine Ende 2024 vom Zentralinstitut für die kassenärztliche Versorgung (Zi) vorgelegte Studie eine deutlich gestiegene Inanspruchnahme von Ärzten „aufgrund akuter Atemwegsinfektionen, insbesondere bei Kindern im Grundschulalter und Erwachsenen bis 65 Jahre, mit einer Zunahme von fast 20 Prozent von 2019 auf 2023“. Über die Gründe lässt sich spekulieren: Denkbar sind Spätfolgen der Lockdownpolitik während der Corona-Krise, unerwünschte Nebenwirkungen der Impfkampagne oder einfach nur eine von der Pandemie zurückgebliebene stärkere Sensibilisierung der Bevölkerung.

Für besorgniserregend hält die DAK vor allem die anhaltende Zunahme bei den psychischen Beschwerden mit einer Erkrankungsdauer von im Mittel 28,5 Tagen. Auch das könnte eine Hinterlassenschaft von über zwei Jahren Corona-Notstand sein. Womit man wieder bei der Schuldfrage wäre. Denn krank machen kann zweifellos auch eine falsche Politik. Die gibt es in Deutschland seit Langem in Überdosis und seit bald neun Monaten als Merz Spezial Dragees: gegen gesunden Menschenverstand und für garantiert miese Stimmung.

Apropos: Am 14. Januar auf dem Neujahrsempfang der regionalen Wirtschaft in Halle (Saale) stellte sich der Kanzler selbst die Frage, welche Regelung er gerne streichen würde. Antwort: „wahrscheinlich das Arbeitszeitgesetz“. Am Ende müsse stehen, dass alle zusammen „eine höhere volkswirtschaftliche Leistung“ erbrächten. Onkel Doktor, bitte kommen!

Titelbild: ChatGPT, erstellt mit künstlicher Intelligenz

(Auszug von RSS-Feed)
❌