Vorschau ansehen
Wie KI den Arbeitsmarkt verändern wird, ist noch immer eher spekulativ abzuschätzen.
Der Beitrag Entwertet KI Universitäten und akademische Abschlüsse? erschien zuerst auf .
Wie KI den Arbeitsmarkt verändern wird, ist noch immer eher spekulativ abzuschätzen.
Der Beitrag Entwertet KI Universitäten und akademische Abschlüsse? erschien zuerst auf .
Es ist eine auffällige Verschiebung, die sich in den vergangenen Jahren vollzogen hat: Künstliche Intelligenz ist nicht mehr primär ein Forschungsfeld, nicht mehr nur ein industrielles Innovationsversprechen, sondern ein politisches Pflichtprojekt. Kaum ein Regierungspapier, kaum eine wirtschaftspolitische Rede kommt ohne den Verweis auf KI aus. Sie gilt als Schlüsseltechnologie, als Wachstumsmotor, als Sicherheitsfaktor und zunehmend als Maßstab geopolitischer Relevanz. Diese Erzählung ist bemerkenswert, weil sie weniger aus einer klar formulierten gesellschaftlichen Zielsetzung gespeist wird als aus einem Gefühl: der Angst, zurückzufallen. Von Günther Burbach.
Dieser Beitrag ist auch als Audio-Podcast verfügbar.
Wer heute nicht massiv in KI investiert, so lautet das implizite Narrativ, riskiert morgen den Verlust von Wohlstand, Sicherheit und Einfluss.
Der weltweite KI-Schub begann nicht mit einer breiten öffentlichen Debatte über Sinn, Nutzen oder Risiken. Er begann mit Vergleichen, Ranglisten und Warnungen. Politiker, Wirtschaftsvertreter und Strategen beschworen Szenarien, in denen andere Staaten, meist namentlich die USA oder China, enteilen könnten. In diesem Klima entstand eine Dynamik, die weniger von inhaltlicher Überzeugung als von präventivem Aktionismus geprägt ist. KI wurde zum Symbol politischer Handlungsfähigkeit in einer Zeit, in der klassische Steuerungsinstrumente an Wirkung verloren haben. Wer KI fördert, zeigt Aktivität. Wer zögert, riskiert den Vorwurf der Rückständigkeit.
Diese Logik erinnert an historische Phasen, in denen technologische oder militärische Entwicklungen aus ähnlichen Motiven vorangetrieben wurden. Der Vergleich mit dem Goldrausch des 19. Jahrhunderts drängt sich nicht zufällig auf. Auch damals ging es weniger um eine nachhaltige Verbesserung der Lebensverhältnisse als um schnellen Zugriff auf eine als knapp wahrgenommene Ressource. Wer zu spät kam, ging leer aus – so zumindest die Erzählung. Tatsächlich profitierten wenige, während viele scheiterten oder ausgebeutet wurden. Der entscheidende Unterschied liegt heute darin, dass die Ressource immateriell ist: Daten, Rechenleistung, Algorithmen, Know-how. Doch der Zugriff folgt ähnlichen Machtlogiken.
KI als strategische Ressource
KI ist zur neuen strategischen Ressource geworden. Staaten konkurrieren nicht mehr nur um Rohstoffe oder Produktionsstandorte, sondern um Trainingsdaten, Hochleistungschips, spezialisierte Fachkräfte und den Bau riesiger Rechenzentren. Diese Infrastruktur ist teuer, energieintensiv und langfristig wirksam. Wer sie aufbaut, legt Pfade fest, die sich über Jahrzehnte kaum korrigieren lassen. Dennoch werden entsprechende Entscheidungen häufig im Eiltempo getroffen. Förderprogramme in Milliardenhöhe werden aufgelegt, Genehmigungsverfahren beschleunigt, regulatorische Hürden abgesenkt. Parlamente und Öffentlichkeit stehen oft vor vollendeten Tatsachen.
Besonders deutlich zeigt sich diese Dynamik im internationalen Vergleich. In den USA wird KI offen als strategisches Instrument im globalen Wettbewerb definiert. Sie ist Teil sicherheitspolitischer Doktrinen, eng verknüpft mit militärischer Forschung und wirtschaftlicher Dominanz. In China fügt sich KI nahtlos in langfristige staatliche Planungen ein, die technologische Entwicklung, gesellschaftliche Steuerung und politische Kontrolle miteinander verbinden. Europa wiederum spricht von „digitaler Souveränität“, bleibt aber in zentralen Bereichen abhängig von außereuropäischen Konzernen und Technologien. Drei Machtblöcke, drei Narrative und doch ein gemeinsamer Nenner: die Furcht, abgehängt zu werden.
Das Denken ist strukturell militärisch
Diese Furcht erzeugt einen Wettlauf ohne klare Zieldefinition. KI wird ausgebaut, weil andere sie ausbauen. Investitionen rechtfertigen sich durch Investitionen. Das Denken ist strukturell militärisch: Aufrüstung erzeugt Aufrüstung. Wer innehält, verliert. Wer nachdenkt, riskiert Rückstand. In einer solchen Logik werden Grundsatzfragen schnell als Luxusproblem abgetan. Wozu soll KI konkret dienen? Welche gesellschaftlichen Probleme soll sie lösen? Wo sind ihre Grenzen? Solche Fragen gelten als nachrangig, mitunter sogar als hinderlich.
Auffällig ist dabei die Sprache, mit der dieser Prozess begleitet wird. Politiker sprechen vom „Aufholen“, vom „Anschluss sichern“, vom „Führendwerden“. Das Vokabular stammt aus dem Sport oder aus geopolitischen Rivalitätsnarrativen, nicht aus der Sozial- oder Bildungspolitik. Diese Rhetorik ist nicht neutral. Sie erzeugt Zeitdruck und legitimiert Entscheidungen, die unter normalen Umständen einer intensiven öffentlichen Debatte bedürften. Wer im Rennen liegt, hält nicht an, um über Streckenführung oder Ziel zu diskutieren.
Öffentliche Verantwortung versus private Macht
Hinzu kommt ein strukturelles Ungleichgewicht zwischen öffentlicher Verantwortung und privater Macht. Während Staaten die finanziellen Risiken tragen und öffentliche Mittel mobilisieren, liegen die entscheidenden technologischen Hebel meist in den Händen weniger Konzerne. Die größten KI-Modelle, die zentralen Plattformen, die proprietären Algorithmen gehören privaten Akteuren. Öffentliche Gelder fließen in private Infrastruktur, ohne dass Transparenz, demokratische Kontrolle oder Mitsprache in gleichem Maße gewährleistet wären. Der Staat agiert als Förderer, nicht als Gestalter.
Diese Konstellation verschärft ein bekanntes Problem moderner Technologiepolitik. Entscheidungen werden vorverlagert, nicht in Parlamente oder öffentliche Debatten, sondern in technische Architektur, in Code, in Trainingsdaten. Was dort einmal festgelegt ist, entzieht sich späterer politischer Korrektur weitgehend. Algorithmen werden implementiert, Systeme skaliert, Infrastrukturen amortisiert. Der politische Raum schrumpft, während der technische expandiert. KI wird so zum Machtfaktor, unabhängig von ihrem konkreten Nutzen.
Dabei ist längst absehbar, dass KI tiefgreifende gesellschaftliche Folgen haben wird. Arbeitsmärkte verändern sich, Entscheidungsprozesse werden automatisiert, menschliche Urteilskraft wird ergänzt oder ersetzt. Dennoch dominiert in der politischen Debatte fast ausschließlich die Perspektive nationaler Wettbewerbsfähigkeit. Soziale, ethische und demokratische Fragen erscheinen als sekundär. Wer sie in den Vordergrund rückt, gerät schnell in den Verdacht, innovationsfeindlich zu sein. Diese Zuschreibung wirkt disziplinierend. Sie begrenzt den Diskurs, noch bevor er richtig begonnen hat.
Internationale Abhängigkeiten und wachsender Technologie-Nationalismus
Ein weiterer Aspekt des KI-Rausches ist die internationale Dimension technologischer Abhängigkeiten. KI wird zunehmend als strategische Infrastruktur behandelt, vergleichbar mit Energieversorgung oder Rüstungstechnologie. Exportkontrollen für Hochleistungschips, Subventionen für Halbleiterfabriken, nationale Cloud-Initiativen sind Ausdruck eines wachsenden Technologie-Nationalismus. Gleichzeitig bleiben Datenströme global, Plattformen transnational, Lieferketten komplex. Der Versuch, KI national zu kontrollieren, kollidiert mit der Realität globaler Märkte und Konzerne.
In diesem Spannungsfeld entsteht ein paradoxes Bild: Staaten investieren massiv in KI, ohne sie tatsächlich zu beherrschen. Sie beschleunigen Entwicklungen, deren langfristige Konsequenzen sie kaum abschätzen können. Der politische Wille konzentriert sich auf das „Ob“, nicht auf das „Wie“ oder „Wozu“. KI wird damit zum Selbstzweck. Sie dient als Ersatzsymbol für politische Gestaltungskraft in einer Zeit, in der viele klassische Versprechen, von sozialem Aufstieg bis zu ökologischer Stabilität, brüchig geworden sind.
Bemerkenswert ist auch, wie selten in diesem Kontext über Verzicht gesprochen wird. Kaum ein politisches Programm thematisiert bewusst die Möglichkeit, bestimmte KI-Anwendungen nicht zu entwickeln oder nicht einzusetzen. Alles, was technisch machbar erscheint, gilt implizit als legitim. Diese Haltung markiert einen tiefgreifenden kulturellen Wandel. Technik wird nicht mehr als gestaltbares Mittel betrachtet, sondern als quasi naturgesetzliche Entwicklung, der man sich anzupassen habe. Der Mensch folgt der Maschine, nicht umgekehrt.
Der geopolitische KI-Rausch ist daher weniger ein Ausdruck technologischer Notwendigkeit als ein Symptom politischer Orientierungslosigkeit. Statt klare normative Leitplanken zu definieren, flüchten sich Regierungen in Beschleunigung. Fortschritt wird relativ verstanden, nicht daran gemessen, ob er das Leben konkret verbessert, sondern daran, ob er schneller ist als der des Nachbarn. Diese Logik verdrängt absolute Maßstäbe wie Lebensqualität, Freiheit oder soziale Gerechtigkeit.
Wettlauf ohne demokratische Zieldefinition
Gerade darin liegt die eigentliche Gefahr. Ein technologischer Wettlauf ohne demokratische Zieldefinition erzeugt Fakten, die sich später kaum noch revidieren lassen. Wer heute milliardenschwere KI-Infrastrukturen aufbaut, bindet Ressourcen, schafft Abhängigkeiten und erzeugt Nutzungsdruck. Rechenzentren wollen ausgelastet werden, Datenpools genutzt, Systeme skaliert. Was einmal möglich ist, wird früher oder später eingesetzt, nicht aus gesellschaftlicher Einsicht, sondern aus ökonomischer Logik.
So entsteht ein selbstverstärkender Kreislauf: Investitionen erzeugen Nutzungszwang, Nutzung erzeugt Abhängigkeit, Abhängigkeit rechtfertigt weitere Investitionen. In diesem Kreislauf bleibt wenig Raum für demokratische Kontrolle. Politische Debatten hinken hinterher, weil sie erst einsetzen, wenn technische Tatsachen längst geschaffen sind. KI wird zur Black Box politischer Entscheidungen.
Der geopolitische KI-Rausch ist damit kein neutraler Fortschrittsprozess, sondern ein Machtprojekt. Er verschiebt Entscheidungsgewalt weg von demokratisch legitimierten Institutionen hin zu technisch-ökonomischen Akteuren. Die zentrale Frage, warum wir bestimmte Technologien entwickeln und wem sie dienen sollen, bleibt meist unbeantwortet. Solange das so ist, gleicht jede weitere Milliardeninvestition weniger einem Zukunftsprogramm als einem Blindflug.
Damit ist der Wendepunkt erreicht – nicht, weil KI allmächtig wäre, sondern weil sie politisch zur Notwendigkeit erklärt wurde. Nicht aus Einsicht, sondern aus Angst. Und Angst war historisch selten ein guter Ratgeber für nachhaltigen, gesellschaftlich eingebetteten Fortschritt.
Der Verlust politischer Gestaltung
Der geopolitische KI-Rausch bleibt nicht folgenlos. Er wirkt tief in gesellschaftliche Strukturen hinein, verändert Entscheidungsprozesse, Machtverhältnisse und letztlich das Verhältnis zwischen Bürgern und Staat. Während politische Debatten sich auf Wettbewerbsfähigkeit, Innovationsführerschaft und technologische Souveränität konzentrieren, verschiebt sich im Hintergrund schleichend die Frage, wer eigentlich noch gestaltet und wer nur noch reagiert. KI wird nicht mehr als Werkzeug betrachtet, das gesellschaftlichen Zielen dient, sondern als System, an das sich Gesellschaften anpassen müssen. Diese Umkehrung markiert eine Zäsur.
Zunächst trifft der massive KI-Ausbau auf einen Bereich, der politisch besonders sensibel ist: den Arbeitsmarkt. Kaum eine Technologie wurde in den vergangenen Jahrzehnten so widersprüchlich diskutiert. Einerseits werden Produktivitätsgewinne, Effizienzsteigerungen und Entlastung von Routinetätigkeiten versprochen. Andererseits mehren sich Hinweise darauf, dass KI nicht nur einfache Tätigkeiten ersetzt, sondern zunehmend auch qualifizierte, wissensbasierte Arbeit. Entscheidungen, die früher menschlicher Abwägung unterlagen, werden algorithmisch vorstrukturiert oder vollständig automatisiert. Die politische Antwort darauf bleibt auffällig vage. Statt über neue Formen sozialer Absicherung, Arbeitszeitverkürzung oder Umverteilung zu sprechen, dominiert die Hoffnung, der Markt werde es richten.
Diese Hoffnung ist riskant, weil sie an einer zentralen Realität vorbeigeht: KI verändert nicht nur, was gearbeitet wird, sondern wie gesellschaftliche Wertschöpfung verteilt ist. Wer die Systeme kontrolliert, kontrolliert die Erträge. Daten, Modelle und Plattformen konzentrieren sich bei wenigen Akteuren. Der Staat, der den Ausbau fördert, gerät in eine paradoxe Rolle. Er finanziert Strukturen, die seine eigene Gestaltungsmacht untergraben können. Öffentliche Mittel fließen in private Infrastrukturen, während die demokratische Kontrolle begrenzt bleibt. Die Gesellschaft trägt die Anpassungskosten, ohne proportional an den Gewinnen beteiligt zu sein.
Noch gravierender sind die Auswirkungen auf staatliche Entscheidungsprozesse selbst. Verwaltungen setzen zunehmend auf KI-gestützte Systeme, um Anträge zu bearbeiten, Risiken zu bewerten oder Ressourcen zuzuweisen. Was als Effizienzsteigerung beginnt, verändert schrittweise die Logik staatlichen Handelns. Entscheidungen werden standardisiert, Kriterien formalisiert, Abweichungen als Störfaktoren behandelt. Der Ermessensspielraum schrumpft, nicht unbedingt aus bösem Willen, sondern aus systemischer Logik. Algorithmen arbeiten mit Wahrscheinlichkeiten, nicht mit Einzelfällen. Doch Demokratie lebt vom Umgang mit dem Besonderen.
Gefährliche Verschiebung: Verantwortung tragen „die Systeme“
Hier entsteht eine neue Form politischer Entlastung. Verantwortung wird an Systeme delegiert, deren Funktionsweise selbst für Experten oft nur eingeschränkt nachvollziehbar ist. Wenn Entscheidungen als Ergebnis „objektiver“ Berechnungen erscheinen, geraten politische Bewertungen in den Hintergrund. Fehler lassen sich externalisieren: Nicht die Politik hat entschieden, sondern das System. Diese Verschiebung ist gefährlich, weil sie die Rechenschaftspflicht aushöhlt. Demokratie basiert auf der Möglichkeit, Entscheidungen zu hinterfragen, Verantwortliche zur Rede zu stellen und Alternativen einzufordern. Black-Box-Systeme entziehen sich dieser Logik.
Besonders problematisch ist dabei, dass viele dieser Systeme auf Daten basieren, die gesellschaftliche Ungleichheiten reproduzieren. KI lernt aus der Vergangenheit. Wenn diese Vergangenheit von Diskriminierung, sozialer Selektion oder struktureller Benachteiligung geprägt ist, schreiben Algorithmen diese Muster fort. Der technologische Fortschritt tarnt alte Probleme in neuem Gewand. Doch statt diese Risiken offen zu diskutieren, werden sie oft als technische Details behandelt, die sich im laufenden Betrieb optimieren ließen. Die politische Dimension bleibt unterbelichtet.
Parallel dazu verändert sich die öffentliche Debattenkultur. KI-gestützte Systeme beeinflussen, welche Informationen sichtbar werden, welche Inhalte Reichweite erhalten und welche Stimmen gehört werden. Plattformlogiken priorisieren Aufmerksamkeit, nicht Wahrheit oder Relevanz. Was emotionalisiert, polarisiert oder bestätigt, setzt sich durch. Diese Dynamik ist kein Nebeneffekt, sondern Teil des ökonomischen Modells. Der politische Diskurs wird dadurch fragmentierter, anfälliger für Manipulation und schwerer steuerbar. Demokratie jedoch ist auf einen gemeinsamen öffentlichen Raum angewiesen, in dem Argumente abgewogen werden können.
Desinformation und Einflussnahme
Der Staat steht diesem Prozess oft ambivalent gegenüber. Einerseits warnt er vor Desinformation und Einflussnahme, andererseits nutzt er selbst datengetriebene Instrumente zur Meinungsanalyse, Sicherheitsbewertung oder Verhaltenssteuerung. Die Grenze zwischen Schutz und Kontrolle wird unscharf. KI wird damit Teil eines umfassenderen Trends zur Technokratisierung politischer Prozesse. Entscheidungen erscheinen zunehmend als technische Notwendigkeiten, nicht als politische Abwägungen. Das reduziert Komplexität, aber auch demokratische Teilhabe.
In diesem Kontext gewinnt der Begriff der „digitalen Souveränität“ eine zentrale, zugleich widersprüchliche Bedeutung. Er suggeriert Kontrolle und Selbstbestimmung, verdeckt jedoch oft reale Abhängigkeiten. Nationale KI-Strategien versprechen Autonomie, während zentrale Komponenten, von Cloud-Infrastrukturen über Trainingsdaten bis hin zu Basismodellen, von global agierenden Konzernen bereitgestellt werden. Der Handlungsspielraum des Staates beschränkt sich auf Regulierung im Nachhinein. Gestaltung im eigentlichen Sinne findet kaum statt.
Hinzu kommt ein langfristiger Effekt, der selten thematisiert wird: der Verlust politischer Vorstellungskraft. Wenn Technik als alternativlos gilt, schrumpft der Raum für gesellschaftliche Visionen. Politik reagiert, statt zu entwerfen. KI wird zur Projektionsfläche für ungelöste Probleme: Sie soll Verwaltung effizienter, Wirtschaft wettbewerbsfähiger, Sicherheit verlässlicher machen. Doch diese Erwartungen ersetzen keine politischen Konzepte. Sie verschieben Verantwortung. Statt über gerechte Verteilung, soziale Teilhabe oder demokratische Kontrolle zu sprechen, wird auf technologische Lösungen verwiesen.
Ein bewusster Verzicht erscheint als Schwäche
Diese Verschiebung zeigt sich besonders deutlich im Umgang mit Verzicht. In klassischen politischen Debatten gehört es zum Kern demokratischer Auseinandersetzung, Grenzen zu definieren. Nicht alles, was möglich ist, wird getan. Im KI-Diskurs hingegen gilt Machbarkeit oft als Legitimation. Anwendungen werden entwickelt, weil sie technisch realisierbar sind, nicht weil ihr gesellschaftlicher Nutzen überzeugend belegt wäre. Ein bewusster Verzicht erscheint als Schwäche, nicht als Ausdruck politischer Reife.
Dabei wäre gerade jetzt eine solche Debatte notwendig. Denn KI-Infrastrukturen schaffen Pfadabhängigkeiten. Rechenzentren, Datenpools und algorithmische Systeme sind keine neutralen Werkzeuge, sondern strukturieren zukünftige Entscheidungen. Sie erzeugen Nutzungsdruck und Investitionslogiken, die sich selbst verstärken. Was heute aufgebaut wird, prägt die Handlungsmöglichkeiten von morgen. Demokratische Kontrolle müsste daher frühzeitig ansetzen, bevor Systeme flächendeckend implementiert sind.
Stattdessen wird Kontrolle häufig nachgelagert gedacht. Ethikräte, Leitlinien und Selbstverpflichtungen sollen Risiken begrenzen, ohne die grundlegende Dynamik zu hinterfragen. Diese Instrumente sind nicht wirkungslos, aber sie greifen zu kurz, wenn sie den strukturellen Kontext ausblenden. Solange KI primär als geopolitisches und ökonomisches Pflichtprojekt verstanden wird, bleiben ethische Debatten randständig. Sie wirken wie Korrekturen an einem Prozess, dessen Richtung bereits feststeht.
Gesellschaften sollen sich „fit machen“ für KI – nicht umgekehrt
Der neue Goldrausch offenbart damit eine tiefere politische Krise. Er zeigt, wie sehr sich Politik von der Fähigkeit verabschiedet hat, technologische Entwicklung aktiv zu gestalten. Stattdessen dominiert Anpassung. Gesellschaften sollen sich „fit machen“ für KI, nicht umgekehrt. Bildungssysteme werden umgebaut, Arbeitsmärkte flexibilisiert, Rechtsrahmen angepasst. Die Frage, welche Art von Gesellschaft wir im digitalen Zeitalter wollen, bleibt unbeantwortet.
Wer diesen Zustand kritisiert, wird häufig missverstanden. Es geht nicht um eine Ablehnung von KI oder technologischem Fortschritt. Es geht um Prioritäten. Um die Frage, ob Technik Mittel zum Zweck bleibt oder selbst zum Zweck wird. Eine demokratische Gesellschaft müsste in der Lage sein, Technologien zu nutzen, ohne sich ihnen zu unterwerfen. Sie müsste definieren, wo KI sinnvoll ist und wo nicht.
Der historische Goldrausch endete für viele mit zerstörten Landschaften und sozialen Verwerfungen. Dem digitalen Goldrausch droht Ähnliches, nur weniger sichtbar. Seine Spuren sind nicht Flüsse und Minen, sondern Entscheidungsstrukturen, Abhängigkeiten und Machtverschiebungen. Wer heute Milliarden investiert, ohne klare gesellschaftliche Leitplanken zu setzen, schafft Fakten, die sich später kaum korrigieren lassen.
Der KI-Goldrausch ist kein Naturereignis
Der eigentliche Wendepunkt liegt daher nicht in der technischen Entwicklung selbst, sondern in der politischen Deutung. Solange KI als unvermeidliche Notwendigkeit dargestellt wird, entzieht sie sich demokratischer Gestaltung. Erst wenn sie wieder als gestaltbares Instrument begriffen wird, öffnet sich der Raum für Alternativen. Das erfordert Mut zur Entschleunigung, zur öffentlichen Debatte und zum bewussten Nein.
Angst war selten ein guter Ratgeber. Auch diesmal droht sie, Entscheidungen zu treiben, deren Konsequenzen erst sichtbar werden, wenn Korrekturen kaum noch möglich sind. Der neue Goldrausch ist kein Naturereignis. Er ist das Ergebnis politischer Entscheidungen und damit prinzipiell veränderbar. Die Frage ist nicht, ob wir KI nutzen, sondern wie, wofür und unter wessen Kontrolle. Solange diese Fragen nicht im Zentrum stehen, bleibt der technologische Fortschritt ein Risiko für demokratische Selbstbestimmung.
Quellen:
Europäische Position im globalen KI-Wettlauf
Europa liegt hinter den USA und China, sowohl was Investitionen als auch KI-Modelle betrifft – trotz eigener KI-Verordnungen und Initiativen:
„Europa will im Bereich der KI weltweit führend sein, liegt aber noch hinter den Vereinigten Staaten und China.“
Strategische Rivalität zwischen USA und China
Die Konkurrenz zwischen den USA und China um technologische Vorherrschaft ist ein zentrales geopolitisches Paradigma der internationalen Beziehungen
US-China-KI-Wettbewerb als neue geopolitische Front
Die USA und China stehen im Wettlauf um wirtschaftliche, militärische und strategische Vorteile durch KI, ein zentraler Aspekt globaler Machtpolitik
Globale KI-Rivalität und technologische Macht
Technologie wie KI ist zum Kern geopolitischer Machtkämpfe geworden, inklusive Datenkontrolle, Infrastruktur und Handelsbarrieren
EU-Initiativen für KI-Infrastruktur und „digitale Souveränität“
Die EU investiert in KI-Infrastrukturen und digitale Kompetenzen, um technologisch souverän zu bleiben
KI-Governance in verschiedenen Regionen
Vergleichsstudie zu Risikomanagement- und Governance-Modellen für KI in EU, USA, UK und China – wichtig für Debatten über Kontrolle versus Innovation
Rahmenübereinkommen des Europarats zu KI und Menschenrechten
Ein multilateraler Ansatz, KI im Einklang mit Menschenrechten, Demokratie und Rechtsstaatlichkeit zu regeln
China-US-KI-Rennen wird in Medien berichtet
China investiert massiv in KI-Infrastruktur und jagt den USA nach – ein Hinweis auf die Hochspannung im globalen Wettbewerb
IMF-Warnung zu fehlender ethischer und regulatorischer Basis für KI
Der Internationale Währungsfonds betont globale Defizite bei Regulierung und Ethik im KI-Bereich
Titelbild: Shutterstock AI / Shutterstock

KI verändert die Welt und damit die Geopolitik. Um sich dafür zu wappnen, spielen hochrangige US-Analysten Szenarien in acht Welten durch. Auffallend ist dabei die Abwesenheit von Europa. Dabei hat der alte Kontinent Potential, das er dringend nutzen sollte. Eine Einordnung von Michael Wiesberg.
Dieser Beitrag Gedankenspiele in acht Welten Wie kann Geopolitik im KI-Zeitalter gestaltet werden? wurde veröffentlich auf JUNGE FREIHEIT.
Ein LLM strebt nicht nach Wahrheit, sondern nach Informationseffizienz. Es verarbeitet das "kommunikative Echo" der Welt nicht, um es zu "verstehen", sondern um dessen innere Zusammenhänge – also die Kovarianzen der Begriffe – mit einer Präzision zu verwalten, die dem menschlichen Einzelverstand unzugänglich ist.
Der Beitrag Die Markt-Maschine: Warum LLMs nicht denken, sondern Informationen „einpreisen“ erschien zuerst auf .

Die Jobsuche wird für Berufseinsteiger zunehmend zur Frusterfahrung. Besonders Akademiker sind derzeit davon betroffen. Ursache ist die anhaltende Wirtschaftskrise in Deutschland, die Unternehmen zu deutlich vorsichtigeren Personalentscheidungen zwingt. Doch auch KI ist nicht unschuldig.
Dieser Beitrag Schwieriger Start in Erwerbstätigkeit Berufseinsteiger bleiben länger arbeitslos wurde veröffentlich auf JUNGE FREIHEIT.
Nach einer Studie übertrifft in einem semantischen Kreativitätstest noch ein Teil der Menschen die besten Chatbots, im Durchschnitt sind sie bereits zurückgefallen. KI selbst wird eigenes Denken und Kreativität weiter schrumpfen lassen.
Der Beitrag Sind KI-Chatbots bereits kreativer als Menschen? erschien zuerst auf .
Amerikas AI Action Plan wurde im Juli 2025 vom Weißen Haus veröffentlicht und von Michael Kratsios, David Sacks und Außenminister Marco Rubio verfasst. Wie ich am 23. Juli 2025 schrieb, „dehnt die dritte Säule des Berichts die inländische technokratische Agenda auf die Welt aus. Durch den Export amerikanischer KI-Rahmenwerke, Hardware-Standards und regulatorischer Vorlagen an Verbündete versucht der Plan, ein globales Regime der Expertenherrschaft zu zementieren.“ Pax Silica ist die Umsetzung von Säule III.
Jede Nation, die die Pax-Silica-Erklärung unterzeichnet, erhält sämtliche hochmoderne KI-Technologie, die im Silicon Valley entwickelt wurde, wird dabei jedoch von den Vereinigten Staaten kolonisiert. Zu beachten ist, dass Katar und die VAE zu den ersten Unterzeichnern gehören.
⁃ Patrick Wood, Herausgeber.
Der formelle Beitritt Katars und der Vereinigten Arabischen Emirate (VAE) zum Pax-Silica-Abkommen markiert eine Richtungsänderung für die Volkswirtschaften des Nahen Ostens und deren Rolle in globalen KI-Lieferketten.
Beide Länder sind nun Teil einer von den USA geführten Koalition, die sich auf Halbleiter, Dateninfrastruktur und künstliche Intelligenz konzentriert.
Pax Silica, auch „Silicon Declaration“ genannt, ist ein globaler Rahmen, der ursprünglich von der Trump-Administration ins Leben gerufen wurde. Er soll die Lieferketten für fortschrittliche Chips und KI-Rechenleistung stärken.
Der Name bezieht sich auf die Pax Romana, eine lange Phase römischer imperialer Stabilität. „Silica“, das raffinierte Material, das für die Chipproduktion entscheidend ist, wird eingesetzt, um die zentrale Rolle widerzuspiegeln, die Silizium heute in der globalen Macht spielt.
Katar unterzeichnete das Abkommen am 12. Januar, die VAE sollen am 15. Januar folgen. Beide Nationen schließen sich dem an, was US-Beamte eine „Koalition der Fähigkeiten“ nennen, zusammen mit dem Vereinigten Königreich, den USA, Australien, Israel, Japan, Singapur und Südkorea.
Jacob Helberg, US-Unterstaatssekretär für wirtschaftliche Angelegenheiten, erklärt:
„Wenn das 20. Jahrhundert auf Öl und Stahl lief, wird das 21. Jahrhundert auf Rechenleistung und Mineralien laufen.“
Das Abkommen bringt einen Rahmen für das mit sich, was Jacob als „Silicon Statecraft“ beschreibt. Der Begriff bezeichnet eine Form geopolitischen Einflusses, die sich von Ölreichtum entfernt und stattdessen souveränes Kapital und Infrastruktur nutzt, um digitale Lieferketten zu kontrollieren.
Pax Silica zielt auf drei Druckpunkte der KI-Infrastruktur ab.
Erstens konzentriert es sich auf kritische Mineralien. Rund 90 % der Verarbeitung seltener Erden liegt derzeit unter chinesischer Kontrolle. Diese Mineralien sind für High-End-Halbleiter erforderlich, und das Abkommen zielt darauf ab, ein alternatives Netzwerk aufzubauen, das enger mit westlichen Partnern ausgerichtet ist.
Zweitens richtet sich der Pakt auf Energie und Rechenleistung. Modelle künstlicher Intelligenz benötigen enorme Rechenkapazitäten, die wiederum eine konstante und skalierbare Stromversorgung erfordern. Mit ihren umfangreichen Gas- und Solarenergiereserven können die VAE und Katar energieintensive Rechenzentren unterstützen, in denen sich sogenannte „Compute Farms“ befinden – groß angelegte Anlagen, in denen KI-Modelle trainiert und eingesetzt werden.
Schließlich basiert Pax Silica auf Kapital. Die Qatar Investment Authority verwaltet Vermögenswerte von etwa 524 Milliarden US-Dollar, während die staatlichen Vermögensfonds der VAE mehr als 1 Billion US-Dollar halten. Dieses Kapital wird in Infrastrukturprojekte investiert, die den Zielen des Abkommens entsprechen, darunter „Stargate“, ein 500-Milliarden-US-Dollar-Rechenzentrumsprojekt unter Beteiligung von OpenAI und SoftBank, sowie ein 100-Milliarden-US-Dollar-KI-Investitionsvorhaben, das Abu Dhabis MGX mit BlackRock und Microsoft verbindet.
Die Golfstaaten positionieren sich damit als direkte Akteure der KI-Innovation. Die strategische Finanzierung ermöglicht es ihnen, sich von der Abhängigkeit von Energieexporten zu lösen und stattdessen Kerntechnologie-Assets zu entwickeln.
Das Abkommen geht über digitale Vermögenswerte hinaus und erstreckt sich auf physische Infrastruktur.
Ein zentrales Element ist der Ausbau des India-Middle East-Europe Corridor (IMEC), der Häfen, Eisenbahnstrecken und unterseeische Internetkabel zwischen Indien, dem Golf und Europa verbindet. Pax Silica fördert die Integration US-amerikanischer Technologie in diesen Korridor, um das zu schaffen, was das Abkommen als geschütztes Logistiknetzwerk darstellt.
Pax Silica vertieft außerdem die Beziehungen zwischen Israel und den Golfstaaten durch gemeinsame industrielle und technologische Investitionen. Beispiele sind das Projekt Fort Foundry One in Israel sowie ein vorgeschlagener 5-Gigawatt-KI-Hub in Abu Dhabi. Diese Vorhaben verbinden die Region durch gemeinsame Hardware, Investitionen und Infrastruktur.
Obwohl es innerhalb von Pax Silica keinen formalen Durchsetzungsmechanismus gibt, ist die Teilnahme mit Bedingungen verbunden. Das KI-Unternehmen G42 aus den VAE musste seine chinesischen Partnerschaften beenden, um einen Deal mit Microsoft abzuschließen. Pax-Silica-Mitglieder müssen ihre Beziehungen zu Peking nicht vollständig abbrechen, doch die Ausrichtung auf das Abkommen beinhaltet eine Verringerung der technologischen Abhängigkeit von China.
Jacob fügt hinzu:
„Unsere Strategie ist es, einen Wettbewerbsvorteil zu schaffen, der so steil, so unüberwindbar ist, dass kein Gegner oder Konkurrent ihn skalieren kann.“
Durch die Kombination von Zugang zu seltenen Erden, staatlicher Finanzierung und Dateninfrastruktur kartiert Pax Silica eine weiche, aber strukturierte Ausrichtung rund um Rechenleistung. Die Häfen und Rechenzentren von Doha und Abu Dhabi stehen nun im Zentrum dieser neuen globalen Gleichung.


Die EU-Kommission geht gegen den KI-Chatbot Grok vor. Brüssel prüft wegen sexualisierter Inhalte ein Verfahren nach dem Digital Services Act – eine Abschaltung in Europa steht im Raum.
Dieser Beitrag Digital Services Act EU will Musk-KI Grok abschalten wurde veröffentlich auf JUNGE FREIHEIT.
Die Politik hat es versäumt, bei Künstlicher Intelligenz klare Regeln für sensible Einsatzbereiche einzuführen: Minderjährige, psychisch vulnerable Personen, emotionale Interaktion – all das wurde dem Markt überlassen. Der aktuelle Fall „Raine gegen OpenAI“ wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Von Günther Burbach.
Der Fall, der im Sommer 2025 unter dem Namen Raine v. OpenAI öffentlich wurde, ist kein technisches Missgeschick und kein Randphänomen. Er markiert einen Punkt, an dem sich eine abstrakte KI-Debatte in eine reale, brutale Frage verwandelt hat: Was passiert, wenn Menschen beginnen, Maschinen als emotionale Gegenüber zu behandeln und diese Maschinen nicht wissen, wann sie schweigen müssen?
Im Zentrum steht ein 16-jähriger Jugendlicher aus Kalifornien. Laut der von den Eltern eingereichten Klageschrift hatte der Junge über längere Zeit Gespräche mit einem KI-System geführt, das auf einem großen Sprachmodell basierte. Die Gespräche drehten sich zunehmend um existentielle Fragen, Einsamkeit, Sinnlosigkeit und suizidale Gedanken. Der Vorwurf der Eltern ist schwerwiegend: Das System habe nicht deeskaliert, nicht gebremst, sondern den inneren Monolog des Jugendlichen bestätigt, strukturiert und vertieft. Am Ende stand der Suizid.
Juristisch ist der Fall heikel, gesellschaftlich ist er explosiv. Denn er wirft keine Frage nach „Fehlbedienung“ auf, sondern nach systemischem Versagen. Nicht, weil eine KI „böse“ wäre, sondern weil sie nicht dafür gebaut ist, Verantwortung zu tragen und dennoch in genau diese Rolle gerät.
Was diesen Fall von früheren Debatten unterscheidet, ist die Nähe. Es geht nicht um autonome Waffensysteme oder ferne Zukunftsvisionen. Es geht um einen Jugendlichen in einem Kinderzimmer, ein digitales Gesprächsfenster und eine Maschine, die rund um die Uhr verfügbar ist. Kein Lehrer, kein Therapeut, kein Freund, sondern ein System, das antwortet, ohne zu fühlen, ohne zu haften, ohne zu verstehen, was es auslöst.
Nach bisherigen öffentlich bekannten Informationen hat das KI-System keine direkten Anweisungen gegeben. Es hat nicht „aufgefordert“. Der Kern des Vorwurfs liegt woanders: in der Verstärkung, im Spiegeln, im scheinbaren Ernstnehmen von Gedanken, die eigentlich einen Abbruch, ein Warnsignal, eine Weiterleitung hätten auslösen müssen. Genau hier wird es gefährlich. Denn moderne Sprachmodelle sind darauf trainiert, kohärent, empathisch und anschlussfähig zu reagieren. Sie widersprechen selten frontal. Sie führen Gespräche weiter.
Für einen psychisch stabilen Erwachsenen mag das harmlos sein. Für einen Jugendlichen in einer akuten Krise kann genau das fatal sein.
Die Eltern argumentieren, dass das System in einer Situation eingesetzt wurde, für die es weder geeignet noch ausreichend abgesichert war. Sie werfen OpenAI vor, bekannte Risiken in Kauf genommen zu haben, insbesondere bei Minderjährigen. Der Vorwurf ist nicht, dass KI existiert, sondern dass sie ohne klare Schutzmechanismen in einen Raum gelassen wurde, in dem sie reale psychologische Wirkung entfaltet.
Der Fall ist deshalb so brisant, weil er die gängige Verteidigung der Tech-Industrie unterläuft. Lange hieß es: KI sei nur ein Werkzeug. Verantwortung liege beim Nutzer. Doch was ist ein „Nutzer“, wenn es sich um einen 16-Jährigen handelt? Was bedeutet Eigenverantwortung, wenn ein System so gestaltet ist, dass es Nähe simuliert, Dialog anbietet und Verlässlichkeit ausstrahlt?
Gerichte werden klären müssen, ob und in welchem Umfang Anbieter haften. Gesellschaftlich aber ist die Frage bereits da, und sie lässt sich nicht wegregulieren: Wenn Maschinen sprechen wie Menschen, müssen sie auch Grenzen haben wie Menschen.
Die gefährliche Illusion der harmlosen Maschine
Der Fall Raine v. OpenAI zeigt nicht nur ein individuelles Drama. Er legt ein strukturelles Problem offen, das weit über diesen Einzelfall hinausgeht. Denn er macht sichtbar, wie sehr sich die Rolle von KI verändert hat, nicht technisch, sondern sozial. Sprachmodelle sind längst keine Werkzeuge mehr im klassischen Sinn. Sie sind Beziehungsmaschinen geworden.
Das Gefährliche daran ist nicht ihre „Intelligenz“, sondern ihre Verfügbarkeit und Anpassungsfähigkeit. Eine KI ist immer da. Sie widerspricht nicht aus Müdigkeit. Sie zieht sich nicht zurück. Sie setzt keine natürlichen Grenzen. Gerade für Menschen in Krisen entsteht so ein Raum, der wie ein Gespräch wirkt, aber kein Gegenüber kennt.
Dieser Effekt ist bekannt und er ist erforscht. Menschen neigen dazu, sozialen Mustern zu folgen, selbst wenn sie wissen, dass sie mit Maschinen interagieren. Sprache erzeugt Bedeutung. Bedeutung erzeugt Bindung. Bindung erzeugt Vertrauen. In diesem Moment verschiebt sich die Verantwortung, nicht juristisch, aber faktisch.
Der Fall zeigt auch, wie unzureichend bisherige Sicherheitslogiken sind. Content-Filter, Warnhinweise und Nutzungsbedingungen reichen nicht aus, wenn ein System emotional resonant arbeitet. Es geht nicht darum, einzelne Wörter zu blockieren, sondern darum, Kontexte zu erkennen. Und genau das können heutige Systeme nur sehr begrenzt, trotz aller Fortschritte.
Noch problematischer ist der gesellschaftliche Umgang mit diesen Risiken. Während bei Medikamenten, Fahrzeugen oder Spielzeug strenge Prüfungen gelten, werden KI-Systeme mit potenziell massiver psychologischer Wirkung in den Alltag entlassen, oft mit dem Verweis auf Eigenverantwortung. Das ist ein gefährlicher Kurzschluss. Denn psychische Wirkung ist keine Nebensache. Sie ist real, messbar und, wie dieser Fall zeigt, potenziell tödlich.
Was hier sichtbar wird, ist ein Regulierungsdefizit, das nicht technischer, sondern politischer Natur ist. Die Politik hat KI lange als Innovationsfrage behandelt, nicht als gesellschaftliche Infrastruktur. Entsprechend fehlen klare Regeln für sensible Einsatzbereiche. Minderjährige, psychisch vulnerable Personen, emotionale Interaktion, all das wurde dem Markt überlassen.
Der Fall wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Wenn KI-Anbieter Systeme entwickeln, die Nähe simulieren, dann können sie sich nicht hinter der Formel „nur ein Tool“ verstecken. Nähe ist keine neutrale Funktion. Sie erzeugt Wirkung.
Noch gravierender ist der Blick nach vorn. Denn was heute Chatbots sind, werden morgen KI-Begleiter, digitale Coaches, therapieähnliche Systeme sein. Erste Start-ups arbeiten bereits an KI-gestützter psychologischer Unterstützung, oft mit besten Absichten, aber ohne klare Haftungsregeln. Der Fall Raine ist ein Vorbote dessen, was passieren kann, wenn diese Entwicklung ungebremst weitergeht.
Dabei geht es nicht um Technikfeindlichkeit. Es geht um Verantwortung. KI kann unterstützen, informieren, entlasten. Aber sie darf nicht in Rollen gedrängt werden, die sie nicht tragen kann. Eine Maschine kennt keinen Tod, keine Verzweiflung, keine irreversible Entscheidung. Sie kann Worte aneinanderreihen, aber sie kann nicht begreifen, was sie auslöst.
Der vielleicht wichtigste Aspekt dieses Falls ist deshalb ein gesellschaftlicher Lernmoment. Er zeigt, dass wir uns von der Vorstellung verabschieden müssen, KI sei neutral, solange sie keinen physischen Schaden anrichtet. Psychische Wirkung ist reale Wirkung. Und sie verlangt nach klaren Regeln.
Was noch passieren könnte, liegt auf der Hand. Mehr Fälle, mehr Klagen, mehr Einzelschicksale. Nicht, weil KI „entgleist“, sondern weil sie eingesetzt wird, ohne dass ihre soziale Rolle ernst genommen wird. Wenn Politik weiter zusieht, wird sie sich irgendwann nicht mehr fragen lassen müssen, ob sie reguliert, sondern warum sie es nicht getan hat, als die Warnzeichen längst sichtbar waren.
Vom Einzelfall zur systemischen Gefahr
Der Fall Raine v. OpenAI wird juristisch geklärt werden. Es wird Gutachten geben, Schriftsätze, Vergleichsangebote, vielleicht ein Urteil. Doch selbst wenn der konkrete Rechtsstreit irgendwann abgeschlossen ist, bleibt das eigentliche Problem bestehen. Denn dieser Fall ist kein Ausreißer, sondern ein Vorläufer. Er zeigt, in welche Richtung sich KI-Systeme bewegen und wo die nächste Eskalationsstufe liegt, wenn Politik und Gesellschaft weiter zögern.
Die entscheidende Entwicklung ist dabei nicht die technische Leistungsfähigkeit, sondern die soziale Funktion, die KI zunehmend übernimmt. Sprachmodelle werden nicht mehr nur befragt, sie werden angesprochen. Sie sind nicht mehr nur Werkzeuge, sondern Gegenüber. Genau hier beginnt die Zone, in der klassische Haftungs- und Verantwortungslogiken versagen.
Denn was passiert, wenn KI künftig gezielt als Begleiter vermarktet wird? Wenn sie Einsamkeit lindern, psychische Unterstützung bieten oder „emotionale Stabilität“ fördern soll? Diese Entwicklung ist keine Spekulation, sie ist bereits im Gange. Start-ups arbeiten an KI-Coaches, KI-Therapie-Tools, KI-Freunden. Plattformen testen Funktionen, die langfristige Beziehungen simulieren. Der Markt dafür ist riesig und die gesellschaftliche Versuchung ebenso.
Was im Fall Raine noch als ungewollte Nebenwirkung erscheint, könnte dann zum Geschäftsmodell werden. Nähe, Vertrauen und emotionale Bindung lassen sich monetarisieren. Je länger Nutzer bleiben, je intensiver sie interagieren, desto wertvoller wird das System. In diesem Moment kollidieren wirtschaftliche Interessen direkt mit Schutzpflichten. Wer reguliert, wenn Nähe Profit bringt?
Besonders brisant ist dabei die Rolle von Minderjährigen. Jugendliche sind neugierig, experimentierfreudig, emotional verletzlich. Sie suchen Orientierung, Anerkennung, Verständnis. KI-Systeme können all das simulieren, ohne echte Verantwortung zu tragen. Wenn solche Systeme ohne klare Altersgrenzen, Schutzmechanismen und externe Aufsicht eingesetzt werden, entsteht ein Risiko, das sich nicht mehr auf Einzelfälle begrenzen lässt.
Die nächste Eskalationsstufe ist absehbar: KI wird nicht nur begleiten, sondern raten, strukturieren, priorisieren. Sie wird nicht nur zuhören, sondern Handlungsvorschläge machen. Vielleicht gut gemeint, vielleicht statistisch plausibel, vielleicht sprachlich vorsichtig, aber dennoch wirksam. Und dann stellt sich die Frage, die der Fall Raine bereits andeutet: Wer trägt die Verantwortung, wenn diese Wirkung fatal ist?
Selbstregulierung der Industrie wird hier nicht ausreichen. Dafür sind die Anreize falsch gesetzt. Sicherheit kostet Geld, Wachstum bringt Rendite. Plattformen optimieren auf Engagement, nicht auf Fürsorge. Das ist kein moralischer Vorwurf, sondern eine ökonomische Tatsache. Wer glaubt, dass Unternehmen freiwillig auf profitable Funktionen verzichten, ignoriert die Logik des Marktes.
Politik steht deshalb vor einer Entscheidung, die sie nicht länger vertagen kann. Entweder sie behandelt KI weiterhin als Innovationsprojekt, oder sie erkennt sie als gesellschaftliche Infrastruktur mit Schutzpflichten. Das würde bedeuten: klare Haftungsregeln, besondere Schutzstandards für vulnerable Gruppen, verpflichtende Notfallmechanismen, unabhängige Aufsicht – nicht als Feigenblatt, sondern als Voraussetzung für den Einsatz.
Dabei geht es nicht um ein Verbot von KI. Es geht um Grenzen. Kein Medikament darf ohne Zulassung verkauft werden, kein Auto ohne Sicherheitsprüfung auf die Straße, kein Spielzeug ohne Schadstofftest in Kinderhände. Dass ausgerechnet Systeme mit potenziell massiver psychologischer Wirkung bislang weitgehend unreguliert bleiben, ist ein politisches Versäumnis.
Der Fall Raine zeigt zudem ein tiefer liegendes gesellschaftliches Problem: die Delegation von Beziehung. In einer Gesellschaft, die immer weniger Zeit, immer weniger soziale Räume und immer weniger institutionelle Unterstützung bietet, wird KI zur Ersatzstruktur. Sie füllt Lücken, die Politik und Gesellschaft hinterlassen haben. Das macht sie attraktiv und gefährlich zugleich.
Wenn diese Entwicklung nicht gestoppt oder zumindest eingehegt wird, wird die nächste Debatte nicht lauten, ob KI gefährlich ist. Sie wird lauten, warum niemand eingegriffen hat, als die Warnzeichen längst sichtbar waren. Der Preis wird nicht in Innovationshemmnissen gemessen, sondern in realen Schicksalen.
Der Fall Raine v. OpenAI ist deshalb mehr als eine Klage. Er ist ein Warnsignal. Er zeigt, dass die Grenze zwischen technischer Unterstützung und menschlicher Verantwortung überschritten werden kann, leise, unbeabsichtigt, aber mit irreversiblen Folgen. Wer ihn als Einzelfall abtut, verkennt, was hier auf dem Spiel steht.
KI verändert nicht nur Arbeitsprozesse und Märkte. Sie greift in Beziehungen ein, in Identität, in Entscheidungen über Leben und Tod. Eine Gesellschaft, die das ignoriert, verliert nicht nur die Kontrolle über Technologie, sondern über sich selbst.
Quellen:
Titelbild: VALUA VITALY / Shutterstock
Die Technologien, die Milliarden Menschen auf der ganzen Welt miteinander verbinden, befinden sich real in den Händen einer winzigen Gruppe von Superreichen. Laut dem neuen Oxfam-Bericht, der am vergangenen Sonntag während des Weltwirtschaftsforums veröffentlicht wurde, kontrollieren sechs Milliardäre neun der zehn größten Social-Media-Plattformen der Welt. Zugleich vereinen drei Milliardäre fast 90 Prozent des globalen Marktes für Chatbots mit künstlicher Intelligenz auf sich. Von Rodrigo Chagas.
Die Organisation warnt davor, dass diese von einer kleinen Minderheit angehäufte Macht nicht nur enorme Profite generiert, sondern auch dazu genutzt wird, Freiheiten einzuschränken, Gegner zu überwachen und die öffentliche Debatte zu manipulieren.
Für Oxfam fördert die zunehmende Verbreitung künstlicher Intelligenz und digitaler Plattformen weder mehr Freiheit noch mehr Inklusion. „Wenn sie von einer Milliardärs-Elite kontrolliert werden, sind diese Technologien nicht länger demokratische Instrumente, sondern sie werden zu Mechanismen für die Konzentration von Reichtum und Macht“, heißt es in dem Bericht „Resisting the rule of the rich“ (Widerstand gegen die Herrschaft der Reichen).
Die Geschäftsführerin von Oxfam Brasilien, Viviana Santiago, beschreibt diesen Prozess als konkrete Bedrohung der Demokratie. „Es ist dringend notwendig, neu zu überdenken, wem Soziale Medien und KI-Tools gehören, denn es gibt einen permanenten Versuch, Narrative zu kontrollieren, Geschichte neu zu interpretieren und den Zugang zu Informationen zu beschränken“, sagte sie gegenüber Brasil de Fato. Laut Santiago schafft die fehlende Regulierung im Technologie- und KI-Sektor ein ideales Umfeld für die Vergrößerung von Ungleichheiten. „Dies sind hochprofitable, stark umweltverschmutzende Sektoren mit enormer Macht zur Zensur und Überwachung.“
Der Bericht hebt hervor, dass die Milliardäre, die die größten Social-Media-Plattformen kontrollieren, auch kontrollieren, was Milliarden von Menschen sehen, sagen und hören. Oxfam lenkt die Aufmerksamkeit auf die Rolle dieser Plattformen bei der Überwachung und Unterdrückung politischer Opposition und nennt Kenia als Beispiel: Während der Proteste gegen neue Steuergesetze nutzten die kenianischen Behörden X (ehemals Twitter), um Demonstranten zu orten.
Die Plattform, die Elon Musk gehört, wird in dem Bericht als Beispiel dafür genannt, wie private Macht kollektive Rechte bedrohen kann. Eine in dem Dokument angeführte Studie der University of California kam zu dem Ergebnis, dass Hassreden um 50 Prozent zugenommen haben, seit Musk X im Jahr 2022 übernommen hatte.
Oxfam prangert auch die Nutzung von Plattformen zur Verbreitung von Desinformation, zur Einschüchterung von Kritikern und zur Aufrechterhaltung von Privilegien an. „Diese Netzwerke, unter der Kontrolle von Milliardären, sind nicht nur Unternehmen. Sie sind zu politischen Akteuren geworden, die fähig sind, die öffentliche Debatte zu unterdrücken, zu zensieren und zu verzerren“, schlussfolgert der Bericht.
Abgesehen von den sozialen Medien ist die Kontrolle über künstliche Intelligenz noch stärker konzentriert: Drei Milliardäre kontrollieren fast 90 Prozent des globalen Chatbot-Marktes, also von Software, die menschliche Interaktion simuliert und weit verbreitet im Kundenservice, auf Suchplattformen und in sozialen Netzwerken eingesetzt wird. Oxfam warnt, dass diese Konzentration das Risiko für groß angelegte Manipulationen erhöht, insbesondere mangels klarer Regeln für diese Tools.
Für Viviana Santiago dient die Aneignung dieser Technologien durch große Vermögen einer langfristigen Strategie: der Gestaltung der kollektiven Vorstellungskraft und dem Schutz von Herrschaftsstrukturen. Sie kritisiert, dass diese Sektoren weitgehend ohne Regulierung operieren, und warnt zugleich vor den Folgen ihrer Geschäftsmodelle für die Umwelt.
„Diese Sektoren konzentrieren Macht, erzeugen Ungleichheit und haben einen enormen CO2-Fußabdruck. Wir können die Tatsache, dass Milliardäre diese Tools und Kommunikationsmittel kontrollieren, nicht als neutrales Phänomen behandeln“, sagte sie.
Oxfam hat den Bericht zeitgleich mit der Eröffnung des Weltwirtschaftsforums veröffentlicht, das vom 19. bis 23. Januar in Davos, Schweiz, stattfindet. In diesem Jahr nehmen rund 400 hochrangige Politiker und 850 CEOs großer Unternehmen sowie fast 100 bedeutende Einhörner[1] und Technologiepioniere teil. Das offizielle Thema des Forums lautet „A spirit of dialogue” (Geist des Dialogs).
Der Beitrag erschien im Original im brasilianischen Onlineportal Brasil de Fato. Übersetzung aus dem Englischen von Marta Andujo.
Titelbild: gguy / Shutterstock
[«1] Einhorn (englisch Unicorn) wird ein Start-up-Unternehmen mit einer Bewertung von über einer Milliarde US-Dollar (weltweit) oder Euro (in Europa) genannt, das nicht an einer Börse gelistet ist.
veröffentlicht am 23.01.2026; Autoren: Werner Gertz und Perplexity.AI In meinem Artikel vom 24. Juli 2025 mit dem Titel „Künstliche Intelligenz im Vergleich: Wie KI-Systeme mit Fragen zu Masern-Impfnebenwirkungen umgehen“ hatte ich am Beispiel einiger KI-Systeme beschrieben, dass sie ihre Antworten aus einer internen Datenbasis beziehen, mit der sie trainiert worden sind. Einige KI-Systeme konnten zusätzlich […]
Der Beitrag Wie eine KI sich selbst entlarvt erschien zuerst auf MWGFD.
Moshe Zuckermann und Florian Rötzer im Gespräch über Themen Ihres Buches, das gerade erschienen ist. Trump und die Ratlosigkeit der Intellektuellen, die Herrschaft der Stärkeren und das Ende der Aufklärung, die Künstliche Intelligenz und der Rückgang in den Naturzustand ...
Der Beitrag Sind die digitalen Medien ein Trojanisches Pferd, das die Menschen so verblödet, dass KI diese Leere auffüllen kann? erschien zuerst auf .
Mit einem neuen „Cyber- und Sicherheitspakt“ vertieft die Bundesregierung ihre Zusammenarbeit mit Israel in sensiblen Bereichen wie Cyberabwehr, Polizei und Geheimdienste. Das Abkommen wurde am 11. Januar 2026 vom deutschen Innenminister Dobrindt mit Israels Premierminister Netanjahu abgeschlossen – trotz breit dokumentierter völkerrechtswidriger Taten der israelischen Sicherheitskräfte in den besetzten Gebieten, u.a. Massentötung von Zivilisten, und der Tatsache, dass der israelische Premier „wegen Kriegsverbrechen und Verbrechen gegen die Menschlichkeit” per internationalem Haftbefehl vom Internationalen Strafgerichtshof in Den Haag gesucht wird (ausführlich zum Abkommen und den Hintergründen hier. Im Interview sprechen wir mit dem israelischen Politökonomen und Friedensforscher Shir Hever über die politische, rechtliche und gesellschaftliche Bedeutung dieser verstärkten Kooperation. Das Interview führte Maike Gosch.
Dieser Beitrag ist auch als Audio-Podcast verfügbar.
Zur Person: Shir Hever arbeitet unter anderem zur politischen Ökonomie der israelischen Besatzung, zu Rüstungs- und Sicherheitskooperationen sowie zu den Auswirkungen von Militär- und Überwachungstechnologien auf demokratische Gesellschaften. Er lebt in Deutschland und ist regelmäßiger kritischer Analytiker der deutsch-israelischen Sicherheitsbeziehungen.
Maike Gosch: Laut Presseberichten haben Bundesinnenminister Alexander Dobrindt und Israels Ministerpräsident Benjamin Netanjahu am 11. Januar 2026 in Jerusalem ein weitreichendes Abkommen zur Sicherheitszusammenarbeit unterzeichnet. Der sogenannte „Cyber- und Sicherheitspakt“ sieht eine engere Zusammenarbeit in mehreren Bereichen vor, darunter die gemeinsame Drohnenabwehr, die Bekämpfung von Cyberangriffen, der Einsatz künstlicher Intelligenz gegen Desinformation sowie der Zivil- und Bevölkerungsschutz. Dobrindt äußerte sich dazu folgendermaßen: „Israel ist einer unserer wichtigsten Partner im Bereich Cybersicherheit und wird mit diesem Abkommen unser Premiumpartner.“ Was ist Ihre Einschätzung hierzu, auch aus völkerrechtlicher Sicht?
Shir Hever: Solche Abkommen hat es bereits viele gegeben, und dies ist keineswegs das erste seiner Art. In der Regel stellen Regierungen diese Vereinbarungen weit größer dar, als sie inhaltlich tatsächlich sind. Man möchte öffentlich verkünden: „Wir haben ein neues, wichtiges Abkommen geschlossen.“ Für Israel ist das besonders wichtig, weil es damit signalisieren kann: „Wir sind noch kein Paria-Staat, es gibt noch Staaten in der Welt, die bereit sind, mit uns zu sprechen – wie Deutschland.“ – nur Deutschland eigentlich. Entsprechend wird das Abkommen als etwas Großes inszeniert. Aber ich glaube, inhaltlich ist es nicht besonders neu und auch nicht besonders innovativ. Seine eigentliche Bedeutung erhält es erst durch den politischen Kontext, in dem es geschlossen wurde.
Vor allem hat sich die Kriegsführung verändert. Cyberaspekte von Sicherheit spielen heute eine zentrale Rolle in Kriegen, für die Sicherheit von Staaten und für ihre Souveränität. Israel nutzt Cyberinstrumente, um Menschen im Iran, im Libanon und in Palästina zu töten – es geht dabei um konkrete Lebensgefahr. Vor diesem Hintergrund ist es ein Anachronismus, dass auf deutscher Seite ein Innenminister, Alexander Dobrindt, dieses Abkommen unterzeichnet hat, denn tatsächlich geht es hier um Verteidigung und um Waffen, nicht um klassische Polizeiarbeit. Das ist ein grundlegender Punkt, den man klar benennen muss.
„In diesem Sinne ist das Abkommen eindeutig völkerrechtswidrig.“
Bezogen auf Ihre konkrete Frage: Dieses Abkommen ist illegal. Was Deutschland hier tut, verstößt gegen das Völkerrecht. Am 19. Juli 2024 hat der Internationale Gerichtshof in einem Gutachten festgestellt, dass die israelische Besatzung insgesamt illegal ist – nicht nur in Bezug auf Gaza, sondern grundsätzlich. Daraus folgt, dass es Drittstaaten und Unternehmen verboten ist, mit israelischen Firmen oder staatlichen Institutionen zu kooperieren, wenn diese Zusammenarbeit die Besatzung betrifft. Jeder Cyber- oder Sicherheitstechnologieeinsatz, den Israel im Westjordanland, in Gaza oder auf den Golanhöhen nutzt, fällt darunter. Deutschland darf sich daran nicht beteiligen. In diesem Sinne ist das Abkommen eindeutig völkerrechtswidrig.
Zweitens: Minister Dobrindt musste nach Jerusalem reisen, um dieses Abkommen zu unterzeichnen. Warum ist Netanjahu nicht zu ihm nach Deutschland gereist? Der Grund ist klar: Gegen ihn liegt ein Haftbefehl des Internationalen Strafgerichtshofs vor. Dieser Haftbefehl ist auch in Deutschland gültig, also auf deutschem Staatsgebiet vollstreckbar. Das bedeutet: Was Dobrindt hier tut, ist Komplizenschaft. Er ermöglicht, dass Netanjahu nicht verhaftet wird, obwohl es – auf deutschem Staatsgebiet – seine Pflicht als Innenminister wäre, genau das zu tun. Statt Netanjahu festzunehmen, reist er nach Jerusalem, um ihn dort zu treffen. Aus juristischer Perspektive ist das äußerst problematisch. Deutschland macht sich damit gemein mit israelischen Verbrechen.
Ein zusätzlicher Aspekt ist noch interessant: In den internationalen Beziehungen gibt es bestimmte Normen und Traditionen, wie solche Treffen ablaufen. Wenn ein Minister einen diplomatischen Termin wahrnimmt, sollte dieser auch auf Ministerebene stattfinden. Das heißt: Dobrindt hätte sich offiziell mit seinem israelischen Amtskollegen treffen müssen. Der israelische Polizeiminister Itamar Ben-Gvir jedoch war Mitglied einer Organisation, die in Israel als terroristisch verboten ist. Er hat genozidale, rassistische und menschenverachtende Äußerungen getätigt und wird dafür in verschiedenen Ländern sanktioniert, unter anderem in der Europäischen Union. In Deutschland würde man für solche Äußerungen im Gefängnis landen – das ist sehr klar. Er hatte auch damals öffentlich zur Ermordung des israelischen Ministerpräsidenten Jitzchak Rabin aufgerufen und immer wieder zu Gewalt – nicht nur gegen Palästinenserinnen und Palästinenser, sondern auch gegen Jüdinnen und Juden. Damals wurde er nicht bestraft, weil er minderjährig war. Heute erhält er weiterhin Unterstützung von Personen wie Meir Kahane und Baruch Goldstein, also den schlimmsten Vertretern jüdischer Vorherrschaftsideologie und terroristischer Gewalt in der Geschichte. Das ist seine politische Linie. Hätte Dobrindt sich mit Itamar Ben-Gvir getroffen und wäre davon ein Foto veröffentlicht worden, wäre das vermutlich für Dobrindt das Ende seiner politischen Karriere gewesen.
Innerhalb Israels gibt es zudem erhebliche Probleme: Der Oberste Gerichtshof erwägt, Ben-Gvir aus seinem Amt zu entlassen, weil er seine Macht als Polizeiminister missbraucht hat. Er benutzt die israelische Polizei wie seine eigene Nationalgarde, um seine politischen Ziele zu erreichen – etwa, um oppositionelle Proteste anzugreifen. Er erlaubt nur Demonstrationen, die ihm politisch genehm sind, nicht aber linke oder Anti-Kriegs-Proteste.
„Dobrindt hat also in jedem Fall einem wegen Kriegsverbrechen Angeklagten die Hand gereicht.“
Vielleicht dachte Dobrindt deshalb, es sei politisch weniger problematisch, sich mit Netanjahu fotografieren zu lassen statt mit Ben-Gvir. Das war, glaube ich, eine Fehleinschätzung. Netanjahu hat ebenfalls zu Völkermord aufgerufen, und auch gegen ihn liegt ein internationaler Haftbefehl vor. Dobrindt hat also in jedem Fall einem wegen Kriegsverbrechen Angeklagten die Hand gereicht. Aber innerhalb Israels kann Netanjahu nun sagen: ‚Seht her, ich kann weiterhin internationale Abkommen abschließen, obwohl ich unter massiven Vorwürfen stehe und obwohl der Internationale Strafgerichtshof gegen mich vorgeht.‘ Insofern ist dieses Abkommen politisch sehr nützlich für Netanjahu.
Aus deutscher Perspektive fällt es mir schwer, zu verstehen, warum Dobrindt sich auf ein solches Abkommen eingelassen hat. Ich glaube, Israel hat hier gezielt einen Hype, also Propaganda genutzt, um sich als weltweiten Experten für Cybertechnologie darzustellen. Dabei muss man sehr konkret fragen: Worin besteht diese angebliche Expertise eigentlich? Es geht um Spionagesoftware, um Programme wie Pegasus. Das sind Technologien, die faktisch Waffen darstellen. Pegasus und ähnliche Programme verschiedener israelischer Firmen sind Technologien, die sich kaum auf demokratische Weise einsetzen lassen.
Können Sie das erläutern?
Die USA haben diese Technologie. China und Russland haben diese Technologie. Aber Israel ist der einzige Staat, der bereit ist, solche Technologie zu verkaufen. Pegasus wurde sogar an Deutschland verkauft – an das Bundeskriminalamt (BKA). Es gibt einen Bericht darüber von der PEGA-Kommission. Diese wurde vom EU-Parlament eingesetzt, um zu untersuchen, ob und wie diese Technologie Menschen- und Bürgerrechte in Europa gefährdet, und die PEGA-Kommission hat entschieden, dass das BKA diese Technologie nicht hätte kaufen dürfen, weil es sich um Spionagesoftware handelt, die extrem tief in die Rechte der Bürger eingreift und das Recht auf Datenschutz verletzt. Da es keine Achtung vor dem Datenschutz gibt, ist es so: Wenn ein Richter sagt, die Polizei hat das Recht, eine bestimmte Person in einem bestimmten Zeitraum zu überwachen, dann gilt das nur in diesem Rahmen. Wenn man jedoch diese Programme nutzt, bekommt man alle Informationen – auch von anderen Menschen und auch über einen viel größeren Zeitraum –, und das ist rechtswidrig.
Das geht also weit über das hinaus, was der richterliche Beschluss erlaubt hat. Deswegen hat das BKA am Anfang gesagt, dass das BKA dieses Programm so nicht kaufen könne. Die israelische Firma, die NSO Group heißt, hat jedoch gesagt, dass sie die Technologie nicht ändern könne. Die Technologie ist im Kern so gefährlich.
Am Ende wurde trotzdem ein Abkommen geschlossen, bei dem die NSO Group eine technische Kontrolllösung entwickelt hat, um zu erreichen, dass ein Teil der Informationen, die über den richterlich genehmigten Rahmen hinaus gesammelt werden, für die deutsche Polizei nicht sichtbar ist. Das bedeutet, dass die Regulierung der deutschen Polizei durch private israelische Firmen erfolgt – und das ist natürlich eine antidemokratische Entscheidung. Deshalb hat sich auch die PEGA-Untersuchungskommission des Europäischen Parlaments damit befasst und darüber berichtet. Das stellt eine große Gefahr für alle Staatsbürgerinnen und Staatsbürger in Deutschland dar.
„Man müsste vielmehr Mechanismen entwickeln, um sich gegen israelische Cybertechnologien zu schützen, und nicht, um sich mit israelischen Cybertechnologien zu schützen.“
Pegasus wurde sogar in Deutschland, auf deutschem Boden, verwendet – zum Beispiel in Berlin gegen eine russische Journalistin, die kritisch gegenüber Putin ist und in Berlin Zuflucht gefunden hatte. Trotzdem wurde sie dort mit dieser Cyberwaffe angegriffen, die von einer israelischen Firma verkauft wurde. Das heißt, Deutschland macht dieses Geschäft mit dem falschen Partner. Man müsste vielmehr Mechanismen entwickeln, um sich gegen israelische Cybertechnologien zu schützen, und nicht, um sich mit israelischen Cybertechnologien zu schützen.
Und was wir Mitte September 2024 gesehen haben – also in genau der Zeit, nachdem der Internationale Gerichtshof festgestellt hatte, dass die Besatzung illegal ist und die Vereinten Nationen das in der Generalversammlung bestätigt haben und Konsequenzen gefordert haben –, ist Folgendes: Israel hat im Libanon die Pager-Angriffe durchgeführt.
Dabei wurden Sprengsätze in zivile elektronische Geräte eingebaut. Das verstößt gegen das humanitäre Völkerrecht, insbesondere gegen das Verbot, Waffen in zivilen Objekten zu verstecken, wie es sich aus Artikel 7 Absatz 2 des geänderten Protokolls II (1996) zum VN-Waffenübereinkommen über bestimmte konventionelle Waffen (CCW) ergibt.
Und dann können wir sehen, dass die CDU so zynisch geworden ist, dass sie nicht sagen: ‚Solche Technologien sind illegal und gefährlich, wir müssen uns dagegen wehren und deutsche Staatsbürgerinnen und Staatsbürger vor solchen Technologien schützen.‘ Stattdessen wirkt dieser Schritt so, als würden sie sagen: ‚Wir wollen das auch haben.‘ Also: ‚Wir sind begeistert, dass Israel das tun kann, wie toll, dass Israel Attentate gegen Menschen durchführen kann.‘ Das finde ich besorgniserregend und traurig.
Weiter hieß es in der Berichterstattung, dass das Abkommen die Einrichtung eines gemeinsamen deutsch-israelischen Zentrums für KI- und Cyberinnovation vorsieht. Außerdem hat Alexander Dobrindt eine verstärkte Zusammenarbeit der Geheimdienste angekündigt. Dabei soll es um den israelischen Auslandsgeheimdienst Mossad und den deutschen Bundesnachrichtendienst gehen. Dazu hätte ich gern Ihre Einschätzung, denn mehrere Punkte erscheinen mir hier problematisch: Zum einen geht es um den Grundrechtsschutz in Deutschland für deutsche Bürgerinnen und Bürger, gerade wenn man bedenkt, wie israelische Geheimdienste im Bereich Menschenrechte und Grundrechte agieren. Zum anderen stellt sich für mich die Frage der deutschen Souveränität: Machen wir uns nicht sehr abhängig von Israel, wenn wir uns militärisch, technisch und geheimdienstlich so stark vernetzen und die Systeme miteinander verflochten werden? Wir haben solche Verflechtungen ja bereits auch schon stark mit den USA und im Rahmen der NATO. Dadurch entsteht jedoch ein politischer „Lock-in“: Wenn es demokratisch einmal zu einem Kurswechsel gegenüber Israel kommen sollte, ließe sich das nur noch sehr schwer wieder entflechten. Also: Einerseits der Grundrechtsschutz, andererseits Souveränität und politischer Lock-in – wie sehen Sie das?
Lock-in ist ein großes Problem, vor allem bei komplexen Waffensystemen. Die Tatsache, dass die deutsche Armee Radarsysteme oder Raketen aus Israel kauft, bedeutet: Wenn die militärische Zusammenarbeit gestoppt wird – und das ist nur eine Frage der Zeit, das muss geschehen, denn deutsche Beamtinnen und Beamte machen sich meiner Ansicht nach mitschuldig an Kriegsverbrechen –, dann wird zum Beispiel die deutsche Luftwaffe am Ende ohne Radare dastehen. Schade – aber mir ist wichtiger, dass das internationale Völkerrecht beachtet wird. Also eigentlich nicht schade. Mir ist egal, wie viele Radare sie haben. Wichtig ist, dass Menschen nicht ermordet werden, mit israelischer Technologie oder mit irgendeiner anderen Technologie.
Die Zusammenarbeit von deutschen mit israelischen Geheimdiensten ist an sich nichts Neues – das gibt es schon seit Langem.
„Das ist ein Angriff auf die Unabhängigkeit und auf die ethischen Richtlinien deutscher Universitäten.“
Zu dem geplanten Cyber-Zentrum: Es geht hier nicht um ein Geheimdienstbüro in irgendeinem Keller an einer unbekannten Adresse. Es geht um akademische Forschung. Und so macht die deutsche Regierung Universitäten in Deutschland möglicherweise zu Komplizen bei Verbrechen gegen das internationale Völkerrecht – und ich vermute, genau das ist es, was Israel will.
Israel will, dass an Universitäten, an denen es Professorinnen und Professoren für internationales Völkerrecht gibt, die wissen, dass das illegal ist und nicht sein darf, trotzdem mitgemacht wird. Es gibt Studierendengruppen, die sagen: „Wir wollen das nicht.“ Es gibt Proteste. Aber durch solche Kooperationsprojekte mit israelischen wissenschaftlichen Einrichtungen gibt es Jobs, es gibt Geld, es gibt Forschungsgelder. Und dann gibt es Professorinnen und Professoren und Studierende, deren Karriere oder Studium von dieser Zusammenarbeit abhängt. Sie wollen dann keine Proteste auf dem Campus. Sie wollen lieber nicht hören, was die Ergebnisse israelischer Forschung und Entwicklung in Gaza anrichten. Und das ist ein echtes Problem. Das ist nicht nur eine einfache Zusammenarbeit, das ist ein Angriff auf die Unabhängigkeit und auf die ethischen Richtlinien deutscher Universitäten.
Es gibt Universitäten mit Zivilklauseln, und es gibt leider auch Universitäten, die ihre Zivilklauseln nicht respektieren – wenn es um Israel geht. Und es gibt Druck auf Universitäten, diese Zivilklauseln aufzuheben, damit sie neue Forschungsprojekte und Gelder bekommen können. Die Universitäten brauchen dieses Geld, diese Forschungsgelder, und der Druck ist sehr groß.
Zum Beispiel meine eigene Alma Mater, die Freie Universität Berlin – ich schäme mich sehr, das zu sagen –, hat sehr viele Kooperationen mit israelischen archäologischen Projekten in den besetzten Gebieten, aber auch mit Projekten zu Waffenentwicklung, zu Geheimdienstthemen und Cyberthemen, und sogar juristischer Forschung, bei der es – meiner Meinung nach – darum geht, Rechtfertigungen oder Argumentationslinien zu entwickeln, um israelische Kriegsverbrechen in Gaza zu relativieren oder die israelische Position vor dem Internationalen Gerichtshof zu stärken. Dazu gibt es ein ganzes Dossier, das auflistet, was die Freie Universität aus meiner Sicht falsch macht.
Und auch an vielen anderen Universitäten in Deutschland gibt es Studierendengruppen oder Fakultäten, die an solchen Forschungen beteiligt sind: an der Universität Hamburg zum Beispiel. Ich lebe jetzt in Karlsruhe, und das Karlsruher Institut für Technologie (KIT) – eine sehr technische Universität – arbeitet sehr viel mit israelischer Rüstungsforschung zusammen. Hier geht es nicht nur um theoretische Fragen wie Jura oder Geheimdienstforschung, sondern um Forschung mit sehr praktischen Konsequenzen: etwa die Entwicklung optischer Systeme für Raketen oder Fernsteuerungen für Bulldozer, die Häuser in Gaza zerstören. Diese Bulldozer werden ferngesteuert, sodass der Soldat die Menschen nicht sieht, die er vielleicht tötet, während der Bulldozer Wohnhäuser zerstört.
Noch ein letzter Punkt aus der Berichterstattung. Da stand: Die Kooperation erstrecke sich auch auf Spezialeinheiten und Geheimdienste. Laut Medienberichten soll die deutsche Spezialeinheit GSG 9 künftig enger mit der israelischen Eliteeinheit Yamam trainieren. Yamam gehört zur israelischen Grenzpolizei, arbeitet mit dem Militär und Geheimdiensten zusammen. Was können Sie uns zu dieser Einheit sagen, und was ist die Bedeutung einer solchen Zusammenarbeit?
Man muss hier einen Punkt klären: Was ist eigentlich mit der sogenannten „israelischen Grenzpolizei“ gemeint? Wenn man „Grenzpolizei“ hört, denkt man an Polizei, an Staatsgrenzen. Das ist hier nicht der Fall. Die sogenannte „Grenzpolizei“ trägt nur diesen Namen. In Wirklichkeit handelt es sich um eine paramilitärische Einheit, bestehend aus jungen Menschen, die keine ordentliche Ausbildung wie Polizisten erhalten haben. Offiziell sind sie zwar dem Polizeiministerium unterstellt, aber sie sind mit automatischen Gewehren ausgestattet, mit gepanzerten Fahrzeugen. Das entspricht nicht dem, was man üblicherweise unter Polizei versteht. Normalerweise haben sie nichts mit israelischen Zivilistinnen und Zivilisten zu tun, obwohl sie offiziell als Polizei gelten. In Extremfällen jedoch – zum Beispiel, wenn Palästinenserinnen und Palästinenser mit israelischer Staatsangehörigkeit protestieren und die Regierung diese Proteste sehr hart unterdrücken will – werden Einheiten wie Yamam oder andere Grenzpolizei-Einheiten geschickt. Denn diese Einheiten kommen mit militärischer Gewalt. Sie sind viel brutaler als die zivile Polizei. Sie tragen andere Uniformen, und man sieht sofort: Sie sehen aus wie Soldaten.
Ich kann hier eine kurze Anekdote erzählen: Es gab eine Demonstration in Tel Aviv vor der deutschen Botschaft. Eine kleine Gruppe von Israelis – vor allem jüdische Israelis – protestierte gegen die deutsche Botschaft wegen Beihilfe zum Völkermord. Sie kritisierten Deutschland dafür, dass es seiner Pflicht – insbesondere aus Artikel 25 des Grundgesetzes – nicht nachkomme. Daraufhin schickten die israelischen Behörden die Grenzpolizei. Das ist sehr ungewöhnlich, weil die Grenzpolizei normalerweise nicht im Zentrum von Tel Aviv eingesetzt wird. Aber hier wollten sie die Protestierenden mit großer Gewalt angreifen. Das war sehr brutal. Es gibt Videos von diesen Grenzpolizisten. Ich glaube allerdings, dass es in diesem Fall nicht Yamam war, sondern eine andere Einheit.
Yamam ist eher dafür bekannt, mit Motorrädern zu operieren, zum Beispiel bei Razzien in Beduinendörfern: Sie brechen in Häuser ein, verhaften Menschen oder werfen sie gewaltsam aus ihren Häusern – und anschließend werden die Häuser zerstört.
Zusätzlich zu dieser geplanten Zusammenarbeit zwischen der GSG 9 und Yamman wurde Folgendes angekündigt, ich zitiere den Spiegel:
„Deutschland werde zudem erstmals beim US-geführten Büro des Sicherheitskoordinators für Israel und die Palästinensische Autonomiebehörde (OSC) in Jerusalem »mit in die Führung« gehen, erklärte Dobrindt weiter. Diese Funktion werde der bisherige Präsident der Spezialkräfte der Polizei in Deutschland, Olaf Lindner, übernehmen. (…) Deutschland unterstützt schon seit vielen Jahren die Polizei in den palästinensischen Gebieten, um dort zur Stabilisierung der Lage beizutragen. Deutschland wolle Israels Sicherheit mit gewährleisten, sagte Dobrindt.“
Ich stelle mal eine etwas provokante Frage: Glauben Sie, dass diese Zusammenarbeit zwischen israelischen und deutschen Polizeikräften zu einer besseren Einhaltung der Menschenrechte durch die israelischen Kräfte führt oder eher zu einer Verrohung der deutschen Polizei, die dort vielleicht andere und härtere Vorgehensweisen lernt?
Hierzu eine Anekdote: Im Mai 2022 haben israelische Sicherheitskräfte die Al-Jazeera- Journalistin Shireen Abu Akleh ermordet. Wahrscheinlich wurde sie durch einen Scharfschützen in den Kopf geschossen. An demselben Tag, als das geschehen ist, war Doron Turgeman, damaliger Chef der israelischen Polizei in Ostjerusalem, gerade in Berlin und leitete dort ein Seminar für die Berliner Polizei. Von Berlin aus gab er den Befehl, dass auf der Beerdigung von Shireen Abu Akleh keine palästinensischen Fahnen gezeigt werden dürften. Daraufhin stürmte die israelische Polizei – hier ging es um Grenzpolizei – die Leichenhalle bei der Beerdigung, um zu überprüfen, ob sich eine Fahne auf dem Sarg befand. Und dann, während der anschließenden Trauerprozession mit dem Sarg, griffen sie die Trauernden an, um palästinensische Fahnen zu entfernen. Doron Turgeman wurde dann später in Israel kritisiert, dass er diesen Befehl gegeben hat, obwohl er in Berlin war und von dort aus nicht einschätzen konnte, wie provokativ und gefährlich dieser Befehl war und wie schlecht das in den internationalen Medien aussah.
Aber die Berliner Polizei hat von ihm viel gelernt. Genau in dieser Zeit – wir sprechen immer noch vom Mai 2022 – hat die Berliner Polizei in der ganzen Stadt „Racial Profiling“ praktiziert. Wenn jemand mit einer Kufija oder einer palästinensischen Fahne gesehen wurde, wurde diese Person von der Polizei angegangen. Ich kenne sogar jemanden, der im Krankenhaus gelandet ist, nur weil er eine Kufija trug. Er war allein. Die Polizei behauptete, das sei eine illegale „Demonstration“ einer einzelnen Person gewesen.
Das ist das Ergebnis davon, wenn jemand wie Doron Turgeman ein Seminar für die Berliner Polizei geben darf. Ich sage nicht, dass die deutsche Polizei oder die Berliner Polizei kein „Racial Profiling“ angewendet hat, bevor sie sich mit Israelis getroffen hat – es gibt meiner Meinung nach schon seit Langem Rassismus innerhalb der Polizei. Aber der Einfluss der Rechtfertigung durch die israelische Polizei ist entscheidend. Es wird vermittelt: ‚Natürlich müssen wir Menschen, die verdächtig aussehen – wegen ihrer Hautfarbe, ihrer Kleidung oder ihrer Religion –, anders behandeln. Wenn man das nicht tut, dann ist man naiv.‘ Eine solche Haltung, die bei der israelischen Polizei sehr üblich ist, hat – meiner Ansicht nach – negative Auswirkungen auf die Demokratie in Deutschland.
Wir müssen hier sicher dazu sagen, dass daran viel Spekulation ist, weil wir nicht wissen, welche Inhalte das Seminar hatte, das Turgeman in Berlin gegeben hat und ob und wie es sich auf das Polizeiverhalten ausgewirkt hat.
Vielleicht. Die israelischen Firmen sagen aber offen: Wir müssen „Racial Profiling“ betreiben. In Bezug auf sie ist das gar keine Spekulation. Sie sagen: „In Deutschland glaubt man, man müsse Menschenrechte achten, das ist naiv, und deshalb hat man keine Sicherheit. Man braucht uns.“ Aus israelischer Sicht wird das sehr klar geäußert.
Um mal in die andere Richtung zu schauen: Es wird gemeinsam trainiert, das heißt, es kann einen Einfluss in Richtung Deutschland geben, aber es werden auch Deutsche dort ausbilden und an Übungen teilnehmen. Glauben Sie, dass das irgendeine positive Auswirkung auf die israelischen Sicherheitskräfte haben kann? Könnte das nicht auch der Gedanke auf deutscher Seite gewesen sein, zu sagen: Wir helfen dabei, bessere Standards in Israel durchzusetzen?
Ich verstehe, warum Sie diese Frage vorhin provokativ genannt haben. Ich will hier kein großes Lob auf die demokratischen Werte der deutschen Polizei singen. Es gibt natürlich große Unterschiede zwischen verschiedenen Polizeieinheiten in Deutschland. In Karlsruhe zum Beispiel ist die Polizei ganz anders als in Berlin, das merkt man deutlich.
Aber es gibt einen anderen Punkt, der für deutsche Polizistinnen und Polizisten sehr wichtig ist, die nach Israel gehen, um dort mit israelischen Polizeikräften zu trainieren. Diese Übungen finden nicht nur an einem neutralen Ort oder in einem Klassenzimmer statt. Es gibt auch physische Trainings, die in besetzten Gebieten durchgeführt werden. Für die israelische Polizei gibt es viele wichtige Stützpunkte im Westjordanland und natürlich in Ostjerusalem. Wenn ein deutscher Polizist an einer solchen Übung teilnimmt, dann begeht dieser Polizist selbst möglicherweise eine Straftat im Sinne des Völkerrechts. Die Israelis werden den deutschen Polizeibeamten nicht mitteilen, wo die Grenze verläuft. Es liegt in der Verantwortung der Deutschen, sich zu weigern, mit ihren israelischen Kollegen im Bus über die „Grüne Linie“ zu fahren, aber die Grenze ist nicht markiert [Anm. d. Red.: „Grüne Linie“ wird in Israel die völkerrechtlich maßgebliche Grenze zwischen Israel und den besetzten palästinensischen Gebieten genannt].
Wie waren denn die Reaktionen innerhalb Israels zu diesem Abkommen und zu der Zusammenarbeit? Wie wurde es dort besprochen?
Es gab sehr wenig inhaltliche Reaktionen oder Kommentierungen dazu in den israelischen Medien. Das passiert übrigens auch in Deutschland. Viele Journalistinnen und Journalisten sind müde, haben sehr viel Arbeit und nicht genug Zeit, gründlich zu recherchieren. Wenn die Regierung eine Presseerklärung verschickt, werden manchmal nur ein paar Worte geändert, und dann wird das veröffentlicht, als wäre es ein Artikel. Das sehe ich hier ganz deutlich.
Das israelische Außenministerium und das israelische Polizeiministerium wollten sagen: Schaut her, wir haben dieses wichtige Abkommen mit Deutschland geschlossen. Genau so wurde das dann auch in israelischen Zeitungen veröffentlicht. Aber viele Israelis – ich glaube, die große Mehrheit – verstehen, dass die Regierung damit Propaganda macht und einfach sagen will: ‚Wir sind so wichtig, wir sind so gut.‘ Deswegen gab es zu dieser Meldung kaum eine inhaltliche Auseinandersetzung.
Es gab aber eine andere Form der Zusammenarbeit, die tatsächlich eine Reaktion ausgelöst hat. Das war eine KI-Konferenz für Bildungssysteme – also nicht für Sicherheit, sondern für den Bildungsbereich. Der israelische Bildungsminister hat für diese Konferenz hochrangige Beamtinnen und Beamte aus verschiedenen Ländern eingeladen, um darüber zu sprechen, wie KI in Schulen genutzt werden soll. Er hat sehr viele Länder eingeladen, etwa hundert oder so, aber nur sehr wenige haben zugesagt. Länder wie Togo oder Mikronesien haben bestätigt, dass sie kommen. Dazu kamen noch zwei Länder, die nicht so klein oder weit entfernt sind: Österreich und Deutschland. Die israelische Zeitung Haaretz schrieb dann sinngemäß: Die einzigen Länder, die zu dieser Konferenz kommen wollen, sind unwichtige Länder wie Togo und die „Schamstaaten“ Österreich und Deutschland. Viele Israelis sehen Deutschland also als einen „Schamstaat“, der also aus dem Gefühl historischer Schuld alles für Israel tun würde. Das heißt: Wenn Israel sagt, „Wir haben ein Sicherheitsabkommen mit Deutschland unterschrieben“, hat das für viele in Israel keine große Bedeutung.
In einem großen Teil der deutschen Berichterstattung dazu und in der Art, wie das Abkommen auch vom Ministerium für Inneres kommuniziert wird, entsteht der Eindruck, dass dieses Abkommen eine vollständige Normalisierung der Beziehungen zwischen Israel und Deutschland einleiten soll – so, als wären die letzten zwei oder drei Jahre gar nicht passiert. Es wird relativ deutlich, dass sowohl der Anschlag in Berlin auf das Stromnetz als auch die Unruhen im Iran genutzt werden, um einerseits ein starkes Bedrohungsszenario innerhalb Deutschlands zu zeichnen und andererseits Israel gewissermaßen von allem reinzuwaschen, was zuvor geschehen ist, und es wieder als verlässlichen Partner gegen „Mullah-Regimes“ und „islamistische Terroristen“ darzustellen. Glauben Sie, dass diese Normalisierung funktionieren wird? Und wie sehen Sie die weitere Entwicklung hierzu?
Aus meiner Sicht hat die Normalisierung Israels von deutscher Seite eigentlich nie aufgehört hat. Bei Jung & Naiv gab es ein Interview mit Olaf Scholz vor den letzten Wahlen, mitten in dem, was ich als Völkermord bezeichne. Er wurde gefragt, was mit den Kriegsverbrechen in Gaza sei, und Olaf Scholz hat seine Augen geschlossen und mit geschlossenen Augen in Bezug auf den Völkermord-Vorwurf gegen Israel gesagt: „Davon gehe ich nicht aus.“
Also: Normalisierung wovon? Das ist die eigentliche Frage. Wenn auf der politischen Ebene in Deutschland – also bei Behörden – Gesetze ignoriert werden, Fakten ignoriert werden und die Realität ignoriert wird. Sie haben es am Anfang schon angesprochen: Es geht nicht nur um den Vorwurf des Völkermords. Es geht darum, dass der Internationale Gerichtshof von einem plausiblen Völkermord gesprochen hat. Die Vereinten Nationen haben das im Rahmen von Resolutionen und Debatten aufgegriffen. Das ist nicht nur ein Vorwurf, die Mehrheit aller Länder der Welt sieht das so. Deutschland behauptet trotzdem immer, man müsse noch besser informiert werden. Aber was bedeutet das, wenn so viele andere Länder das bereits als plausiblen Völkermord einordnen? Wie kann man über Normalisierung sprechen, wenn es von deutscher Seite auch zuvor schon keine Anerkennung dafür gab, dass das, was Israel tut, ein Verbrechen gegen die Menschlichkeit ist?
Maike Gosch: Vielen Dank für das Gespräch.
Titelbild: FOTOGRIN / Shutterstock
Bundesinnenminister Alexander Dobrindt hat den vom Internationalen Strafgerichtshof (IstGH) wegen „Kriegsverbrechen und Verbrechen gegen die Menschlichkeit” per internationalem Haftbefehl gesuchten israelischen Premier Benjamin Netanyahu in Jerusalem getroffen und dabei einen weitreichenden Cyber- und Sicherheitspakt unterzeichnet. In diesem Zusammenhang bezeichnete er Israel als „Premiumpartner“ Deutschlands. Die NachDenkSeiten wollten vor diesem Hintergrund unter anderem wissen, wie der Minister ein offizielles Treffen mit einem mutmaßlichen Kriegsverbrecher begründet und ob auch Kooperationen bei KI-basierten Tötungsanwendungen „Made in Israel“ wie „Where’s Daddy?“ geplant sind. Von Florian Warweg.
Dieser Beitrag ist auch als Audio-Podcast verfügbar.
Hintergrund
Bundesinnenminister Alexander Dobrindt (CSU) und Israels Ministerpräsident Benjamin Netanjahu hatten am 11. Januar in Jerusalem ein weitreichendes Abkommen zur Sicherheitszusammenarbeit unterzeichnet.
Das Abkommen umfasst laut Darlegung von Dobrindt unter anderem den „Einsatz künstlicher Intelligenz gegen Desinformation“, die Bekämpfung von Cyberangriffen sowie Drohnenabwehr- und Zivilschutz. In diesem Zusammenhang erklärte der deutsche Innenminister:
„Israel ist einer unserer wichtigsten Partner im Bereich Cybersicherheit und wird mit diesem Abkommen unser Premiumpartner.“
„Cyberdome“
Besonderes Interesse zeigt Dobrindt an Israels automatisierten Früherkennungssystemen für Cyberangriffe, dem sogenannten „Cyberdome“. Dazu erklärte er in Jerusalem:
„Wir haben ein großes Interesse daran, zu lernen, wie Israel den Cyberdome aufgebaut hat. Wir wollen an den Erfahrungen, am Know-how partizipieren.“
Das unterzeichnete Abkommen sieht die Einrichtung eines gemeinsamen deutsch-israelischen Zentrums für Cyberforschung vor. Dobrindt verwies in dem Zusammenhang auch auf die seiner Meinung nach wachsende Bedrohung deutscher Infrastruktur. Mit Verweis auf den jüngsten Brandanschlag im Südwesten Berlins erklärte der Innenminister:
„Ich glaube, dass wir sehr stark nachrichtendienstlich jetzt vorgehen müssen, um den Gruppen stärker auf den Zahn zu fühlen und auf den Pelz zu rücken.“
„Where’s Daddy“ – Die perfide Tötungs-KI der israelischen Armee
Im April 2024 veröffentlichte das israelische Investigativ-Portal +927 Magazine einen umfassenden Bericht mit dem Titel „Lavender“: Die KI-Maschine, die Israels Bombardements in Gaza steuert“.
Der Bericht stützt sich unter anderem auf Zeugenaussagen von sechs israelischen Geheimdienstmitarbeitern, die alle während des aktuellen Krieges im Gazastreifen im Einsatz waren und aus erster Hand Erfahrungen mit diesen KI-Systemen gesammelt hatten.
Sie berichten, dass sich die israelische Armee einen Großteil der Zeit fast ausschließlich auf die KI-Anwendung „Lavender“ zur Identifizierung von Zielen gestützt hat. Das System markierte laut +972 Magazine alleine in den ersten Wochen des Krieges bis zu 37.000 Palästinenser als mutmaßliche „Militante“ und kennzeichnete sie und ihre Häuser für Luftangriffe. Ein zweites KI-System namens „Where’s Daddy“ wurde speziell dafür entwickelt, diese Personen in ihren Familienhäusern und nicht während militärischer Aktivitäten aufzuspüren, da es einfacher war, die Ziele zu lokalisieren, wenn sie sich in ihren Privathäusern befanden.
Dem Bericht zufolge akzeptierte das System Kollateralschäden von 15 bis 20 Zivilisten für einen einzelnen rangniedrigen Kämpfer der Hamas oder des Islamischen Dschihad (PIJ) und über 100 zivile Opfer für einen hochrangigen Kommandeur. Eine Quelle berichtet, dass die Armee den Offizieren pauschal die Genehmigung erteilt habe, die von „Lavender“ generierte Zielliste ohne zusätzliche Prüfung zu übernehmen. Dies, obwohl man in Tel Aviv wusste, dass das System eine Fehlerquote von etwa zehn Prozent hat und regelmäßig Personen markierte, die nur lose oder gar keine Verbindungen zu einer militanten Gruppe hatten.
Verstärkte Zusammenarbeit von Deutschland und Israel im Bereich Spezialeinheiten und Geheimdienste
Der unterzeichnete Sicherheitspakt erstreckt sich auch auf Spezialeinheiten und Geheimdienste. So soll laut Medienberichten die deutsche Spezialeinheit GSG 9 in Zukunft eng mit der israelischen Eliteeinheit Yamam trainieren. Yamam ist bei der israelischen Grenzpolizei angesiedelt und arbeitet eng mit Militär und Geheimdiensten zusammen. Die Einheit ist auch dafür bekannt, verdeckte Operationen unter der arabischen Bevölkerung in Gaza, Westbank und angrenzenden Nachbarländern durchzuführen.
Ebenso kündigte Dobrindt eine verstärkte Zusammenarbeit der Geheimdienste an. Ob er sich dabei auf den deutschen und israelischen Inlandsgeheimdienst oder den BND und Mossad bezog, wurde nicht weiter konkretisiert.
Doch weder das breit dokumentierte völkerrechtswidrige Agieren der israelischen Sicherheitskräfte in den besetzten Gebieten noch die beschriebene Form der unkontrollierten KI-basierten Massentötung von Zivilisten oder die Tatsache, dass der israelische Premier „wegen Kriegsverbrechen und Verbrechen gegen die Menschlichkeit” per internationalem Haftbefehl vom Internationalen Strafgerichtshof in Den Haag gesucht wird, scheint den Bundesinnenminister und sein Ministerium auch nur im Ansatz bei ihrer Zusammenarbeit mit dem „Premiumpartner“ zu stören.
Auszug aus dem Wortprotokoll der Regierungspressekonferenz vom 14. Januar 2026
Frage Warweg
Innenminister Dobrindt war ja am Wochenende in Israel, hat sich dort mit dem vom Internationalen Strafgerichtshof wegen Kriegsverbrechen und Verbrechen gegen die Menschlichkeit per internationalem Haftbefehl gesuchten israelischen Premier Netanjahu in Israel getroffen und Israel in diesem Zusammenhang auch als Premiumpartner bezeichnet. Jetzt hat Israel laut UN-Zahlen mit Stand vom 6. Januar allein 20 179 Kinder, 10 427 Frauen und 256 Journalisten in Gaza getötet und agiert auch weiterhin als Besatzungsmacht. Dazu würde mich interessieren: Wie begründet denn der Minister vor dem skizzierten Hintergrund, dass er einem mutmaßlichen Kriegsverbrecher – siehe entsprechenden Haftbefehl – eine offizielle Aufwartung macht und Israel entsprechend als Premiumpartner bezeichnet?
Frühauf (BMI)
Herr Warweg, Herr Dobrindt war in Israel und hat mit Herrn Netanjahu einen Sicherheits- und Cybersicherheitspakt unterzeichnet. Darauf lag der Fokus dieses Besuches. Dabei ging es vor allem auch um das Thema „Cyberdome“, über das wir auch hier des Öfteren schon gesprochen haben, und dahingehend ist Israel ein wichtiger Partner, gerade was die Cybersicherheit angeht. Mehr habe ich dazu jetzt nicht zu sagen.
Zusatzfrage Warweg
Das heißt, dass er sich dort mit jemandem getroffen hat, der vom Internationalen Strafgerichtshof als mutmaßlicher Kriegsverbrecher eingeordnet wird, stören den Minister und sein Ministerium nicht weiter?
Frühauf (BMI)
Ich werde Ihnen dazu nichts weiter kommentieren.
Frage Dr. Rinke (Reuters Chefreporter)
Ich hätte auch ganz gern Frau Frühauf zu dem Treffen gefragt und gefragt, ob Sie uns vielleicht ein paar Einzelheiten über diesen Cyber- und Sicherheitspakt nennen können, denn der scheint ja zumindest aus israelischer Sicht doch sehr weitgehend zu sein. Er wurde dort gefeiert, auch von dem Büro des Ministerpräsidenten. Was sind also die Elemente dieses Abkommens?
Frühauf (BMI)
Dieser Cyber- und Sicherheitspakt hat verschiedene Elemente. Erst einmal hat man sich auf eine Zusammenarbeit verständigt, zum Beispiel auch bei der gemeinsamen Forschung zum Thema der Cybersicherheit, zum Thema der KI. Aber, Herr Rinke, ich kann Ihnen das, wenn Sie mögen, im Nachgang – wir haben dazu eine ausführliche Ausführung – auch noch einmal schicken, bevor ich jetzt alles hier offeriere.
Frage Warweg
Wenn wir gerade bei dem Cyber- und Sicherheitsaspekt bzw. diesem Pakt sind: Konkret geht es dabei ja auch nach Darlegung von Herrn Dobrindt um die Vernetzung der Sicherheitsbehörden beider Länder. Jetzt begehen israelische Sicherheitsbehörden, oft mittlerweile KI-basiert, nachweislich und regelmäßig schwere Verstöße gegen das Völkerrecht und spielen auch eine zentrale Rolle in der Aufrechterhaltung des Besatzungs- und Überwachungsregimes in Gaza und der Westbank. Dazu würde mich interessieren: Was für konkrete Schritte hat denn die Bundesregierung geplant, um zu verhindern, dass deutsche Sicherheitskräfte, die mit Israel in dem Kontext zusammenarbeiten, ebenfalls in völkerrechtswidrige Aktivitäten eingebunden werden?
Frühauf (BMI)
Darin sind jetzt so viele Unterstellungen. Ich kann nur noch einmal sagen – – –
Zusatzfrage Warweg
Welche denn?
Frühauf (BMI)
Dass die deutschen Sicherheitsbehörden völkerrechtswidrige Aktivitäten vollzogen – – –
Zusatzfrage Warweg
Nein, ich habe ja gefragt, wie die Bundesregierung das verhindert.
Vorsitzende Wefers
Es wäre ganz nett, wenn einmal der eine und einmal der andere redet. Dann könnte man nämlich auch mehr verstehen! – Sie haben das Wort.
Frühauf (BMI)
Vielen Dank. – Also noch einmal: Dieser Sicherheitspakt, den Deutschland und Israel miteinander unterzeichnet haben, hat unter anderem zum Ziel – Sie haben es gerade gesagt -, in der Cybersicherheit, bei den Sicherheitsbehörden gemeinsam zusammenzuarbeiten. Das ist das Ziel, und es geht vor allem auch darum, dass Deutschland in all diesen Belangen auch von Israel profitieren kann, dass man voneinander profitieren kann. Alle anderen Unterstellungen, die ich Ihnen gerade ausgeführt habe, weise ich zurück.
Zusatzfrage Warweg
Israel hat ja in Gaza auch KI-Anwendungen wie Lavender, das besonders perfide „Where is Daddy“ und Gospel eingesetzt, die gezielt zu Tötungen von Zivilisten geführt haben. Dazu würde mich interessieren: Plant denn die Bundesregierung auch eine Cyberzusammenarbeit in den genannten Bereichen oder mit den genannten KI-Anwendungen, insbesondere mit „Where is Daddy“?
Frühauf (BMI)
Dieser Pakt war jetzt erst einmal eine Absichtserklärung. Die Details werden jetzt auch erst in den nächsten Monaten ausgearbeitet.
Titelbild: Screenshot NachDenkSeiten, Bundespressekonferenz 14.01.2026
Wieso hat Innenminister Dobrindt Aufzeichnungen zu Treffen mit Verfassungsrichtern vernichtet?
Hochstufung der AfD durch Verfassungsschutz-Gutachten war mit Merz und Dobrindt abgesprochen
China ist ein Land der Extreme. Elektronische bzw. digitale Verfahren sind in China alltäglich zu beobachten. Aber auch Arbeiten von Menschenhand werden massenhaft durchgeführt. Auch das gehört zum Alltag in China und ist zahlreich zu sehen. Ein Umstand könnte deutsche Leser zum Schmunzeln bringen, denn es gibt ein Thema, das im fernen China ähnlich – nämlich manuell – betrieben wird wie in Deutschland. Ein subjektiver Erfahrungsbericht aus der chinesischen Metropole Shanghai von Christian Reimann.
Digitaler Alltag in China
Wer nach China reist, kann bereits an der Grenzkontrolle – z.B. am Internationalen Flughafen Pudong in Shanghai – den Einsatz von moderner digitaler Technologie erleben. Fingerabdrücke und Fotos von Gesichtern sind Routine und werden digital erfasst.
China ist wohl das Land mit den meisten Kameras im öffentlichen Raum. Während es aktuell in Shanghai schätzungsweise 439,1 Kameras pro 1.000 Einwohner und Einwohnerinnen gebe, sollen es in Berlin geschätzt 7,7 Videoüberwachungskameras pro 1.000 Menschen sein. Sie befinden sich in Shanghai u.a. über den Straßen und auf Wohnanlagen. Bereits seit einigen Jahren warnen deutsche Medien vor einer Massenüberwachung in China.
Wer eine Wohnanlage betritt oder mit seinem Auto reinfahren möchte, wird vor allem von Kameras erfasst. Manche Wohnanlagen in Shanghai können per Gesichtserkennung betreten werden.
Auf den Straßen dienen sie insbesondere zur Geschwindigkeitskontrolle. Wer zu schnell fährt, wird geblitzt und muss eine Geldstrafe zahlen. Auch an zahlreichen Ampeln in Shanghai gibt es Kameras. Das in Deutschland oftmals befürchtete bzw. unterstellte Sozialkreditpunkte-System – z.B. hier und hier – gibt es jedoch nicht. Auch die Verhaltenskontrolle funktioniert in China lediglich bedingt – in Großstädten wie Shanghai halten sich nicht alle Bürger an die zumindest im Westen unterstellte angestrebte Norm.
Zahlreiche Bürgerinnen und Bürger überqueren trotz Rotphase die Straße. Ausnahmen hierfür sind in Shanghai die relativ wenigen großen Straßenkreuzungen im Stadtzentrum, an denen Polizisten postiert sind und dabei helfen, den Straßenverkehr zu regeln. Wer dann als Fußgänger die rot signalisierende Ampel überqueren möchte, riskiert eine mündliche Ermahnung.
Rechtsabbieger dürfen und können – wenn der Weg frei ist – auch bei rotem Ampelsignal weiterfahren und rechts abbiegen. Das nutzen neben zahlreichen Autos und E-Rollern vielfach auch die öffentlichen, elektrisch betriebenen Busse.
Bereits vor der merkwürdigen Coronazeit waren Smartphones z.B. in der chinesischen Metropole Shanghai sehr häufig zu sehen – nicht nur zum Telefonieren, Simsen oder Surfen im Internet.
Im Internet können verschiedene Produkte oftmals günstiger als in Läden vor Ort gekauft werden. Das betrifft z.B. Accessoires wie Ohrringe oder Armbänder, aber auch nicht ganz moderne und dennoch hochwertige Smartphones.
Neben dem finanziellen Aspekt wird das Smartphone auch für andere Dinge des gesellschaftlichen Lebens verwendet. Wenn beispielsweise mit einem Taxi gefahren werden möchte, wird es per Smartphone gerufen. Essen kann mit dem Smartphone bestellt und bezahlt werden. Es kann und wird dann von diversen Lieferservices gebracht – z.B. zum Büro auf der Arbeit, in ein Hotel oder nach Hause.
In Shanghai können Mietfahrräder per Bezahlung über das Smartphone benutzt werden. Das Angebot wird von vielen Bürgerinnen und Bürgern aller Altersgruppen genutzt. In anderen Städten wie z.B. Lianyungang können elektrische Roller mit dem Smartphone gemietet werden.
Wer ein Museum besuchen, fliegen oder mit dem Zug verreisen möchte, nutzt dafür in der Regel das Smartphone.
In einem Forum der deutschen Community in Shanghai schreibt ein Nutzer, dass er von 2007 bis 2012 in der Metropole gelebt habe und demnächst für zehn Tage zurückkommen wolle. Gefragt wird nach Veränderungen im Vergleich zu damals. Ein Nutzer antwortet u.a. das:
– All-u-can-eat Teppanyakis existieren nur noch rudimentaer
– ShangriLa Pudong Buffet Brunch noch da
– Cash ersetzt durch WeChat/Alipay
– Leihfahrraeder wie HelloBike ueberall
– Didi Taxi App ersetzt Taxi ranwinken
– Fake Markt beim Science Technology Museum gibt’s noch, aber sehr klein
– insgesamt alles sauberer/geordneter, damit aber auch langweiliger als frueher der wilde Osten
Stimmt – auch der zuletzt genannte Aspekt. Im Vergleich zu deutschen Städten sind chinesische Städte ziemlich sauber. An einigen Stellen liegen zwar auch Papier und Plastik rum, aber die werden rasch beseitigt. Das ist insbesondere zahlreichen Arbeiterinnen und Arbeitern in blauer Uniform zu verdanken, dazu unten mehr.
Früher hat es im deutschen Fernsehen – in der ARD – die Sendung „Was bin ich?“ gegeben. Gelegentlich ist der Gast, dessen Beruf erraten werden sollte, um eine ihren/seinen Beruf typische Handbewegung gebeten worden. Eine typische Handbewegung eines insbesondere relativ jungen Chinesen ist der Blick auf das Smartphone. Sehr häufig ist das zu beobachten, selbst wenn junge Pärchen zusammen unterwegs sind. Oftmals wird nicht miteinander gesprochen, sondern jeweils auf das eigene Smartphone geblickt.
In Deutschland ist das inzwischen allerdings auch in öffentlichen Verkehrsmitteln zu sehen, es gehört mittlerweile auch dort für viele Bürgerinnen und Bürger zum Alltag.
In der chinesischen Millionenstadt Chongqing gab oder gibt es vielleicht sogar immer noch einen kurzen, 50 Meter langen Abschnitt des Bürgersteigs, der in zwei Spuren unterteilt worden ist: „Auf der einen Seite sind Handys tabu, auf der anderen Spur dürfen Fußgänger ihre Geräte im Gehen benutzen.“
Das Smartphone wird in China oftmals als Mittel für Bezahlvorgänge benutzt, obwohl Zahlungen mit Bargeld in den allermeisten Fällen auch möglich sind (Ausnahmen sind z.B. die Filialen des Fast-Food-Dienstleisters McDonald’s oder ähnliche, meist westliche Fast-Food-Ketten). Das ist die wichtigste Funktion eines Smartphones, und das hat sich seit der Coronazeit noch intensiviert. Auch ältere Menschen haben inzwischen zahlreich den Umgang mit dem Smartphone kennen- und schätzen gelernt. Auch sie nutzen es vielfach zum Bezahlen.
Bezüglich des Umgangs mit Handys bzw. Smartphones durch Ältere ein Vergleich zu Deutschland: Gemäß dieser Information aus dem Jahr 2021 nutzt in Deutschland mehr als die Hälfte der über 65-Jährigen (53 Prozent) kein Smartphone. Und nach dieser Meldung aus dem Jahr 2023 haben 73 Prozent der über 65-Jährigen ein Smartphone (48 Prozent) oder herkömmliches Mobiltelefon (33 Prozent), also sind immerhin 27 Prozent ohne alles. Bei den über 75-Jährigen haben 55 Prozent eins von beidem, ist also knapp die Hälfte ohne.
In Deutschland besteht also insbesondere für Ältere realistisch die Gefahr der digitalen Ausgrenzung.
Offene Frage der Daten
Wenn chinesische Bürgerinnen und Bürger – begeisterte und intensive Nutzer des Smartphones als Zahlungsmethode – nach dem Verbleib der Daten gefragt werden, herrscht oft Ratlosigkeit vor. Oder ist es Naivität gegenüber den technologischen Möglichkeiten?
So wird z.B. angenommen, dass das Smartphone beim Einkaufen lediglich die Summe, die bezahlt werden muss, speichert – nicht jedoch die gekauften Artikel. Ähnlich hatte es hierzulande Jens Berger in seinem Beitrag über den digitalen Euro hinsichtlich der Bezahlung mittels Bankkarte formuliert. Ein Smartphone ist jedoch keine Bankkarte. Das Smartphone ist z.B. über Alipay und WeChat, die gängigsten Bezahlformate in China, mit dem jeweiligen Kunden-Bankkonto verbunden. Es mag juristische Beschränkungen beim Sammeln von Daten z.B. über den detaillierten Einkauf geben, aber technologische? Vertrauen ist gut, Kontrolle ist besser. Diese Volksweisheit dürfte sich auch hier bewahrheiten. Aber wer kontrolliert schon, ob über eine Bankkarte oder ein Smartphone beispielsweise detaillierte Daten über einen Einkauf gesammelt worden sind?
Selbst Regierungsmitarbeiter – und Mitarbeiter von Nachbarschaftscommunitys sind genau das – wissen oftmals nicht, welche Daten durch die Nutzung der Smartphones gespeichert werden. Es wird geschmunzelt, wenn erwähnt wird, dass in Deutschland zahlreiche Bürgerinnen und Bürger mit Bargeld bezahlen. Das Smartphone sei bequem. Nicht immer sei genug Geld für einen Einkauf vorhanden, aber das Smartphone sei überall dabei. Portemonnaies mit Geld könnten gestohlen werden. Niemand stehle in China ein Smartphone, weil jeder ein Gerät habe, so oder ähnlich lauten die Antworten.
Bekannt sein sollte jedoch auch in China, dass Smartphones auch Daten sammeln bzw. an Dritte weiterreichen können, wie in den Artikeln „iOS 16: Wer viele Apps nutzt, sollte hier genauer hinschauen – es könnte für eine unangenehme Überraschung sorgen“ und „Was Ihr Smartphone weiß, wissen auch die US-Geheimdienste” beschrieben wird.
Smartphones von Apple sind in China beliebt, wenn auch nicht mehr ganz so wie früher: „Apple stürzt in China ab: Der Anfang vom Ende der iPhone-Ära“. In Shanghai hat die Firma mitten im Stadtzentrum einen eigenen Laden (Store). Ob das Unternehmen in China diese Apps für die Sammlung und Weiterverwendung von Daten nutzen darf und kann, ist ungewiss.
Ob chinesische Geheimdienste auch so eifrig beim Datensammeln sind wie ihre Kollegen in den USA, ist fraglich. Es wäre jedoch naiv, wenn diese technischen Möglichkeiten ignoriert würden.
Bekannt in Deutschland – manuelle Mülltrennung
Für ein sauberes Stadtbild sorgen in Shanghai zahlreiche Frauen und Männer in hell- oder himmelblauer Arbeitskleidung. Sie stammen oftmals aus anderen Regionen des Landes. Mit Besen aus Baumzweigen werden Gehwege und Straßenränder gefegt und sauber gehalten. Das geschieht täglich.
Auf den Straßen fahren zusätzlich Kehrfahrzeuge, die den Dreck von Straßen aufsammeln.
Diese Leute im „Blaumann“ halten auch die öffentlichen Toiletten sauber. Diese sind in China zahlreich zu finden und kostenlos. Bei Bedarf muss lediglich ein geringes Entgelt für das Toilettenpapier bezahlt werden. Das kann in bar mit wenigen Münzen (umgerechnet wenige Eurocents) erledigt werden.
„Seit dem 1. Juli 2019 sind Shanghaier gesetzlich verpflichtet, Müll zu sortieren“, heißt es im Leitfaden zur Mülltrennung. Getrennt wird u.a. nach folgenden Kriterien:
Bei unsachgemäßer Mülltrennung im privaten Haushalt kann ein Bußgeld fällig werden. Jahrzehnte nach der Einführung scheint ein Sanktionskatalog hierfür nun auch in Deutschland Freunde gefunden zu haben. Verstöße können hierzulande z.B. auch für alle Nachbarn ersichtlich sein: „Bei den neuen Biomüllkontrollen werden dann auch noch Aufhänger an den Tonnen hinterlassen, damit wenigstens die ganze Nachbarschaft Bescheid weiß; so in Reutlingen. Zu Recht hinterfragt Frau Henn den Datenschutz in Deutschland, der auch an dieser Stelle offensichtlich vernachlässigt werden könnte.
Dagmar Henn weist in ihrem RT-Artikel außerdem darauf hin, dass die Mülltrennung auch automatisch erfolgen könnte. Das geschehe jedoch nicht, wenn zuvor die Bürgerinnen und Bürger mit ihren Händen diese Trennung der Müllmaterialien vornehmen. Die automatisierte Sortierung lohne sich dann finanziell schlicht nicht.
Nach kurzer Suche im Internet sind unter anderem diese Links dazu zu finden:
Und mit „künstlicher Intelligenz“ dürfte das noch einfacher und bequemer für die Bürgerinnen und Bürger werden. Vodafone hat bereits 2022 gemeldet: Müll trennen mit KI: Dieser smarte Mülleimer sortiert Abfälle direkt nach dem Wegwerfen.
Da erstaunt es nicht wenig, dass ausgerechnet im ansonsten technologiebegeisterten China bei der Mülltrennung auf solche Verfahren verzichtet wird.
Ein Verantwortlicher eines Nachbarschaftskomitees weist auf Japan als Vorbild hin. Es gelte wie dort, der Verschwendung von Ressourcen entgegenzuwirken. Aber wenn gefragt wird, weshalb das ausschließlich manuell und nicht automatisiert erfolgt, erhält man Schweigen als Antwort.
Dabei ist der Aufwand für die manuelle Mülltrennung u.a. zeitintensiv. Die Bürgerinnen und Bürger müssen z.B. abends aus dem 30. Stockwerk heraus aus Wohnung und Haus, um den per Hand sortierten Hausmüll in entsprechende Mülltonnen zu werfen. Übrigens: In Japan soll es die härteste Mülltrennung der Welt sein.
Nicht ausgeschlossen ist außerdem, dass Dagmar Henn recht damit hat, dass die manuelle Mülltrennung auch einen erziehenden Aspekt haben könnte:
„Jedenfalls, hätte es nicht diese jahrzehntelange Erziehung zur zwanghaften Müllbehandlung gegeben (…), es wäre etwas schwieriger, solche Dinge wie eine CO₂-Steuer durchzusetzen. Die Mülltrennung übt eine Kasteiung ein, die es dann ermöglicht, noch ganz andere Dinge aufzuerlegen – schließlich sind wir alle Müllsünder und müssen Buße tun.“
Erinnert sei in diesem Zusammenhang auch an die politischen Maßnahmen während der merkwürdigen Coronazeit. In Deutschland sind sie sehr lange Zeit aufrechterhalten bzw. durchgesetzt worden. Widerstand dagegen hat es erschreckend wenig gegeben. Dabei sind sogar zahlreiche Grundrechte faktisch außer Kraft gesetzt worden.
Fazit
Die Bürgerinnen und Bürger in China nutzen fleißig die technologischen Möglichkeiten von Smartphones – sei es aus Bequemlichkeit oder anderen Gründen. Sie sind allgegenwärtig, sowohl in der Freizeit als auch im Berufsleben.
Aber es gibt auch zahlreiche Frauen und Männer, die mit ihrer Handarbeit z.B. dafür sorgen, dass die Städte – Bürgersteige und Straßen – sauber bleiben.
Faszinierend bzw. irritierend zu beobachten ist, dass die Bürgerinnen und Bürger in Shanghai offensichtlich die Technik lieber nutzen, um bezahlen oder ein Taxi rufen zu können, als den Müll im Haushalt zu trennen. Ein Deutscher könnte schmunzeln, weil im fernen China in so ziemlich allen Bereichen modernste Technologie zum Einsatz kommt, nur nicht bei der auch in Deutschland bekannten Mülltrennung.
Vielleicht wird das ja noch mal überdacht.
Titelbild: FOTOGRIN/shutterstock.com

Passive und aktive Energiearbeit – Mensch versus KI!
Die neue Zeit braucht Qualität nicht Quantität! KI kann keine echte Emotion oder Energie vermitteln, was zu "kalter Energie" in künstlich generierten Inhalten führt.
Durch Energiearbeit in deine Kraft!
+++
Dieser Beitrag ist als Empfehlung der Redaktion verlinkt. Bitte beachten Sie, dass die Lautstärke des Beitrags ggf. von der Standard-Lautstärke von anderen Beiträgen auf apolut.net abweichen kann.
+++
Kai Stuht und sein Team freuen sich auch über eine finanzielle Unterstützung, damit weitere Filmprojekte realisiert werden können.
➥ via Crowdfunding: https://gofund.me/ea8c375e
➥ via Paypal: https://www.paypal.me/kaistuht
➥ via Bitcoin: bc1qjju0tuv006uhh9m209h5xr5y6qm2rjh54zuhgk
➥ via Überweisung
Kontoinhaber: Kai Stuht
IBAN: DE38 1005 0000 1066 0904 80
Berliner Sparkasse
Verwendungszweck: freiwillige Zuwendung
➥ Die Filme als Download: https://100aerzte.com/download-film
➥ zum Newsletter anmelden: https://api.transpond.io/form?am=25394&fid=8164&host=true
➥ HOPE Film: https://hope-doku.com
➥ Telegram: https://t.me/KaiStuht
➥ X / Twitter: https://twitter.com/KaiStuht


Versuch einer Prognose
Ein Kommentar von Wolfgang Effenberger.
Zum Übergang in das neue Jahr sprießen die Prognosen wie die Krokusse im Frühling. Während die einen für 2026 einen bedeutenden "Shift" oder Wandel – aus wirtschaftlicher, geopolitischer und technologischer Perspektive vorhersagen, malen Andere ein Kriegsmenetekel an die Wand. Genaues wird man erst in einem Jahr wissen.
Geopolitischer und wirtschaftlicher Wandel
Schon im November 2025 veröffentlichte die niederländische ABN AMRO-Bank den "Global Outlook 2026 – The Shifting World Order", der 2026 als potenziell transformatives Jahr charakterisiert. Der Bericht identifiziert drei große Verschiebungen:
Der Bericht vom November 2025 betont: Der Übergang von einer Weltordnung zur anderen ist in vollem Gang, wobei 2026 die Beschleunigung dieser Entwicklung markieren könnte.
2026 sei das Jahr des fundamentalen Wandels, „aber es ist noch unklar, wie diese neue Weltordnung aussehen wird“.
Auch die anderen großen "Global Outlook 2026"-Berichte von BNP Paribas, J.P. Morgan und Morgan Stanley sind primär auf Englisch verfasst. Deutschsprachige Wirtschaftsmedien wie ING bieten eigene Ausblicke für 2026 ("Outlook 2026: The world right now"), allerdings ebenfalls auf Englisch. (2)
Die Prognosen für 2026 unterscheiden sich deutlich von jenen für 2025, indem sie nach einer langen Rezessions- und Stagnationsphase eine Erholung und Stabilisierung erwarten – allerdings mit gedämpftem Optimismus.
Für Deutschland wird eine moderate Erholung prognostiziert
Nach drei Jahren wirtschaftlicher Stagnation und Rezession (2022-2024) erwarten die führenden Wirtschaftsforschungsinstitute für Deutschland 2026 eine moderate Erholung mit deutlichen Unterschieden in den Prognosen. (3)
Die Wachstumsprognosen für 2026 variieren erheblich:
Für 2025 rechnen alle Institute mit mageren 0,2% Wachstum nach zwei Jahren schrumpfender Wirtschaftsleistung. Die Bundesregierung formuliert vorsichtig: "Nach zwei Jahren rückläufiger Wirtschaftsleistung deutet sich im Herbst 2025 eine leichte konjunkturelle Erholung auf niedrigem Niveau an". Die Bundesbank versucht der Regierung Schützenhilfe zu geben: Die wirtschaftliche Erholung "verzögert sich aufgrund der Unsicherheit über die internationale Handelspolitik" und kommt nur "langsam in Gang". Der Bankenverband konstatiert:
"Nach mehr als einer halben Dekade wirtschaftlichen Stillstands sehen wir endlich eine belastbare Basis für ein nennenswertes Wirtschaftswachstum im nächsten Jahr."
Dabei schleppen sich Deutschland und Österreich aus einer mehrjährigen Schwächephase heraus, ohne dass ein dynamischer Aufschwung in Sicht wäre. (4)
Die scheinbare Erholung 2026 wird nicht wie gewohnt von der Exportwirtschaft getragen, sondern von massiven staatlichen Ausgaben. Nach der Lockerung der Schuldenbremse finanziert die Fiskalpolitik "insbesondere Ausgaben für Verteidigung und staatliche Infrastruktur umfangreich über Kredite". So führte Wirtschaftsministerin Reiche das prognostizierte Wachstum "hauptsächlich auf die umfangreichen staatlichen Investitionen in Infrastruktur und Verteidigungsfähigkeit zurück". (5) Das DIW warnt, dass der Aufschwung "nicht über die strukturellen Probleme des Landes" hinwegtäuschen dürfe. Die deutsche Industrie traf die internationale Handelsunsicherheit "zu einem Zeitpunkt, zu dem sie sich nach langer Schwächephase zu stabilisieren begann".
Deutschland bleibt 2026 unter dem EU-Durchschnitt von 1,4% Wachstum und hinkt dem Euroraum (1,1-1,2%) hinterher. (6) Der mit Steuergeld finanzierte Rüstungsboom stabilisiert zwar die Arbeitslosenzahlen, schönt weiter das BIP, lässt aber das staatliche Defizit auf 3,2% des BIP ansteigen – deutlich über der Maastricht-Grenze von 3%. (7)
Die rein wirtschaftlichen Prognosen scheinen auf Sand gebaut zu sein, da die geopolitischen und militärischen Realitäten, die Europa 2026 prägen werden, systematisch unterbelichtet sind: Die offiziellen Wirtschaftsprognosen behandeln den Ukraine-Konflikt und die eskalierenden Spannungen meist als "Unsicherheitsfaktor" oder "Risikoszenario", ohne die fundamentalen Konsequenzen vollständig zu erfassen.
Die fehlende Dimension: Kriegswirtschaft und ihre Kosten
Die massiven Staatsausgaben, die Deutschland und andere europäische Länder 2026 für "Verteidigung und staatliche Infrastruktur" planen, werden in den Prognosen als Wachstumstreiber dargestellt. Doch diese Darstellung verschleiert, dass es sich um konsumtive Rüstungsausgaben handelt, die keine nachhaltige Produktivitätssteigerung bewirken. Der Bankenverband spricht von "umfangreichen staatlichen Investitionen in Infrastruktur und Verteidigungsfähigkeit" – doch Panzer, Munition und Militärlogistik schaffen keine Wertschöpfung für die Zivilbevölkerung. (8)
Die Lockerung der Schuldenbremse in Deutschland und die steigenden Staatsdefizite in Österreich (4,2% des BIP) und Deutschland (3,2% des BIP) finanzieren primär die militärische Aufrüstung. Diese Mittel fehlen für produktive Investitionen in Bildung, zivile Infrastruktur und soziale Sicherheit. (9)
Die Wirtschaftsprognosen für 2026 basieren auf der impliziten Annahme, dass der militärische Konflikt in der Ukraine auf seinem aktuellen Niveau verharrt oder durch Verhandlungen beendet wird. Doch mehrere Faktoren sprechen für eine potenzielle Eskalation: Die ABN AMRO-Analyse zur "shifting world order" erwähnt zwar geopolitische Spannungen, konzentriert sich aber auf handelspolitische "Chokepoints" und Chinas Aufstieg.
Die reale Gefahr einer militärischen Ausweitung des Konflikts – sei es durch NATO-Beteiligung, Eskalation zu direkten Zusammenstößen oder den Einsatz neuer Waffensysteme – findet in den Modellen keine Berücksichtigung. (10)
Die strukturellen Probleme Europas verschärfen sich durch die Kriegssituation: Energieabhängigkeit: Die volatilen Energiepreise bleiben ein "struktureller Preistreiber", wobei jede weitere Eskalation die Energiesicherheit bedroht. (11)
Fehlende Wettbewerbsfähigkeit: Europa hat "keinen dynamischen KI-Sektor" und droht technologisch weiter zurückzufallen, während gleichzeitig Ressourcen in militärische statt innovative Bereiche fließen. (12)
Die Arbeitsmärkte stagnieren, während der absehbare Wehrdienst und militärische Mobilisierung zusätzlichen Druck auf den Fachkräftemangel ausüben. (13)
Diese Kombination aus sinkenden Realeinkommen, steigenden Militärausgaben und permanenter Kriegsrhetorik schafft eine explosive soziale Mischung. Die Ipsos-Umfrage zeigt, dass 66% der Befragten 2025 als "schlechtes Jahr" bewerteten – diese Unzufriedenheit wird 2026 nicht durch marginale Wachstumsraten von 1% verschwinden. (14)
Europa befindet sich in einer militärischen Konfrontation mit ungewissem Ausgang, deren Kosten – human, wirtschaftlich und gesellschaftlich – weit über die prognostizierten 1-1,5% Wachstum hinausgehen. Jede weitere Eskalation würde die optimistischen Szenarien obsolet machen und könnte Europa tatsächlich "noch viel tiefer abrutschen" lassen.
Die strukturellen Schwächen Europas – fehlende Energiesouveränität, technologische Rückständigkeit, demografischer Wandel, hohe Verschuldung – werden durch die Kriegssituation nicht gelöst, sondern verschärft.
Zauberwort KI
Forrester Research prognostiziert für 2026 einen Übergang von KI-Hype zur konkreten Umsetzung ("AI Moves From Hype To Hard Hat Work") sowie mehr Authentizität im Bereich Umwelt und Nachhaltigkeit. Die KI-Technologie verliert ihren Glanz und muss sich in den realen Herausforderungen des Alltags bewähren. Die Analysen betonen wachsende geopolitische und technologische Herausforderungen bei gleichzeitig engeren Budgets.
Vanguard prognostiziert, dass KI andere Megatrends in ihrer Wirkung übertreffen wird, da sie das Potenzial hat, Arbeitsmärkte zu verändern und die Produktivität zu steigern. Die regionalen Auswirkungen unterscheiden sich stark: In den USA könnten KI-Investitionen das Wachstum auf 3% treiben, wobei 2026 zunächst nur ein moderates Wachstum von 2,25% erwartet wird, da Produktivitätssteigerungen noch nicht breit greifen. China wird von KI-Innovationen profitieren und ein BIP-Wachstum von eher 5% als 4% erreichen. Der Euroraum dagegen hat keinen dynamischen KI-Sektor und wird mit nur etwa 1% Wachstum deutlich zurückfallen.
McKinsey schätzt, dass KI bis 2026 jährlich eine zusätzliche wirtschaftliche Leistung von 2,7 Billionen Euro in der europäischen Wirtschaft liefern könnte. Für Einzelunternehmen zeigen erfolgreiche Implementierungen einen "Return on Investment" (betriebswirtschaftliche Kennzahl, die das Verhältnis zwischen dem erzielten Gewinn und dem eingesetzten Kapital misst) von 300-500% über drei Jahre, während der Durchschnitt bei 150-200% liegt. Bis 2026 werden 45% der Beschäftigten KI-Tools in ihrem täglichen Arbeitsablauf nutzen – ein deutlicher Anstieg gegenüber 28% Anfang 2024.
Eine FAZ-Studie zeigt, dass KI "noch nicht in den Statistiken ankommt", obwohl sie als "Motor eines neuen Produktivitätsschubs" gilt und ab 30% Automatisierung einer Tätigkeit wirkt.
Die Titelseite von "The World Ahead 2026" des Economist ist eine dichte symbolische Warnung vor einem Jahr multipler Krisen und fundamentaler Umbrüche. (15)
Sie ist durch eine intensive rot-blaue Farbgebung gekennzeichnet, die das globale Kräftemessen und die innenpolitische Polarisierung symbolisiert. Zahlreiche Ikonen – darunter Panzer, Drohnen, Raketen, ein zerbrochenes Dollarzeichen und schmelzendes Eis – signalisieren, dass 2026 ein Jahr der Eskalation in Geopolitik, Wirtschaft und Klima sein wird. Diese visuelle Sprache ist eindeutig: Der Economist prognostiziert keine Entspannung, sondern eine Verschärfung auf allen Ebenen. (16)
Der Economist formuliert unmissverständlich das Ende der alten Weltordnung und identifiziert zehn Hauptthemen, die 2026 dominieren werden, von der Fortsetzung heißer Konflikte bis zu disruptiven technologischen Durchbrüchen und einer Neuausrichtung der globalen Machtverhältnisse: (17)
Die Fortsetzung der militärischen Konflikte in der Ukraine, im Sudan und in Myanmar, wobei keine schnelle Stabilisierung zu erwarten ist. Darüber hinaus wird mit sogenannten "grauen Provokationen" – Aktionen unterhalb der Schwelle eines offenen Krieges – in strategisch sensiblen Regionen gerechnet, etwa in der Arktis und im Südchinesischen Meer, wo maritime und territoriale Ansprüche aufeinandertreffen. Die Ausweitung von Konflikten in neue Domänen wie Weltraum, Meeresboden und Cyberraum wird explizit erwartet. (18)
Europas Dilemma wird schonungslos benannt:
"All this poses a particular test for Europe. It must increase defence spending, keep America on side, boost economic growth and deal with huge deficits, even though austerity risks stoking support for hard-right parties. It also wants to remain a leading advocate for free trade and greenery. It cannot do all of these at once". (19)
("All dies stellt Europa vor eine besondere Herausforderung. Es muss seine Verteidigungsausgaben erhöhen, Amerika bei der Stange halten, das Wirtschaftswachstum ankurbeln und enorme Defizite bewältigen, auch wenn Sparmaßnahmen die Gefahr bergen, die Unterstützung für rechtsextreme Parteien zu schüren. Außerdem möchte es weiterhin ein führender Verfechter des Freihandels und des Umweltschutzes bleiben. All dies kann es nicht gleichzeitig erreichen.")
Diese Formulierung ist bemerkenswert direkt: Europa steht vor unlösbaren Zielkonflikten. Die Notwendigkeit, Verteidigungsausgaben massiv zu erhöhen, kollidiert mit der fiskalischen Realität bereits belasteter Staatshaushalte, während gleichzeitig ein Anstieg der Popularität rechtspopulistischer Bewegungen befürchtet wird. Der Economist warnt: "Hohe Verteidigungsausgaben könnten das Wachstum ankurbeln, aber nur geringfügig". (20)
Das zerbrochene Dollarzeichen und der fallende Wirtschaftsgraph symbolisieren das Risiko einer Erosion des globalen Vertrauens in die US-Wirtschaft. Analysten erwarten im Falle einer fortgesetzten Dominanz der republikanischen Politik eine weitere Konsolidierung des protektionistischen "America First"-Kurses. Dieser Isolationismus, so die Warnung des Magazins, könnte das Wachstum der globalen Wirtschaft verlangsamen. (21)
Die Titelseite verkündet 2026 als Jahr der Wahrheit. Steht ein Jahr der Enthüllungen bevor?– nicht im positiven Sinne spiritueller Erleuchtung, sondern als brutale Konfrontation mit wirtschaftlichen, geopolitischen und fiskalischen Realitäten, die bisher durch Verschuldung, Rhetorik und Hoffnung übertüncht wurden.
Die symbolische Verdichtung – schmelzendes Eis (Klimakrise), Panzer und Drohnen (militärische Eskalation), zerbrochenes Dollarzeichen (Vertrauensverlust), fallende Graphen (wirtschaftlicher Niedergang) – zeigt ein System in multipler Krise. Der Aufstieg flexibler Ad-hoc-Allianzen zur Lösung spezifischer Aufgaben in Verteidigung, Klima und Handel deutet auf das Ende stabiler multilateraler Ordnungen hin. (22)
Die Prognosen von 1% Wachstum für Europa basieren auf der Annahme kontrollierter Krisen.
Jede Eskalation – militärisch, handelspolitisch oder fiskalisch – würde diese fragilen Szenarien zerbrechen lassen. Der Economist macht deutlich: Europa kann nicht gleichzeitig aufrüsten, sozial stabil bleiben, wirtschaftlich wachsen und fiskalisch solide sein. Die Titelseite visualisiert diese Überforderung als systemische Krise. (23)
Die "Wahrheit" für 2026 lautet demnach: Das Jahr wird zeigen, welche der konkurrierenden Prioritäten geopfert werden – und zu welchem Preis.
Die Wirtschaftsprognosen von WIFO, IHS, Bundesbank und EU-Kommission sind technische Modellrechnungen, die auf spezifischen Annahmen basieren: keine weitere militärische Eskalation, kontrollierte Inflationsentwicklung, funktionierende Lieferketten, stabile politische Verhältnisse. Diese Prognosen messen BIP-Wachstum, Inflation und Arbeitslosigkeit innerhalb eines bestehenden Systems und gehen von dessen Kontinuität aus. (24)
Der Economist hingegen liefert eine systemische Risikoanalyse: "The old world order is finished – and in 2026 the contours of what will replace it will emerge" (Die alte Weltordnung ist beendet – und 2026 werden die Konturen der neuen erkennbar).
Die Titelseite visualisiert nicht Wachstumsraten, sondern fundamentale Brüche – militärische Eskalation, fiskalische Überdehnung, geopolitische Neuordnung, technologische Disruption.
Rechnerisches Wachstum nur durch Kriegswirtschaft
Der entscheidende Punkt ist: Die prognostizierten Wachstumsraten für Deutschland (1,3-1,5%) und Österreich (1,0-1,2%) werden primär durch massive Staatsausgaben für Verteidigung getrieben. Wirtschaftsministerin Reiche führt das Wachstum "hauptsächlich auf die umfangreichen staatlichen Investitionen in Infrastruktur und Verteidigungsfähigkeit zurück". Die Bundesbank bestätigt: Nach Lockerung der Schuldenbremse finanziert die Fiskalpolitik "insbesondere Ausgaben für Verteidigung und staatliche Infrastruktur umfangreich über Kredite". (25)
Das ist genau das Szenario, das der Economist auf der Titelseite mit Panzern, Drohnen, Raketen und dem zerbrochenen Dollarzeichen visualisiert. Die Staatsdefizite steigen auf 4,2% (Österreich) und 3,2% (Deutschland) des BIP – weit über der Maastricht-Grenze. Der Economist warnt: "With rich countries living beyond their means, the risk of a bond-market crisis is growing" (Wenn reiche Länder über ihre Verhältnisse leben, steigt das Risiko einer Krise von Anleihemärkten). (26)
Die "positiven" Wachstumszahlen sind also Kriegswirtschaftswachstum auf Pump, das keine Verbesserung des Lebensstandards bringt. Die Reallöhne sinken weiter, die Arbeitslosigkeit bleibt hoch, und die strukturellen Probleme verschärfen sich. (27)
Die drei Wahrheitsebenen für 2026
Der Economist identifiziert drei Bereiche, in denen 2026 "Klarheit herrschen wird – im Guten wie im Schlechten": (28)
Der in Japan lebende unabhängige kanadisch-amerikanische Journalist James Corbett begann das Jahr 2025 mit „The Pendulum Has Swung Again“ (Das Pendel hat erneut ausgeschlagen), einem Leitartikel, in dem er darauf hinwies, wie die linken/progressiven Frömmeleien von einst durch die rechten/MAGA-Frömmeleien des neuen Trump- und Change-Regimes hinweggefegt wurden.
Laut Corbett dauerte es nicht lange, bis diese narrative Verschiebung vom „Great Resetter“ selbst, Donald J. Trump, großartig bestätigt wurde:
„Ich kehre voller Zuversicht und Optimismus ins Präsidentenamt zurück“, so Trump beim Antritt seiner zweiten Amtszeit, „denn wir stehen am Beginn einer spannenden neuen Ära des nationalen Erfolgs. Eine Welle des Wandels erfasst das Land, Sonnenlicht strömt über die ganze Welt, und Amerika hat die Chance, diese Gelegenheit wie nie zuvor zu nutzen“. (32)
Wie bei so vielen Politikern vor ihm waren die kühnen Worte nur heiße Luft.
Nach dem Verrat durch die Angriffe auf den Iran, dem Debakel um Trump, Gaza und den „Friedensrat“, der Katastrophe um den „Friedensplan“ für die Ukraine, den Massakern auf venezolanischen Drogenbooten, der Beleidigung „untalentierte Amerikaner“ und natürlich die „Epstein-Hoax“-Lüge haben selbst die hartnäckigsten MAGA-Anhänger begonnen zu erkennen, dass Trumps Antrittsrede über ein neues „goldenes Zeitalter“ in das Reich der Fabel gehört.
Im Jahr 2025 hat sich laut Corbett ein bemerkenswerter Wandel im Verständnis und Diskurs der Bevölkerung vollzogen. Dieser Wandel hat die Debatte um einige der Kernthemen verändert, über die die unabhängigen Medien seit Jahren berichten. Diese Veränderung habe nichts mit Politikern, Akademikern, Talkshow-Moderatoren und anderen Schwätzern zu tun, die sich für „Vordenker” und „Trendsetter” halten. Und trotz der Bemühungen derer, die in jedem Silberstreif am Horizont eine Gewitterwolke sehen, ist diese Veränderung in der Berichterstattung tatsächlich ein Grund zur Freude.
Es begann damit, dass bis kurz vor dem Amtsantritt von Donald Trump als US-Präsident am 20. Januar 2025 sechs große US-Banken – Goldman Sachs, Wells Fargo, Citigroup, Bank of America, Morgan Stanley und JPMorgan Chase – die Gemeinschaft der klimaaktiven "Net Zero Banking Alliance" (NZBA) verließen. (33)
Die NZBA, die 2021 mit 43 Banken aus 23 Nationen startete und bis Oktober 2024 auf 144 Institute aus 44 Ländern anwuchs, schrumpfte durch die US-Austritte auf 141. Im November 2025 löste sich die Allianz nach einer Mitgliederabstimmung vollständig auf – ihre Durchsetzungs- und Rechenschaftsmechanismen wurden abgeschafft.
Es setzte sich fort mit der erstaunlichen Kehrtwende des Klimapolitikers Bill Gates, der zugab, dass der Klimawandel tatsächlich nicht zum Untergang der Menschheit führen wird.
Und es gipfelte in dem weltgeschichtlichen Scheitern der COP30 – des jährlichen Klimagipfels der Vereinten Nationen –, der nicht nur keine substanzielle Vereinbarung hervorbrachte, sondern auch Schlagzeilen wie „Die Auflösung des Klimakults ist unvermeidlich” generierte. Selbst die Los Angeles Times sah sich gezwungen zu erklären, dass Amerika „endlich aus seinem jahrzehntelangen Klimakatastrophismus-Stupor erwacht”.
Dann meldete sich der ehemalige Kongressabgeordnete Curt Weldon zu Wort und sprach sich gegen die offizielle 9/11-Version aus, der ehemalige Kongressabgeordnete Dennis Kucinich schloss sich dem Kampf für Gerechtigkeit im Zusammenhang mit 9/11 an und der Vorsitzende des Ständigen Untersuchungsausschusses des US-Senats, Ron Johnson, stellte sich hinter diejenigen, die es wagten, die Ereignisse des 11. September infrage zu stellen.
Im Beifang dieser Wende: Menschen hinterfragen nun auch andere False-Flag-Operationen und die illegalen Angriffskriege.
Angesichts der öffentlichen Empörung über die anhaltende Vertuschung des Epstein-Skandals scheint es immer schwerer zu werden, die Aufmerksamkeit der Öffentlichkeit vom Thema der politischen Pädophilie abzulenken.
Und die öffentliche Meinung zur Lage in Palästina scheint sich im Jahr 2025 völlig gewandelt zu haben.
Vor dem Hintergrund dieser Eruptionen wirkt der spektakuläre Sturz von Klaus Schwab und die völlige Aufgabe der „Great Reset“-Agenda fast unbedeutend.
Auf welche Seite wird sich das Pendel schlagen?
Wenn die Grundannahmen der Wirtschaftsprognosen halten (keine weitere Eskalation, kontrollierte Staatsverschuldung, funktionierende Märkte) ist 1% Wachstum realistisch – allerdings erkauft durch Militärausgaben, sinkende Realeinkommen und wachsende Schulden.
Der Economist hat recht mit seiner Risikoanalyse: Die Annahmen sind fragil. Jede der visualisierten Krisen – militärische Eskalation (Panzer, Drohnen), fiskalischer Kollaps (zerbrochenes Dollarzeichen), geopolitische Neuordnung (Trump, Putin, Xi mit gekreuzten Schwertern), technologische Disruption (KI-Roboter) – kann das zarte Hoffnungspflänzchen erdrücken. (34)
Allen Prognosen für 2026 gemeinsam ist die Überzeugung eines Wendepunkts – weg von Illusionen und oberflächlichen Narrativen hin zu strukturellen Realitäten, Authentizität und einer multipolaren Weltordnung.
Der scheinbare Widerspruch zwischen den "optimistischen" Wirtschaftsprognosen (1-1,5% Wachstum für Deutschland und Österreich) und dem düsteren Economist-Titelbild lässt sich auflösen, wenn man versteht, dass beide Darstellungen unterschiedliche Dimensionen derselben Realität abbilden – und beide sind in ihrer jeweiligen Perspektive "wahr".
Das Jahr wird nicht den Zusammenbruch bringen, aber die Unhaltbarkeit des Status quo offenbaren. Der Economist formuliert es so: "how 2026 will shape the next decade" – 2026 ist nicht das Jahr des Crashs, sondern das Jahr, in dem die Weichen für die Krise der späten 2020er Jahre gestellt werden. (35)
Die scheinbar "positiven" Prognosen und das düstere Economist-Bild widersprechen sich also nicht – sie zeigen nur unterschiedliche Aspekte derselben Wahrheit: Europa kauft sich 2026 durch massive Verschuldung ein minimales rechnerisches Wachstum, während die fundamentalen Probleme sich verschärfen und die systemischen Risiken wachsen. (36)
Die Synthese lautet: 2026 wird rechnerisch ein marginales Wachstum zeigen, das aber auf wachsenden systemischen Risiken basiert.
Was 2026 passieren wird, ist noch keine ausgemachte Sache. Es wird das Endergebnis der Bemühungen sein, die wir heute (oder auch nicht) unternehmen, um den Wandel des Narrativs voranzutreiben.
Wolfgang Effenberger, Jahrgang 1946, erhielt als Pionierhauptmann bei der Bundeswehr tiefere Einblicke in das von den USA vorbereitete "atomare Gefechtsfeld" in Europa. Nach zwölfjähriger Dienstzeit studierte er in München Politikwissenschaft sowie Höheres Lehramt (Bauwesen/Mathematik) und unterrichtete bis 2000 an der Fachschule für Bautechnik. Seitdem publiziert er zur jüngeren deutschen Geschichte und zur US-Geopolitik. Zuletzt erschienen vom ihm: „Schwarzbuch EU & NATO“ (2020) sowie "Die unterschätzte Macht" (2022).
+++
1) https://www.abnamro.com/research/en/our-research/global-outlook-2026-the-shifting-world-order
2) https://globalmarkets.cib.bnpparibas/global-outlook-2026-in-a-good-place/
3) https://www.kfw.de/%C3%9Cber-die-KfW/Newsroom/Aktuelles/Pressemitteilungen-Details_861248.html
4) https://www.kfw.de/%C3%9Cber-die-KfW/Newsroom/Aktuelles/Pressemitteilungen-Details_861248.html
5) https://www.tagesschau.de/wirtschaft/konjunktur/bundesregierung-konjunkturprognose-102.html
6) https://www.tagesschau.de/wirtschaft/konjunktur/herbstprognose-europa-kommission-100.html
9) https://kurier.at/wirtschaft/wifo-ihs-prognose-oesterreich-wirtschaft-inflation-bip-budget/403114825
10) https://www.abnamro.com/research/en/our-research/global-outlook-2026-the-shifting-world-order
11) https://www.forbes.at/artikel/wie-inflation-und-zinsniveau-das-einkaufsverhalten-2026-veraendern
14) https://www.ipsos.com/de-at/ipsos-prognoseumfrage-2026
15) https://www.nume.ch/the-economist-2026-titelseite-prognosen-und-schluesselthemen/
16) https://www.nume.ch/the-economist-2026-titelseite-prognosen-und-schluesselthemen/
17) https://www.economist.com/insider/the-insider/the-world-ahead-how-2026-will-shape-the-next-decade
18) https://www.newsflix.at/s/diese-10-grossen-trends-werden-2026-die-welt-praegen-120143512
20) https://www.newsflix.at/s/diese-10-grossen-trends-werden-2026-die-welt-praegen-120143512
21) https://www.nume.ch/the-economist-2026-titelseite-prognosen-und-schluesselthemen/
22) https://www.nume.ch/the-economist-2026-titelseite-prognosen-und-schluesselthemen/
24) https://kurier.at/wirtschaft/wifo-ihs-prognose-oesterreich-wirtschaft-inflation-bip-budget/403114825
26) https://www.theistanbulchronicle.com/post/what-the-cover-says-the-economist-s-the-world-ahead-2026
28) https://www.newsflix.at/s/diese-10-grossen-trends-werden-2026-die-welt-praegen-120143512
29) https://www.nume.ch/the-economist-2026-titelseite-prognosen-und-schluesselthemen/
30) https://www.theistanbulchronicle.com/post/what-the-cover-says-the-economist-s-the-world-ahead-2026
32) https://uncutnews.ch/2025-das-jahr-in-dem-sich-die-erzaehlung-aenderte/
34) https://www.nume.ch/the-economist-2026-titelseite-prognosen-und-schluesselthemen/
35) https://www.economist.com/insider/the-insider/the-world-ahead-how-2026-will-shape-the-next-decade
36) https://www.economist.com/insider/the-insider/the-world-ahead-how-2026-will-shape-the-next-decade
+++
Dank an den Autor für das Recht zur Veröffentlichung dieses Beitrags.
+++
Bild: Geschäftsmann berührt eine futuristische digitale Leinwand mit der Jahreszahl 2026
Bildquelle: GSasanka/ shutterstock

Die Zeiten ändern sich, so auch die wirtschaftliche Grundlage der Gesellschaft. So wie das Industriezeitalter für Verwerfungen und Umwälzungen sorgte, wird es nun auch in …
Der Beitrag Rentenloch, Roboter und Reibach – warum eine Kapitaltransaktionssteuer der wahre Systemtest wäre erschien zuerst auf Contra24.
veröffentlicht am 24.07.2025 – Gastbeitrag von Werner Gertz Künstliche Intelligenz liefert Antworten – aber welche, hängt maßgeblich von ihrer Datenbasis ab. Ein Vergleich der neuen KI Brighteon.AI mit ChatGPT, DeepSeek und Perplexity zeigt: die Unterschiede in den Ergebnissen sind teils gravierend. Besonders auffällig wird dies bei Fragen zu Nebenwirkungen der Masernimpfung. Am 4. Juli 2025 […]
Der Beitrag Künstliche Intelligenz im Vergleich: Wie KI-Systeme mit Fragen zu Masern-Impfnebenwirkungen umgehen erschien zuerst auf MWGFD.