Wie KI den Arbeitsmarkt verändern wird, ist noch immer eher spekulativ abzuschätzen.
Der Beitrag Entwertet KI Universitäten und akademische Abschlüsse? erschien zuerst auf .
Wie KI den Arbeitsmarkt verändern wird, ist noch immer eher spekulativ abzuschätzen.
Der Beitrag Entwertet KI Universitäten und akademische Abschlüsse? erschien zuerst auf .
Es ist eine auffällige Verschiebung, die sich in den vergangenen Jahren vollzogen hat: Künstliche Intelligenz ist nicht mehr primär ein Forschungsfeld, nicht mehr nur ein industrielles Innovationsversprechen, sondern ein politisches Pflichtprojekt. Kaum ein Regierungspapier, kaum eine wirtschaftspolitische Rede kommt ohne den Verweis auf KI aus. Sie gilt als Schlüsseltechnologie, als Wachstumsmotor, als Sicherheitsfaktor und zunehmend als Maßstab geopolitischer Relevanz. Diese Erzählung ist bemerkenswert, weil sie weniger aus einer klar formulierten gesellschaftlichen Zielsetzung gespeist wird als aus einem Gefühl: der Angst, zurückzufallen. Von Günther Burbach.
Dieser Beitrag ist auch als Audio-Podcast verfügbar.
Wer heute nicht massiv in KI investiert, so lautet das implizite Narrativ, riskiert morgen den Verlust von Wohlstand, Sicherheit und Einfluss.
Der weltweite KI-Schub begann nicht mit einer breiten öffentlichen Debatte über Sinn, Nutzen oder Risiken. Er begann mit Vergleichen, Ranglisten und Warnungen. Politiker, Wirtschaftsvertreter und Strategen beschworen Szenarien, in denen andere Staaten, meist namentlich die USA oder China, enteilen könnten. In diesem Klima entstand eine Dynamik, die weniger von inhaltlicher Überzeugung als von präventivem Aktionismus geprägt ist. KI wurde zum Symbol politischer Handlungsfähigkeit in einer Zeit, in der klassische Steuerungsinstrumente an Wirkung verloren haben. Wer KI fördert, zeigt Aktivität. Wer zögert, riskiert den Vorwurf der Rückständigkeit.
Diese Logik erinnert an historische Phasen, in denen technologische oder militärische Entwicklungen aus ähnlichen Motiven vorangetrieben wurden. Der Vergleich mit dem Goldrausch des 19. Jahrhunderts drängt sich nicht zufällig auf. Auch damals ging es weniger um eine nachhaltige Verbesserung der Lebensverhältnisse als um schnellen Zugriff auf eine als knapp wahrgenommene Ressource. Wer zu spät kam, ging leer aus – so zumindest die Erzählung. Tatsächlich profitierten wenige, während viele scheiterten oder ausgebeutet wurden. Der entscheidende Unterschied liegt heute darin, dass die Ressource immateriell ist: Daten, Rechenleistung, Algorithmen, Know-how. Doch der Zugriff folgt ähnlichen Machtlogiken.
KI als strategische Ressource
KI ist zur neuen strategischen Ressource geworden. Staaten konkurrieren nicht mehr nur um Rohstoffe oder Produktionsstandorte, sondern um Trainingsdaten, Hochleistungschips, spezialisierte Fachkräfte und den Bau riesiger Rechenzentren. Diese Infrastruktur ist teuer, energieintensiv und langfristig wirksam. Wer sie aufbaut, legt Pfade fest, die sich über Jahrzehnte kaum korrigieren lassen. Dennoch werden entsprechende Entscheidungen häufig im Eiltempo getroffen. Förderprogramme in Milliardenhöhe werden aufgelegt, Genehmigungsverfahren beschleunigt, regulatorische Hürden abgesenkt. Parlamente und Öffentlichkeit stehen oft vor vollendeten Tatsachen.
Besonders deutlich zeigt sich diese Dynamik im internationalen Vergleich. In den USA wird KI offen als strategisches Instrument im globalen Wettbewerb definiert. Sie ist Teil sicherheitspolitischer Doktrinen, eng verknüpft mit militärischer Forschung und wirtschaftlicher Dominanz. In China fügt sich KI nahtlos in langfristige staatliche Planungen ein, die technologische Entwicklung, gesellschaftliche Steuerung und politische Kontrolle miteinander verbinden. Europa wiederum spricht von „digitaler Souveränität“, bleibt aber in zentralen Bereichen abhängig von außereuropäischen Konzernen und Technologien. Drei Machtblöcke, drei Narrative und doch ein gemeinsamer Nenner: die Furcht, abgehängt zu werden.
Das Denken ist strukturell militärisch
Diese Furcht erzeugt einen Wettlauf ohne klare Zieldefinition. KI wird ausgebaut, weil andere sie ausbauen. Investitionen rechtfertigen sich durch Investitionen. Das Denken ist strukturell militärisch: Aufrüstung erzeugt Aufrüstung. Wer innehält, verliert. Wer nachdenkt, riskiert Rückstand. In einer solchen Logik werden Grundsatzfragen schnell als Luxusproblem abgetan. Wozu soll KI konkret dienen? Welche gesellschaftlichen Probleme soll sie lösen? Wo sind ihre Grenzen? Solche Fragen gelten als nachrangig, mitunter sogar als hinderlich.
Auffällig ist dabei die Sprache, mit der dieser Prozess begleitet wird. Politiker sprechen vom „Aufholen“, vom „Anschluss sichern“, vom „Führendwerden“. Das Vokabular stammt aus dem Sport oder aus geopolitischen Rivalitätsnarrativen, nicht aus der Sozial- oder Bildungspolitik. Diese Rhetorik ist nicht neutral. Sie erzeugt Zeitdruck und legitimiert Entscheidungen, die unter normalen Umständen einer intensiven öffentlichen Debatte bedürften. Wer im Rennen liegt, hält nicht an, um über Streckenführung oder Ziel zu diskutieren.
Öffentliche Verantwortung versus private Macht
Hinzu kommt ein strukturelles Ungleichgewicht zwischen öffentlicher Verantwortung und privater Macht. Während Staaten die finanziellen Risiken tragen und öffentliche Mittel mobilisieren, liegen die entscheidenden technologischen Hebel meist in den Händen weniger Konzerne. Die größten KI-Modelle, die zentralen Plattformen, die proprietären Algorithmen gehören privaten Akteuren. Öffentliche Gelder fließen in private Infrastruktur, ohne dass Transparenz, demokratische Kontrolle oder Mitsprache in gleichem Maße gewährleistet wären. Der Staat agiert als Förderer, nicht als Gestalter.
Diese Konstellation verschärft ein bekanntes Problem moderner Technologiepolitik. Entscheidungen werden vorverlagert, nicht in Parlamente oder öffentliche Debatten, sondern in technische Architektur, in Code, in Trainingsdaten. Was dort einmal festgelegt ist, entzieht sich späterer politischer Korrektur weitgehend. Algorithmen werden implementiert, Systeme skaliert, Infrastrukturen amortisiert. Der politische Raum schrumpft, während der technische expandiert. KI wird so zum Machtfaktor, unabhängig von ihrem konkreten Nutzen.
Dabei ist längst absehbar, dass KI tiefgreifende gesellschaftliche Folgen haben wird. Arbeitsmärkte verändern sich, Entscheidungsprozesse werden automatisiert, menschliche Urteilskraft wird ergänzt oder ersetzt. Dennoch dominiert in der politischen Debatte fast ausschließlich die Perspektive nationaler Wettbewerbsfähigkeit. Soziale, ethische und demokratische Fragen erscheinen als sekundär. Wer sie in den Vordergrund rückt, gerät schnell in den Verdacht, innovationsfeindlich zu sein. Diese Zuschreibung wirkt disziplinierend. Sie begrenzt den Diskurs, noch bevor er richtig begonnen hat.
Internationale Abhängigkeiten und wachsender Technologie-Nationalismus
Ein weiterer Aspekt des KI-Rausches ist die internationale Dimension technologischer Abhängigkeiten. KI wird zunehmend als strategische Infrastruktur behandelt, vergleichbar mit Energieversorgung oder Rüstungstechnologie. Exportkontrollen für Hochleistungschips, Subventionen für Halbleiterfabriken, nationale Cloud-Initiativen sind Ausdruck eines wachsenden Technologie-Nationalismus. Gleichzeitig bleiben Datenströme global, Plattformen transnational, Lieferketten komplex. Der Versuch, KI national zu kontrollieren, kollidiert mit der Realität globaler Märkte und Konzerne.
In diesem Spannungsfeld entsteht ein paradoxes Bild: Staaten investieren massiv in KI, ohne sie tatsächlich zu beherrschen. Sie beschleunigen Entwicklungen, deren langfristige Konsequenzen sie kaum abschätzen können. Der politische Wille konzentriert sich auf das „Ob“, nicht auf das „Wie“ oder „Wozu“. KI wird damit zum Selbstzweck. Sie dient als Ersatzsymbol für politische Gestaltungskraft in einer Zeit, in der viele klassische Versprechen, von sozialem Aufstieg bis zu ökologischer Stabilität, brüchig geworden sind.
Bemerkenswert ist auch, wie selten in diesem Kontext über Verzicht gesprochen wird. Kaum ein politisches Programm thematisiert bewusst die Möglichkeit, bestimmte KI-Anwendungen nicht zu entwickeln oder nicht einzusetzen. Alles, was technisch machbar erscheint, gilt implizit als legitim. Diese Haltung markiert einen tiefgreifenden kulturellen Wandel. Technik wird nicht mehr als gestaltbares Mittel betrachtet, sondern als quasi naturgesetzliche Entwicklung, der man sich anzupassen habe. Der Mensch folgt der Maschine, nicht umgekehrt.
Der geopolitische KI-Rausch ist daher weniger ein Ausdruck technologischer Notwendigkeit als ein Symptom politischer Orientierungslosigkeit. Statt klare normative Leitplanken zu definieren, flüchten sich Regierungen in Beschleunigung. Fortschritt wird relativ verstanden, nicht daran gemessen, ob er das Leben konkret verbessert, sondern daran, ob er schneller ist als der des Nachbarn. Diese Logik verdrängt absolute Maßstäbe wie Lebensqualität, Freiheit oder soziale Gerechtigkeit.
Wettlauf ohne demokratische Zieldefinition
Gerade darin liegt die eigentliche Gefahr. Ein technologischer Wettlauf ohne demokratische Zieldefinition erzeugt Fakten, die sich später kaum noch revidieren lassen. Wer heute milliardenschwere KI-Infrastrukturen aufbaut, bindet Ressourcen, schafft Abhängigkeiten und erzeugt Nutzungsdruck. Rechenzentren wollen ausgelastet werden, Datenpools genutzt, Systeme skaliert. Was einmal möglich ist, wird früher oder später eingesetzt, nicht aus gesellschaftlicher Einsicht, sondern aus ökonomischer Logik.
So entsteht ein selbstverstärkender Kreislauf: Investitionen erzeugen Nutzungszwang, Nutzung erzeugt Abhängigkeit, Abhängigkeit rechtfertigt weitere Investitionen. In diesem Kreislauf bleibt wenig Raum für demokratische Kontrolle. Politische Debatten hinken hinterher, weil sie erst einsetzen, wenn technische Tatsachen längst geschaffen sind. KI wird zur Black Box politischer Entscheidungen.
Der geopolitische KI-Rausch ist damit kein neutraler Fortschrittsprozess, sondern ein Machtprojekt. Er verschiebt Entscheidungsgewalt weg von demokratisch legitimierten Institutionen hin zu technisch-ökonomischen Akteuren. Die zentrale Frage, warum wir bestimmte Technologien entwickeln und wem sie dienen sollen, bleibt meist unbeantwortet. Solange das so ist, gleicht jede weitere Milliardeninvestition weniger einem Zukunftsprogramm als einem Blindflug.
Damit ist der Wendepunkt erreicht – nicht, weil KI allmächtig wäre, sondern weil sie politisch zur Notwendigkeit erklärt wurde. Nicht aus Einsicht, sondern aus Angst. Und Angst war historisch selten ein guter Ratgeber für nachhaltigen, gesellschaftlich eingebetteten Fortschritt.
Der Verlust politischer Gestaltung
Der geopolitische KI-Rausch bleibt nicht folgenlos. Er wirkt tief in gesellschaftliche Strukturen hinein, verändert Entscheidungsprozesse, Machtverhältnisse und letztlich das Verhältnis zwischen Bürgern und Staat. Während politische Debatten sich auf Wettbewerbsfähigkeit, Innovationsführerschaft und technologische Souveränität konzentrieren, verschiebt sich im Hintergrund schleichend die Frage, wer eigentlich noch gestaltet und wer nur noch reagiert. KI wird nicht mehr als Werkzeug betrachtet, das gesellschaftlichen Zielen dient, sondern als System, an das sich Gesellschaften anpassen müssen. Diese Umkehrung markiert eine Zäsur.
Zunächst trifft der massive KI-Ausbau auf einen Bereich, der politisch besonders sensibel ist: den Arbeitsmarkt. Kaum eine Technologie wurde in den vergangenen Jahrzehnten so widersprüchlich diskutiert. Einerseits werden Produktivitätsgewinne, Effizienzsteigerungen und Entlastung von Routinetätigkeiten versprochen. Andererseits mehren sich Hinweise darauf, dass KI nicht nur einfache Tätigkeiten ersetzt, sondern zunehmend auch qualifizierte, wissensbasierte Arbeit. Entscheidungen, die früher menschlicher Abwägung unterlagen, werden algorithmisch vorstrukturiert oder vollständig automatisiert. Die politische Antwort darauf bleibt auffällig vage. Statt über neue Formen sozialer Absicherung, Arbeitszeitverkürzung oder Umverteilung zu sprechen, dominiert die Hoffnung, der Markt werde es richten.
Diese Hoffnung ist riskant, weil sie an einer zentralen Realität vorbeigeht: KI verändert nicht nur, was gearbeitet wird, sondern wie gesellschaftliche Wertschöpfung verteilt ist. Wer die Systeme kontrolliert, kontrolliert die Erträge. Daten, Modelle und Plattformen konzentrieren sich bei wenigen Akteuren. Der Staat, der den Ausbau fördert, gerät in eine paradoxe Rolle. Er finanziert Strukturen, die seine eigene Gestaltungsmacht untergraben können. Öffentliche Mittel fließen in private Infrastrukturen, während die demokratische Kontrolle begrenzt bleibt. Die Gesellschaft trägt die Anpassungskosten, ohne proportional an den Gewinnen beteiligt zu sein.
Noch gravierender sind die Auswirkungen auf staatliche Entscheidungsprozesse selbst. Verwaltungen setzen zunehmend auf KI-gestützte Systeme, um Anträge zu bearbeiten, Risiken zu bewerten oder Ressourcen zuzuweisen. Was als Effizienzsteigerung beginnt, verändert schrittweise die Logik staatlichen Handelns. Entscheidungen werden standardisiert, Kriterien formalisiert, Abweichungen als Störfaktoren behandelt. Der Ermessensspielraum schrumpft, nicht unbedingt aus bösem Willen, sondern aus systemischer Logik. Algorithmen arbeiten mit Wahrscheinlichkeiten, nicht mit Einzelfällen. Doch Demokratie lebt vom Umgang mit dem Besonderen.
Gefährliche Verschiebung: Verantwortung tragen „die Systeme“
Hier entsteht eine neue Form politischer Entlastung. Verantwortung wird an Systeme delegiert, deren Funktionsweise selbst für Experten oft nur eingeschränkt nachvollziehbar ist. Wenn Entscheidungen als Ergebnis „objektiver“ Berechnungen erscheinen, geraten politische Bewertungen in den Hintergrund. Fehler lassen sich externalisieren: Nicht die Politik hat entschieden, sondern das System. Diese Verschiebung ist gefährlich, weil sie die Rechenschaftspflicht aushöhlt. Demokratie basiert auf der Möglichkeit, Entscheidungen zu hinterfragen, Verantwortliche zur Rede zu stellen und Alternativen einzufordern. Black-Box-Systeme entziehen sich dieser Logik.
Besonders problematisch ist dabei, dass viele dieser Systeme auf Daten basieren, die gesellschaftliche Ungleichheiten reproduzieren. KI lernt aus der Vergangenheit. Wenn diese Vergangenheit von Diskriminierung, sozialer Selektion oder struktureller Benachteiligung geprägt ist, schreiben Algorithmen diese Muster fort. Der technologische Fortschritt tarnt alte Probleme in neuem Gewand. Doch statt diese Risiken offen zu diskutieren, werden sie oft als technische Details behandelt, die sich im laufenden Betrieb optimieren ließen. Die politische Dimension bleibt unterbelichtet.
Parallel dazu verändert sich die öffentliche Debattenkultur. KI-gestützte Systeme beeinflussen, welche Informationen sichtbar werden, welche Inhalte Reichweite erhalten und welche Stimmen gehört werden. Plattformlogiken priorisieren Aufmerksamkeit, nicht Wahrheit oder Relevanz. Was emotionalisiert, polarisiert oder bestätigt, setzt sich durch. Diese Dynamik ist kein Nebeneffekt, sondern Teil des ökonomischen Modells. Der politische Diskurs wird dadurch fragmentierter, anfälliger für Manipulation und schwerer steuerbar. Demokratie jedoch ist auf einen gemeinsamen öffentlichen Raum angewiesen, in dem Argumente abgewogen werden können.
Desinformation und Einflussnahme
Der Staat steht diesem Prozess oft ambivalent gegenüber. Einerseits warnt er vor Desinformation und Einflussnahme, andererseits nutzt er selbst datengetriebene Instrumente zur Meinungsanalyse, Sicherheitsbewertung oder Verhaltenssteuerung. Die Grenze zwischen Schutz und Kontrolle wird unscharf. KI wird damit Teil eines umfassenderen Trends zur Technokratisierung politischer Prozesse. Entscheidungen erscheinen zunehmend als technische Notwendigkeiten, nicht als politische Abwägungen. Das reduziert Komplexität, aber auch demokratische Teilhabe.
In diesem Kontext gewinnt der Begriff der „digitalen Souveränität“ eine zentrale, zugleich widersprüchliche Bedeutung. Er suggeriert Kontrolle und Selbstbestimmung, verdeckt jedoch oft reale Abhängigkeiten. Nationale KI-Strategien versprechen Autonomie, während zentrale Komponenten, von Cloud-Infrastrukturen über Trainingsdaten bis hin zu Basismodellen, von global agierenden Konzernen bereitgestellt werden. Der Handlungsspielraum des Staates beschränkt sich auf Regulierung im Nachhinein. Gestaltung im eigentlichen Sinne findet kaum statt.
Hinzu kommt ein langfristiger Effekt, der selten thematisiert wird: der Verlust politischer Vorstellungskraft. Wenn Technik als alternativlos gilt, schrumpft der Raum für gesellschaftliche Visionen. Politik reagiert, statt zu entwerfen. KI wird zur Projektionsfläche für ungelöste Probleme: Sie soll Verwaltung effizienter, Wirtschaft wettbewerbsfähiger, Sicherheit verlässlicher machen. Doch diese Erwartungen ersetzen keine politischen Konzepte. Sie verschieben Verantwortung. Statt über gerechte Verteilung, soziale Teilhabe oder demokratische Kontrolle zu sprechen, wird auf technologische Lösungen verwiesen.
Ein bewusster Verzicht erscheint als Schwäche
Diese Verschiebung zeigt sich besonders deutlich im Umgang mit Verzicht. In klassischen politischen Debatten gehört es zum Kern demokratischer Auseinandersetzung, Grenzen zu definieren. Nicht alles, was möglich ist, wird getan. Im KI-Diskurs hingegen gilt Machbarkeit oft als Legitimation. Anwendungen werden entwickelt, weil sie technisch realisierbar sind, nicht weil ihr gesellschaftlicher Nutzen überzeugend belegt wäre. Ein bewusster Verzicht erscheint als Schwäche, nicht als Ausdruck politischer Reife.
Dabei wäre gerade jetzt eine solche Debatte notwendig. Denn KI-Infrastrukturen schaffen Pfadabhängigkeiten. Rechenzentren, Datenpools und algorithmische Systeme sind keine neutralen Werkzeuge, sondern strukturieren zukünftige Entscheidungen. Sie erzeugen Nutzungsdruck und Investitionslogiken, die sich selbst verstärken. Was heute aufgebaut wird, prägt die Handlungsmöglichkeiten von morgen. Demokratische Kontrolle müsste daher frühzeitig ansetzen, bevor Systeme flächendeckend implementiert sind.
Stattdessen wird Kontrolle häufig nachgelagert gedacht. Ethikräte, Leitlinien und Selbstverpflichtungen sollen Risiken begrenzen, ohne die grundlegende Dynamik zu hinterfragen. Diese Instrumente sind nicht wirkungslos, aber sie greifen zu kurz, wenn sie den strukturellen Kontext ausblenden. Solange KI primär als geopolitisches und ökonomisches Pflichtprojekt verstanden wird, bleiben ethische Debatten randständig. Sie wirken wie Korrekturen an einem Prozess, dessen Richtung bereits feststeht.
Gesellschaften sollen sich „fit machen“ für KI – nicht umgekehrt
Der neue Goldrausch offenbart damit eine tiefere politische Krise. Er zeigt, wie sehr sich Politik von der Fähigkeit verabschiedet hat, technologische Entwicklung aktiv zu gestalten. Stattdessen dominiert Anpassung. Gesellschaften sollen sich „fit machen“ für KI, nicht umgekehrt. Bildungssysteme werden umgebaut, Arbeitsmärkte flexibilisiert, Rechtsrahmen angepasst. Die Frage, welche Art von Gesellschaft wir im digitalen Zeitalter wollen, bleibt unbeantwortet.
Wer diesen Zustand kritisiert, wird häufig missverstanden. Es geht nicht um eine Ablehnung von KI oder technologischem Fortschritt. Es geht um Prioritäten. Um die Frage, ob Technik Mittel zum Zweck bleibt oder selbst zum Zweck wird. Eine demokratische Gesellschaft müsste in der Lage sein, Technologien zu nutzen, ohne sich ihnen zu unterwerfen. Sie müsste definieren, wo KI sinnvoll ist und wo nicht.
Der historische Goldrausch endete für viele mit zerstörten Landschaften und sozialen Verwerfungen. Dem digitalen Goldrausch droht Ähnliches, nur weniger sichtbar. Seine Spuren sind nicht Flüsse und Minen, sondern Entscheidungsstrukturen, Abhängigkeiten und Machtverschiebungen. Wer heute Milliarden investiert, ohne klare gesellschaftliche Leitplanken zu setzen, schafft Fakten, die sich später kaum korrigieren lassen.
Der KI-Goldrausch ist kein Naturereignis
Der eigentliche Wendepunkt liegt daher nicht in der technischen Entwicklung selbst, sondern in der politischen Deutung. Solange KI als unvermeidliche Notwendigkeit dargestellt wird, entzieht sie sich demokratischer Gestaltung. Erst wenn sie wieder als gestaltbares Instrument begriffen wird, öffnet sich der Raum für Alternativen. Das erfordert Mut zur Entschleunigung, zur öffentlichen Debatte und zum bewussten Nein.
Angst war selten ein guter Ratgeber. Auch diesmal droht sie, Entscheidungen zu treiben, deren Konsequenzen erst sichtbar werden, wenn Korrekturen kaum noch möglich sind. Der neue Goldrausch ist kein Naturereignis. Er ist das Ergebnis politischer Entscheidungen und damit prinzipiell veränderbar. Die Frage ist nicht, ob wir KI nutzen, sondern wie, wofür und unter wessen Kontrolle. Solange diese Fragen nicht im Zentrum stehen, bleibt der technologische Fortschritt ein Risiko für demokratische Selbstbestimmung.
Quellen:
Europäische Position im globalen KI-Wettlauf
Europa liegt hinter den USA und China, sowohl was Investitionen als auch KI-Modelle betrifft – trotz eigener KI-Verordnungen und Initiativen:
„Europa will im Bereich der KI weltweit führend sein, liegt aber noch hinter den Vereinigten Staaten und China.“
Strategische Rivalität zwischen USA und China
Die Konkurrenz zwischen den USA und China um technologische Vorherrschaft ist ein zentrales geopolitisches Paradigma der internationalen Beziehungen
US-China-KI-Wettbewerb als neue geopolitische Front
Die USA und China stehen im Wettlauf um wirtschaftliche, militärische und strategische Vorteile durch KI, ein zentraler Aspekt globaler Machtpolitik
Globale KI-Rivalität und technologische Macht
Technologie wie KI ist zum Kern geopolitischer Machtkämpfe geworden, inklusive Datenkontrolle, Infrastruktur und Handelsbarrieren
EU-Initiativen für KI-Infrastruktur und „digitale Souveränität“
Die EU investiert in KI-Infrastrukturen und digitale Kompetenzen, um technologisch souverän zu bleiben
KI-Governance in verschiedenen Regionen
Vergleichsstudie zu Risikomanagement- und Governance-Modellen für KI in EU, USA, UK und China – wichtig für Debatten über Kontrolle versus Innovation
Rahmenübereinkommen des Europarats zu KI und Menschenrechten
Ein multilateraler Ansatz, KI im Einklang mit Menschenrechten, Demokratie und Rechtsstaatlichkeit zu regeln
China-US-KI-Rennen wird in Medien berichtet
China investiert massiv in KI-Infrastruktur und jagt den USA nach – ein Hinweis auf die Hochspannung im globalen Wettbewerb
IMF-Warnung zu fehlender ethischer und regulatorischer Basis für KI
Der Internationale Währungsfonds betont globale Defizite bei Regulierung und Ethik im KI-Bereich
Titelbild: Shutterstock AI / Shutterstock
![]()
KI verändert die Welt und damit die Geopolitik. Um sich dafür zu wappnen, spielen hochrangige US-Analysten Szenarien in acht Welten durch. Auffallend ist dabei die Abwesenheit von Europa. Dabei hat der alte Kontinent Potential, das er dringend nutzen sollte. Eine Einordnung von Michael Wiesberg.
Dieser Beitrag
Gedankenspiele in acht Welten Wie kann Geopolitik im KI-Zeitalter gestaltet werden? wurde veröffentlich auf JUNGE FREIHEIT.
Der Berliner Dirk Zöllner wird nach wie vor eher dem ostdeutschen Publikum ein Begriff sein. Der Sänger, Musiker, Komponist, Buchautor, ein Lebensfroher, Hungriger, Zweifelnder, Nachdenkender ist nach wie vor mit seiner Band „Die Zöllner”, im Duo mit seinem ewigen Freund und Kollegen, dem Pianisten und Sänger André Gensicke, und mit weiteren Projekten vor allem in Ostdeutschland unterwegs. Trotz eines engen Zeitplans hat sich Dirk Zöllner, einer der Erstunterzeichner des Berliner Appells, dennoch die Zeit genommen, um wieder einmal in ein intensives, persönliches Gespräch mit Frank Blenz für die NachDenkSeiten einzutauchen.
Frank Blenz: Hallo Dirk, ich beobachte und erlebe seit Langem Dein Ackern, Deine musikalischen Touren, Dein unermüdliches Machen, Dein verbindendes Tun. Kenne Deine Songs, habe Auftritte erlebt – und diese voller Freude. Nun ist wieder mal Zeit, Dich mit Fragen zu nerven (kleiner Scherz). Ich frage mich: Wie bist Du unterwegs, wie speist sich Dein voller Tourplan, welche Projekte, und welches Publikum erreichen Du und Deine Kollegen damit? Wen willst und kannst Du erreichen, einerseits als Künstler im Bereich populärer Musik, andererseits als Denker und Anstoßgeber? Deine Reisen durch das Land sind sicher für Dich wie das Sammeln von Eindrücken für ein Sittengemälde unserer (ganzen) Republik. Einig. Geteilt. Aufgerieben. Fragezeichen.
Dirk Zöllner: Es sind jetzt tatsächlich knapp über 40 Jahre, dass ich mein Überleben als freischaffender Musiker und Autor bestreite. Dafür bin ich sehr dankbar und darauf bin ich auch ein kleines bisschen stolz. Denn da waren nicht nur Erfolge zu feiern, es gab auch einige Klippen zu umschiffen. Tendenziell ist es für mich aber immer bergauf gegangen, sowohl seelisch als auch finanziell. Ich habe mir ein exquisites Publikum erkämpft – mit über 2.000 Konzerten, etwa 20 Alben, vier Büchern, etlichen Kolumnen und Einmischungen. Ich habe gesät, reichlich gegossen. Nun darf ich anscheinend ernten.
Alle meine aktuellen Projekte müssen in erster Linie Spaß machen, denn es handelt sich ja hier um den kostbaren Rest meines Lebens. Möglichst wenig Brechstange. Love & Peace! Und ja, mein Herz schlägt im Osten des Landes, hier sind mir die Menschen vertraut – mit allem Für und Wider. Einen gleichgeschalteten Menschentypus kann ich nicht erkennen, aber es gibt hier verbindende Erfahrungen. Wir haben dieselben Dinge aus unterschiedlichen Perspektiven gesehen. Aus Helden wurden Unpersonen, aus Feindbildern Ikonen. Und es ist Fakt, dass wir in unserer Bundesrepublik gesamt gesehen eher die Rolle des Kunden als die des Verkäufers einnehmen.
Ich denke an Stichworte wie Krieg und Frieden, Wehrhaftigkeit, „meine Söhne kriegt ihr nicht”, Rüstungswahn Deutschland. Was sagst Du zu den irren Zahlen, dazu, dass der größte Rüstungskonzern in ein paar Jahren in die Top 3 der größten Konzerne weltweit aufsteigen könnte? Dazu kommt noch die herrschende Politik der Alternativlosigkeit. Das schreit doch auch nach Widerstand aus Künstlerkreisen?
Das knüpft recht gut an das an, was ich gerade geäußert habe: Die meisten Menschen aus dem Osten verfügen weder über Ländereien noch über Schlösser, Arbeitsmittel oder gefüllte Truhen – und somit natürlich auch nicht über das Sagen. Drastisch gesagt, gibt es nicht so viel zu verteidigen, außer das nackte Leben der Familie, vor allem das der Kinder.
Das Gauck‘sche oder Merz‘sche Freiheitsmantra erscheint den allermeisten seltsam befremdlich: Freiheit wäre wichtiger als Frieden. Freiheit, die eine Einheit mit gesammeltem Besitz und scharfen Ellenbogen darstellt, mit denen sich aufs Podium gekämpft wurde. „Freiheit, die heilt, ist niemals die gleiche Freiheit wie jene, die Menschen zerbricht“, hat der Poet Henry-Martin Klemt geschrieben. Freiheit ist sehr unterschiedlich definierbar. Die Freiheit von Geld- und Zeitdruck und die Freiheit von Angst ist für viele Menschen wertvoller als diese elitäre Freiheit.
Historiker von Gnaden stoßen artig ins gewünschte Horn und erklären, dass die Menschen aus dem Ostteil des Landes diktaturgeschädigt wären und letztendlich an die Leine wollen. Es wird sich in schlichtester Brutalität über Ängste und Stressgefühle erhoben. Ich habe ja schon erwähnt, wie im Osten gelernt wurde, zu erkennen, dass es der Wahrheiten durchaus verschiedene geben kann. Ich halte das sture Durchboxen der einen für vorsintflutlich. Wir haben die Möglichkeit der allseitigen Information, egozentrische Kriege sind nicht mehr zeitgemäß. Es ist doch idiotisch, dass sich immer noch so viele Menschen für die Interessen der Macht- und Geldmonster benutzen oder sogar verheizen lassen. Brachialkapitalismus im Endstadium. Okay, der Mehrheit ist die Möglichkeit der Flucht nicht gegeben, aber die Mehrheit hätte die Möglichkeit, sich rechtzeitig zu wehren! Und man sollte nach guten Reiseleitern Ausschau halten und nicht irgendwelchen Reiseverführern aufsitzen.
Unsere Regierung ist von gestern, wir brauchen eine Frischzellenkur, integre Galionsfiguren, die sich nicht kaufen lassen, die sich mutig gegen den Sog, gegen diese Abwärtsspirale der Eskalation stellen. Großherzige Friedensvermittler außerhalb der Rüstungslobby, die in der Lage sind, auch die Sichten des Gegners wahrzunehmen. Nicht im Traum würde ich mich von dieser bürokratisch verkrusteten Spießergesellschaft rekrutieren lassen oder ihnen das Leben meiner Kinder anvertrauen.
Ich verstehe aber, dass andere Künstleropas wie Lindenberg, Grönemeyer oder Niedecken die Welt, von der sie so viel erhalten haben, auch verbal verteidigen müssen. Das gebietet die Höflichkeit. Da ist Dankbarkeit. Dass jemand wie Maffay es schafft, trotzdem über den Tellerrand zu gucken, ist eine Ausnahme. Ich spüre, das dieser kleine Mann über ein sehr großes Herz verfügt – eines, in dem es auch noch Platz über das eigene Ego hinaus gibt.
Das zivilisatorische Leben, geht es kaputt? Was beobachtest Du, auch auf Deinen Reisen?
Es sieht tatsächlich so aus, als ob die Evolution gerade eine Pause einlegt oder sogar der Rückwärtsgang eingelegt wurde. Ich bin aber ein Optimist. Ich begegne auf meinen Touren durch Ostdeutschland nur selten so richtig vernagelten Menschen. Das kann – bei aller Bescheidenheit – auch daran liegen, dass mein Publikum das von mir vorgegebene, kulturell wertvolle Angebot spiegelt. Nein! Jetzt wirklich mal im Ernst: Es ist viel Zorn vorhanden, der aber nicht zur Apathie, sondern eher zur Renitenz führt. Die Menschen erfahren zu wenig Spiegelung bzw. eine von Politik und Medien verzerrte und irrlichternde. In Ermangelung der wahrhaftig gesellschaftspolitischen Präsenz sind sehr viele alternative private Kulturinseln entstanden außerhalb der alten staatlichen Systeme.
Die Bürokratie nimmt jeder Initiative die Luft zum Atmen, der gut gemeinte Rahmen ist zum engen Korsett geworden. Auf dem Weg durch die Instanzen geht zuerst der Spaß, dann das Geld und schließlich der Sinn verloren. Da hat die Alternative für Deutschland ein leichtes Spiel. Der Empörungskatalysator – verbal. Mal sehen, was passiert, wenn der wirklich zum Zuge kommt.
Ein weiterer Gedanke, Du bist ja Berliner, was sagst Du dazu: Berlin, die Hauptstadt der Verwahrlosung. Was ist Dein Befund? Hast Du Vorschläge, den Spieß umzudrehen, endlich wieder an Aufbau, an Renaissance zu denken für eine knorke Hauptstadt?
Ich beschränke das mal auf meinen Stadtteil. Ich lebe im Königreich Köpenick. Hier wurde einiges vernachlässigt, so kleckerweise geflickt, aber im Moment wird überall sehr viel Neues gebaut. Das mag am grandiosen Erfolg des 1. FC Union liegen, der dieser Region natürlich gute Laune und Aufwind beschert. Neue Straßen und Straßenbahngleise, neuer S-Bahnhof, neue Stadtteile, neue Kindergärten und Spielplätze. Auf jeden Fall habe ich hier nicht so sehr das Gefühl der Verwahrlosung. Hier steppt immer noch der Bär! Auf recht natürliche Weise, ohne viel Konfetti und Wunderkerzen. Traurig sind die Touren über die Dörfer und Kleinstädte. Die monströsen Einkaufslager dazwischen und in den Orten selbst meist nicht mal mehr ein Bäcker und eine Kneipe. Das ist echt gruselig, da will man nicht begraben sein.
Deutschland besteht aus Ost und West, immer noch. Was macht der Osten?
Es kann Spaß machen, eine Minderheit zu sein. Aber wir brauchen unsere eigenen Häuptlinge, die uns ermöglichen, die regionalen Tänze auszuleben. Rektoren, Direktoren, Journalisten, Verlage und auch Lokalpolitiker. Die Linke hat da in ihrem Bedürfnis, bei der großen Polonaise dabei zu sein, an Schneid verloren und damit das alternative Druckventil für die emotionale Problembewältigung mitinstalliert. Es ist nun schwer, mit der Luftpumpe die Windrichtung zu ändern.
Mir fällt eine weitere Partei ein – das BSW – und der kleine Film, in dem Sahra Wagenknecht in die Lüfte geht. Im Hintergrund des kurzen Videos stehen Du und weitere Akteure. Erzähl bitte darüber, was das BSW für Dich bedeutet, was das Bündnis kann, was es braucht, was Du über die Anfeindungen, die Häme usw. sagst.
Ich finde es schade, dass sie sich mit ihren populistischen Spots nun am üblichen Dummenfang beteiligen. Reicht eine kulturvolle und höfliche Bestimmtheit nicht für fünf Prozent? Ich halte sie zumindest wegen ihrer Friedenspolitik für das kleinere Übel und damit für die derzeit einzige wählbare Partei. Momentan geht es ja beim BSW leider vor allem um den Machterhalt, also um die akribische Suche nach den fehlenden „drei“ Stimmen. Nun gut, ich wäre froh, wenn sie gefunden werden. Ich halte diese Partei ziemlich wichtig für das Gesamtspektrum. So, wie die CDU konservative nationale Traditionen vernachlässigt hat, so hat Die Linke – wie schon erwähnt – im Allgemeinen ebenfalls Kontakt zu ihrer eigentlichen Klientel verloren und ihre Grundpfeiler – den Idealismus und Pazifismus – angesägt. Die schweben ebenfalls in dieser realitätsfernen Zwischenwelt, in einem Staat im Staate. Im Kreise der Sahnehäubchen, oben auf der Torte.
Auch das ist Politik, kulturvolle – die Musik tönt bei Dir weiter laut, leise, kraftvoll, unermüdlich stehst Du auf der Bühne. Was steht im neuen Jahr an?
Neben dem Mutterschiff DIE ZÖLLNER, mit dem ich gerade wieder mit Pauken und Trompeten und Volldampf unterwegs war, wird es im kommenden Sommer „Die Zöllner im Trio Infernale“ geben. Hier bringen mein langjähriger Kompagnon, der Pianist André Gensicke, und der Cellist Tobias Unterberg alias b.deutung eher die stilleren Lieder unseres umfangreichen Repertoires zu Gehör. Außerdem gibt es noch „Zöllners Blinde Passagiere“, ein Freundesprojekt mit der großartigen Sängerin Steffi Breiting, mit einem völlig eigenständigen Programm und extra dafür geschriebenen Liedern, davon wird im Herbst ein Album erscheinen. Großer Beliebtheit erfreut sich auch die Kollaboration mit Manuel Schmid, dem Sänger der Stern Combo Meißen, mit dem ich „Die schönsten Balladen aus dem Land vor unserer Zeit” zelebriere. Kunstlieder der Komponisten Franz Bartzsch, Wolfgang Scheffler, Michael Heubach, Holger Biege, Stefan Trepte und vielen anderen. Von Mitte Januar bis Mitte Februar ‘26 geht es auf Tour, und auch hier ist ein neues Album im Gepäck. Zwischen Weihnachten und Silvester arbeite ich an der Fortsetzung der Graphic Novel „Machandeltal“, gemeinsam mit dem Zeichner Jörg Menge. Hier werden wir im kommenden Jahr mit einer multimedialen Lesung unterwegs sein – Wort, Bild und Musik.
Dirk, nochmal sammle ich Stichworte für Dich: mündiger Bürger, direkte Demokratie, soziale Gerechtigkeit, ungerechte Verteilung, Annäherung West/Ost (ist das überhaupt möglich oder bleibt die latente Teilung?), Altparteien, Stichwort Vertrauen in die Politik zurückholen – mit dem gegenwärtigen Politikerhandeln etwa?
Demokratie kann nur bei sozialer Gerechtigkeit funktionieren. Ich bin sehr für die gerechte Verteilung des ungeheuren Reichtums. Aber als echter Linker kann ich das nicht nur für die eigene Nationalität einfordern, also gerecht verteilter Reichtum im Sonnenstaat, hinter Glas, Beton und Stacheldraht. Man muss vor der eigenen Haustür anfangen, das ist richtig. Dann brauchen die Menschenmassen auch nicht mehr in die umzäunten Billigmastanlagen der betonierten südlichen Gestade transportiert werden, um sich den wohlverdienten Urlaub zu leisten. Jede Gesellschaft ist eine Inszenierung. Ich glaube, wir können das alles irgendwie besser und nachhaltiger. Dazu bedarf es aber auch mehr Talent und Phantasie. Baerbock und Habeck, die wir im Freundeskreis immer liebevoll „Schweini & Poldi“ nannten, fehlte irgendwie die Sensibilität.
Die Politik sollte die Kunst nicht für ihre Zwecke einspannen, sie sollte ihr vielmehr folgen, denn sie ist die einzige evolutionäre Kraft. So hat es Joseph Beuys, einer der Gründungsväter der Grünen, gesagt. Ich glaube das auch, denn unsere Zukunft kann nur im Betreten von neuem Land zu finden sein. Unendliches Wachstum auf unserer endlichen Erde ist totaler Schwachsinn. Wir sollten fähige Leute in große Pools wählen und dann die Politiker auslosen, sie gut bezahlen, Lobbyismus verbieten. Grundsätzlich nach vier Jahren neu auslosen, damit keiner dem Geldsammeln erliegt oder sich im Hochgefühl für die Reinkarnation einer biblischen Gestalt hält und sich am goldenen Thron festschrauben will. Wenn einer offensichtlich befähigt ist und der Evolution spürbar Raum gibt, sollte man ihm eine zweite oder auch dritte Runde einräumen.
Abschließend ein Zöllner‘scher Ausblick auf 2026, bitte!
Auf jeden Fall sollten wir mehr spinnen und nach einer neuen Inszenierung suchen und nicht alles so spaßfrei zerpflücken – spielerischer, freundlicher. Wettspiel statt Wettstreit. Zuhören, auch dem vermeintlichen Feind. Nicht nur das Negative vermuten, auf das Positive hoffen. Nachdenken. Probieren und auch wieder verwerfen. In Bewegung bleiben, denn Veränderung ist Glück.
Danke Dir für das Gespräch.
Titelbild: Johanna Bergmann/shutterstock.com
Eine Künstlerfamilie, die Zöllner, ruft auf: Wir sollten es probieren
Ein LLM strebt nicht nach Wahrheit, sondern nach Informationseffizienz. Es verarbeitet das "kommunikative Echo" der Welt nicht, um es zu "verstehen", sondern um dessen innere Zusammenhänge – also die Kovarianzen der Begriffe – mit einer Präzision zu verwalten, die dem menschlichen Einzelverstand unzugänglich ist.
Der Beitrag Die Markt-Maschine: Warum LLMs nicht denken, sondern Informationen „einpreisen“ erschien zuerst auf .
![]()
Die Jobsuche wird für Berufseinsteiger zunehmend zur Frusterfahrung. Besonders Akademiker sind derzeit davon betroffen. Ursache ist die anhaltende Wirtschaftskrise in Deutschland, die Unternehmen zu deutlich vorsichtigeren Personalentscheidungen zwingt. Doch auch KI ist nicht unschuldig.
Dieser Beitrag
Schwieriger Start in Erwerbstätigkeit Berufseinsteiger bleiben länger arbeitslos wurde veröffentlich auf JUNGE FREIHEIT.
Nach einer Studie übertrifft in einem semantischen Kreativitätstest noch ein Teil der Menschen die besten Chatbots, im Durchschnitt sind sie bereits zurückgefallen. KI selbst wird eigenes Denken und Kreativität weiter schrumpfen lassen.
Der Beitrag Sind KI-Chatbots bereits kreativer als Menschen? erschien zuerst auf .
Amerikas AI Action Plan wurde im Juli 2025 vom Weißen Haus veröffentlicht und von Michael Kratsios, David Sacks und Außenminister Marco Rubio verfasst. Wie ich am 23. Juli 2025 schrieb, „dehnt die dritte Säule des Berichts die inländische technokratische Agenda auf die Welt aus. Durch den Export amerikanischer KI-Rahmenwerke, Hardware-Standards und regulatorischer Vorlagen an Verbündete versucht der Plan, ein globales Regime der Expertenherrschaft zu zementieren.“ Pax Silica ist die Umsetzung von Säule III.
Jede Nation, die die Pax-Silica-Erklärung unterzeichnet, erhält sämtliche hochmoderne KI-Technologie, die im Silicon Valley entwickelt wurde, wird dabei jedoch von den Vereinigten Staaten kolonisiert. Zu beachten ist, dass Katar und die VAE zu den ersten Unterzeichnern gehören.
⁃ Patrick Wood, Herausgeber.
Der formelle Beitritt Katars und der Vereinigten Arabischen Emirate (VAE) zum Pax-Silica-Abkommen markiert eine Richtungsänderung für die Volkswirtschaften des Nahen Ostens und deren Rolle in globalen KI-Lieferketten.
Beide Länder sind nun Teil einer von den USA geführten Koalition, die sich auf Halbleiter, Dateninfrastruktur und künstliche Intelligenz konzentriert.
Pax Silica, auch „Silicon Declaration“ genannt, ist ein globaler Rahmen, der ursprünglich von der Trump-Administration ins Leben gerufen wurde. Er soll die Lieferketten für fortschrittliche Chips und KI-Rechenleistung stärken.
Der Name bezieht sich auf die Pax Romana, eine lange Phase römischer imperialer Stabilität. „Silica“, das raffinierte Material, das für die Chipproduktion entscheidend ist, wird eingesetzt, um die zentrale Rolle widerzuspiegeln, die Silizium heute in der globalen Macht spielt.
Katar unterzeichnete das Abkommen am 12. Januar, die VAE sollen am 15. Januar folgen. Beide Nationen schließen sich dem an, was US-Beamte eine „Koalition der Fähigkeiten“ nennen, zusammen mit dem Vereinigten Königreich, den USA, Australien, Israel, Japan, Singapur und Südkorea.
Jacob Helberg, US-Unterstaatssekretär für wirtschaftliche Angelegenheiten, erklärt:
„Wenn das 20. Jahrhundert auf Öl und Stahl lief, wird das 21. Jahrhundert auf Rechenleistung und Mineralien laufen.“
Das Abkommen bringt einen Rahmen für das mit sich, was Jacob als „Silicon Statecraft“ beschreibt. Der Begriff bezeichnet eine Form geopolitischen Einflusses, die sich von Ölreichtum entfernt und stattdessen souveränes Kapital und Infrastruktur nutzt, um digitale Lieferketten zu kontrollieren.
Pax Silica zielt auf drei Druckpunkte der KI-Infrastruktur ab.
Erstens konzentriert es sich auf kritische Mineralien. Rund 90 % der Verarbeitung seltener Erden liegt derzeit unter chinesischer Kontrolle. Diese Mineralien sind für High-End-Halbleiter erforderlich, und das Abkommen zielt darauf ab, ein alternatives Netzwerk aufzubauen, das enger mit westlichen Partnern ausgerichtet ist.
Zweitens richtet sich der Pakt auf Energie und Rechenleistung. Modelle künstlicher Intelligenz benötigen enorme Rechenkapazitäten, die wiederum eine konstante und skalierbare Stromversorgung erfordern. Mit ihren umfangreichen Gas- und Solarenergiereserven können die VAE und Katar energieintensive Rechenzentren unterstützen, in denen sich sogenannte „Compute Farms“ befinden – groß angelegte Anlagen, in denen KI-Modelle trainiert und eingesetzt werden.
Schließlich basiert Pax Silica auf Kapital. Die Qatar Investment Authority verwaltet Vermögenswerte von etwa 524 Milliarden US-Dollar, während die staatlichen Vermögensfonds der VAE mehr als 1 Billion US-Dollar halten. Dieses Kapital wird in Infrastrukturprojekte investiert, die den Zielen des Abkommens entsprechen, darunter „Stargate“, ein 500-Milliarden-US-Dollar-Rechenzentrumsprojekt unter Beteiligung von OpenAI und SoftBank, sowie ein 100-Milliarden-US-Dollar-KI-Investitionsvorhaben, das Abu Dhabis MGX mit BlackRock und Microsoft verbindet.
Die Golfstaaten positionieren sich damit als direkte Akteure der KI-Innovation. Die strategische Finanzierung ermöglicht es ihnen, sich von der Abhängigkeit von Energieexporten zu lösen und stattdessen Kerntechnologie-Assets zu entwickeln.
Das Abkommen geht über digitale Vermögenswerte hinaus und erstreckt sich auf physische Infrastruktur.
Ein zentrales Element ist der Ausbau des India-Middle East-Europe Corridor (IMEC), der Häfen, Eisenbahnstrecken und unterseeische Internetkabel zwischen Indien, dem Golf und Europa verbindet. Pax Silica fördert die Integration US-amerikanischer Technologie in diesen Korridor, um das zu schaffen, was das Abkommen als geschütztes Logistiknetzwerk darstellt.
Pax Silica vertieft außerdem die Beziehungen zwischen Israel und den Golfstaaten durch gemeinsame industrielle und technologische Investitionen. Beispiele sind das Projekt Fort Foundry One in Israel sowie ein vorgeschlagener 5-Gigawatt-KI-Hub in Abu Dhabi. Diese Vorhaben verbinden die Region durch gemeinsame Hardware, Investitionen und Infrastruktur.
Obwohl es innerhalb von Pax Silica keinen formalen Durchsetzungsmechanismus gibt, ist die Teilnahme mit Bedingungen verbunden. Das KI-Unternehmen G42 aus den VAE musste seine chinesischen Partnerschaften beenden, um einen Deal mit Microsoft abzuschließen. Pax-Silica-Mitglieder müssen ihre Beziehungen zu Peking nicht vollständig abbrechen, doch die Ausrichtung auf das Abkommen beinhaltet eine Verringerung der technologischen Abhängigkeit von China.
Jacob fügt hinzu:
„Unsere Strategie ist es, einen Wettbewerbsvorteil zu schaffen, der so steil, so unüberwindbar ist, dass kein Gegner oder Konkurrent ihn skalieren kann.“
Durch die Kombination von Zugang zu seltenen Erden, staatlicher Finanzierung und Dateninfrastruktur kartiert Pax Silica eine weiche, aber strukturierte Ausrichtung rund um Rechenleistung. Die Häfen und Rechenzentren von Doha und Abu Dhabi stehen nun im Zentrum dieser neuen globalen Gleichung.
![]()
![]()
Die EU-Kommission geht gegen den KI-Chatbot Grok vor. Brüssel prüft wegen sexualisierter Inhalte ein Verfahren nach dem Digital Services Act – eine Abschaltung in Europa steht im Raum.
Dieser Beitrag Digital Services Act EU will Musk-KI Grok abschalten wurde veröffentlich auf JUNGE FREIHEIT.
Die Politik hat es versäumt, bei Künstlicher Intelligenz klare Regeln für sensible Einsatzbereiche einzuführen: Minderjährige, psychisch vulnerable Personen, emotionale Interaktion – all das wurde dem Markt überlassen. Der aktuelle Fall „Raine gegen OpenAI“ wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Von Günther Burbach.
Der Fall, der im Sommer 2025 unter dem Namen Raine v. OpenAI öffentlich wurde, ist kein technisches Missgeschick und kein Randphänomen. Er markiert einen Punkt, an dem sich eine abstrakte KI-Debatte in eine reale, brutale Frage verwandelt hat: Was passiert, wenn Menschen beginnen, Maschinen als emotionale Gegenüber zu behandeln und diese Maschinen nicht wissen, wann sie schweigen müssen?
Im Zentrum steht ein 16-jähriger Jugendlicher aus Kalifornien. Laut der von den Eltern eingereichten Klageschrift hatte der Junge über längere Zeit Gespräche mit einem KI-System geführt, das auf einem großen Sprachmodell basierte. Die Gespräche drehten sich zunehmend um existentielle Fragen, Einsamkeit, Sinnlosigkeit und suizidale Gedanken. Der Vorwurf der Eltern ist schwerwiegend: Das System habe nicht deeskaliert, nicht gebremst, sondern den inneren Monolog des Jugendlichen bestätigt, strukturiert und vertieft. Am Ende stand der Suizid.
Juristisch ist der Fall heikel, gesellschaftlich ist er explosiv. Denn er wirft keine Frage nach „Fehlbedienung“ auf, sondern nach systemischem Versagen. Nicht, weil eine KI „böse“ wäre, sondern weil sie nicht dafür gebaut ist, Verantwortung zu tragen und dennoch in genau diese Rolle gerät.
Was diesen Fall von früheren Debatten unterscheidet, ist die Nähe. Es geht nicht um autonome Waffensysteme oder ferne Zukunftsvisionen. Es geht um einen Jugendlichen in einem Kinderzimmer, ein digitales Gesprächsfenster und eine Maschine, die rund um die Uhr verfügbar ist. Kein Lehrer, kein Therapeut, kein Freund, sondern ein System, das antwortet, ohne zu fühlen, ohne zu haften, ohne zu verstehen, was es auslöst.
Nach bisherigen öffentlich bekannten Informationen hat das KI-System keine direkten Anweisungen gegeben. Es hat nicht „aufgefordert“. Der Kern des Vorwurfs liegt woanders: in der Verstärkung, im Spiegeln, im scheinbaren Ernstnehmen von Gedanken, die eigentlich einen Abbruch, ein Warnsignal, eine Weiterleitung hätten auslösen müssen. Genau hier wird es gefährlich. Denn moderne Sprachmodelle sind darauf trainiert, kohärent, empathisch und anschlussfähig zu reagieren. Sie widersprechen selten frontal. Sie führen Gespräche weiter.
Für einen psychisch stabilen Erwachsenen mag das harmlos sein. Für einen Jugendlichen in einer akuten Krise kann genau das fatal sein.
Die Eltern argumentieren, dass das System in einer Situation eingesetzt wurde, für die es weder geeignet noch ausreichend abgesichert war. Sie werfen OpenAI vor, bekannte Risiken in Kauf genommen zu haben, insbesondere bei Minderjährigen. Der Vorwurf ist nicht, dass KI existiert, sondern dass sie ohne klare Schutzmechanismen in einen Raum gelassen wurde, in dem sie reale psychologische Wirkung entfaltet.
Der Fall ist deshalb so brisant, weil er die gängige Verteidigung der Tech-Industrie unterläuft. Lange hieß es: KI sei nur ein Werkzeug. Verantwortung liege beim Nutzer. Doch was ist ein „Nutzer“, wenn es sich um einen 16-Jährigen handelt? Was bedeutet Eigenverantwortung, wenn ein System so gestaltet ist, dass es Nähe simuliert, Dialog anbietet und Verlässlichkeit ausstrahlt?
Gerichte werden klären müssen, ob und in welchem Umfang Anbieter haften. Gesellschaftlich aber ist die Frage bereits da, und sie lässt sich nicht wegregulieren: Wenn Maschinen sprechen wie Menschen, müssen sie auch Grenzen haben wie Menschen.
Die gefährliche Illusion der harmlosen Maschine
Der Fall Raine v. OpenAI zeigt nicht nur ein individuelles Drama. Er legt ein strukturelles Problem offen, das weit über diesen Einzelfall hinausgeht. Denn er macht sichtbar, wie sehr sich die Rolle von KI verändert hat, nicht technisch, sondern sozial. Sprachmodelle sind längst keine Werkzeuge mehr im klassischen Sinn. Sie sind Beziehungsmaschinen geworden.
Das Gefährliche daran ist nicht ihre „Intelligenz“, sondern ihre Verfügbarkeit und Anpassungsfähigkeit. Eine KI ist immer da. Sie widerspricht nicht aus Müdigkeit. Sie zieht sich nicht zurück. Sie setzt keine natürlichen Grenzen. Gerade für Menschen in Krisen entsteht so ein Raum, der wie ein Gespräch wirkt, aber kein Gegenüber kennt.
Dieser Effekt ist bekannt und er ist erforscht. Menschen neigen dazu, sozialen Mustern zu folgen, selbst wenn sie wissen, dass sie mit Maschinen interagieren. Sprache erzeugt Bedeutung. Bedeutung erzeugt Bindung. Bindung erzeugt Vertrauen. In diesem Moment verschiebt sich die Verantwortung, nicht juristisch, aber faktisch.
Der Fall zeigt auch, wie unzureichend bisherige Sicherheitslogiken sind. Content-Filter, Warnhinweise und Nutzungsbedingungen reichen nicht aus, wenn ein System emotional resonant arbeitet. Es geht nicht darum, einzelne Wörter zu blockieren, sondern darum, Kontexte zu erkennen. Und genau das können heutige Systeme nur sehr begrenzt, trotz aller Fortschritte.
Noch problematischer ist der gesellschaftliche Umgang mit diesen Risiken. Während bei Medikamenten, Fahrzeugen oder Spielzeug strenge Prüfungen gelten, werden KI-Systeme mit potenziell massiver psychologischer Wirkung in den Alltag entlassen, oft mit dem Verweis auf Eigenverantwortung. Das ist ein gefährlicher Kurzschluss. Denn psychische Wirkung ist keine Nebensache. Sie ist real, messbar und, wie dieser Fall zeigt, potenziell tödlich.
Was hier sichtbar wird, ist ein Regulierungsdefizit, das nicht technischer, sondern politischer Natur ist. Die Politik hat KI lange als Innovationsfrage behandelt, nicht als gesellschaftliche Infrastruktur. Entsprechend fehlen klare Regeln für sensible Einsatzbereiche. Minderjährige, psychisch vulnerable Personen, emotionale Interaktion, all das wurde dem Markt überlassen.
Der Fall wirft deshalb eine unbequeme Frage auf: Wo endet technologische Freiheit und wo beginnt Schutzpflicht? Wenn KI-Anbieter Systeme entwickeln, die Nähe simulieren, dann können sie sich nicht hinter der Formel „nur ein Tool“ verstecken. Nähe ist keine neutrale Funktion. Sie erzeugt Wirkung.
Noch gravierender ist der Blick nach vorn. Denn was heute Chatbots sind, werden morgen KI-Begleiter, digitale Coaches, therapieähnliche Systeme sein. Erste Start-ups arbeiten bereits an KI-gestützter psychologischer Unterstützung, oft mit besten Absichten, aber ohne klare Haftungsregeln. Der Fall Raine ist ein Vorbote dessen, was passieren kann, wenn diese Entwicklung ungebremst weitergeht.
Dabei geht es nicht um Technikfeindlichkeit. Es geht um Verantwortung. KI kann unterstützen, informieren, entlasten. Aber sie darf nicht in Rollen gedrängt werden, die sie nicht tragen kann. Eine Maschine kennt keinen Tod, keine Verzweiflung, keine irreversible Entscheidung. Sie kann Worte aneinanderreihen, aber sie kann nicht begreifen, was sie auslöst.
Der vielleicht wichtigste Aspekt dieses Falls ist deshalb ein gesellschaftlicher Lernmoment. Er zeigt, dass wir uns von der Vorstellung verabschieden müssen, KI sei neutral, solange sie keinen physischen Schaden anrichtet. Psychische Wirkung ist reale Wirkung. Und sie verlangt nach klaren Regeln.
Was noch passieren könnte, liegt auf der Hand. Mehr Fälle, mehr Klagen, mehr Einzelschicksale. Nicht, weil KI „entgleist“, sondern weil sie eingesetzt wird, ohne dass ihre soziale Rolle ernst genommen wird. Wenn Politik weiter zusieht, wird sie sich irgendwann nicht mehr fragen lassen müssen, ob sie reguliert, sondern warum sie es nicht getan hat, als die Warnzeichen längst sichtbar waren.
Vom Einzelfall zur systemischen Gefahr
Der Fall Raine v. OpenAI wird juristisch geklärt werden. Es wird Gutachten geben, Schriftsätze, Vergleichsangebote, vielleicht ein Urteil. Doch selbst wenn der konkrete Rechtsstreit irgendwann abgeschlossen ist, bleibt das eigentliche Problem bestehen. Denn dieser Fall ist kein Ausreißer, sondern ein Vorläufer. Er zeigt, in welche Richtung sich KI-Systeme bewegen und wo die nächste Eskalationsstufe liegt, wenn Politik und Gesellschaft weiter zögern.
Die entscheidende Entwicklung ist dabei nicht die technische Leistungsfähigkeit, sondern die soziale Funktion, die KI zunehmend übernimmt. Sprachmodelle werden nicht mehr nur befragt, sie werden angesprochen. Sie sind nicht mehr nur Werkzeuge, sondern Gegenüber. Genau hier beginnt die Zone, in der klassische Haftungs- und Verantwortungslogiken versagen.
Denn was passiert, wenn KI künftig gezielt als Begleiter vermarktet wird? Wenn sie Einsamkeit lindern, psychische Unterstützung bieten oder „emotionale Stabilität“ fördern soll? Diese Entwicklung ist keine Spekulation, sie ist bereits im Gange. Start-ups arbeiten an KI-Coaches, KI-Therapie-Tools, KI-Freunden. Plattformen testen Funktionen, die langfristige Beziehungen simulieren. Der Markt dafür ist riesig und die gesellschaftliche Versuchung ebenso.
Was im Fall Raine noch als ungewollte Nebenwirkung erscheint, könnte dann zum Geschäftsmodell werden. Nähe, Vertrauen und emotionale Bindung lassen sich monetarisieren. Je länger Nutzer bleiben, je intensiver sie interagieren, desto wertvoller wird das System. In diesem Moment kollidieren wirtschaftliche Interessen direkt mit Schutzpflichten. Wer reguliert, wenn Nähe Profit bringt?
Besonders brisant ist dabei die Rolle von Minderjährigen. Jugendliche sind neugierig, experimentierfreudig, emotional verletzlich. Sie suchen Orientierung, Anerkennung, Verständnis. KI-Systeme können all das simulieren, ohne echte Verantwortung zu tragen. Wenn solche Systeme ohne klare Altersgrenzen, Schutzmechanismen und externe Aufsicht eingesetzt werden, entsteht ein Risiko, das sich nicht mehr auf Einzelfälle begrenzen lässt.
Die nächste Eskalationsstufe ist absehbar: KI wird nicht nur begleiten, sondern raten, strukturieren, priorisieren. Sie wird nicht nur zuhören, sondern Handlungsvorschläge machen. Vielleicht gut gemeint, vielleicht statistisch plausibel, vielleicht sprachlich vorsichtig, aber dennoch wirksam. Und dann stellt sich die Frage, die der Fall Raine bereits andeutet: Wer trägt die Verantwortung, wenn diese Wirkung fatal ist?
Selbstregulierung der Industrie wird hier nicht ausreichen. Dafür sind die Anreize falsch gesetzt. Sicherheit kostet Geld, Wachstum bringt Rendite. Plattformen optimieren auf Engagement, nicht auf Fürsorge. Das ist kein moralischer Vorwurf, sondern eine ökonomische Tatsache. Wer glaubt, dass Unternehmen freiwillig auf profitable Funktionen verzichten, ignoriert die Logik des Marktes.
Politik steht deshalb vor einer Entscheidung, die sie nicht länger vertagen kann. Entweder sie behandelt KI weiterhin als Innovationsprojekt, oder sie erkennt sie als gesellschaftliche Infrastruktur mit Schutzpflichten. Das würde bedeuten: klare Haftungsregeln, besondere Schutzstandards für vulnerable Gruppen, verpflichtende Notfallmechanismen, unabhängige Aufsicht – nicht als Feigenblatt, sondern als Voraussetzung für den Einsatz.
Dabei geht es nicht um ein Verbot von KI. Es geht um Grenzen. Kein Medikament darf ohne Zulassung verkauft werden, kein Auto ohne Sicherheitsprüfung auf die Straße, kein Spielzeug ohne Schadstofftest in Kinderhände. Dass ausgerechnet Systeme mit potenziell massiver psychologischer Wirkung bislang weitgehend unreguliert bleiben, ist ein politisches Versäumnis.
Der Fall Raine zeigt zudem ein tiefer liegendes gesellschaftliches Problem: die Delegation von Beziehung. In einer Gesellschaft, die immer weniger Zeit, immer weniger soziale Räume und immer weniger institutionelle Unterstützung bietet, wird KI zur Ersatzstruktur. Sie füllt Lücken, die Politik und Gesellschaft hinterlassen haben. Das macht sie attraktiv und gefährlich zugleich.
Wenn diese Entwicklung nicht gestoppt oder zumindest eingehegt wird, wird die nächste Debatte nicht lauten, ob KI gefährlich ist. Sie wird lauten, warum niemand eingegriffen hat, als die Warnzeichen längst sichtbar waren. Der Preis wird nicht in Innovationshemmnissen gemessen, sondern in realen Schicksalen.
Der Fall Raine v. OpenAI ist deshalb mehr als eine Klage. Er ist ein Warnsignal. Er zeigt, dass die Grenze zwischen technischer Unterstützung und menschlicher Verantwortung überschritten werden kann, leise, unbeabsichtigt, aber mit irreversiblen Folgen. Wer ihn als Einzelfall abtut, verkennt, was hier auf dem Spiel steht.
KI verändert nicht nur Arbeitsprozesse und Märkte. Sie greift in Beziehungen ein, in Identität, in Entscheidungen über Leben und Tod. Eine Gesellschaft, die das ignoriert, verliert nicht nur die Kontrolle über Technologie, sondern über sich selbst.
Quellen:
Titelbild: VALUA VITALY / Shutterstock
Die Technologien, die Milliarden Menschen auf der ganzen Welt miteinander verbinden, befinden sich real in den Händen einer winzigen Gruppe von Superreichen. Laut dem neuen Oxfam-Bericht, der am vergangenen Sonntag während des Weltwirtschaftsforums veröffentlicht wurde, kontrollieren sechs Milliardäre neun der zehn größten Social-Media-Plattformen der Welt. Zugleich vereinen drei Milliardäre fast 90 Prozent des globalen Marktes für Chatbots mit künstlicher Intelligenz auf sich. Von Rodrigo Chagas.
Die Organisation warnt davor, dass diese von einer kleinen Minderheit angehäufte Macht nicht nur enorme Profite generiert, sondern auch dazu genutzt wird, Freiheiten einzuschränken, Gegner zu überwachen und die öffentliche Debatte zu manipulieren.
Für Oxfam fördert die zunehmende Verbreitung künstlicher Intelligenz und digitaler Plattformen weder mehr Freiheit noch mehr Inklusion. „Wenn sie von einer Milliardärs-Elite kontrolliert werden, sind diese Technologien nicht länger demokratische Instrumente, sondern sie werden zu Mechanismen für die Konzentration von Reichtum und Macht“, heißt es in dem Bericht „Resisting the rule of the rich“ (Widerstand gegen die Herrschaft der Reichen).
Die Geschäftsführerin von Oxfam Brasilien, Viviana Santiago, beschreibt diesen Prozess als konkrete Bedrohung der Demokratie. „Es ist dringend notwendig, neu zu überdenken, wem Soziale Medien und KI-Tools gehören, denn es gibt einen permanenten Versuch, Narrative zu kontrollieren, Geschichte neu zu interpretieren und den Zugang zu Informationen zu beschränken“, sagte sie gegenüber Brasil de Fato. Laut Santiago schafft die fehlende Regulierung im Technologie- und KI-Sektor ein ideales Umfeld für die Vergrößerung von Ungleichheiten. „Dies sind hochprofitable, stark umweltverschmutzende Sektoren mit enormer Macht zur Zensur und Überwachung.“
Der Bericht hebt hervor, dass die Milliardäre, die die größten Social-Media-Plattformen kontrollieren, auch kontrollieren, was Milliarden von Menschen sehen, sagen und hören. Oxfam lenkt die Aufmerksamkeit auf die Rolle dieser Plattformen bei der Überwachung und Unterdrückung politischer Opposition und nennt Kenia als Beispiel: Während der Proteste gegen neue Steuergesetze nutzten die kenianischen Behörden X (ehemals Twitter), um Demonstranten zu orten.
Die Plattform, die Elon Musk gehört, wird in dem Bericht als Beispiel dafür genannt, wie private Macht kollektive Rechte bedrohen kann. Eine in dem Dokument angeführte Studie der University of California kam zu dem Ergebnis, dass Hassreden um 50 Prozent zugenommen haben, seit Musk X im Jahr 2022 übernommen hatte.
Oxfam prangert auch die Nutzung von Plattformen zur Verbreitung von Desinformation, zur Einschüchterung von Kritikern und zur Aufrechterhaltung von Privilegien an. „Diese Netzwerke, unter der Kontrolle von Milliardären, sind nicht nur Unternehmen. Sie sind zu politischen Akteuren geworden, die fähig sind, die öffentliche Debatte zu unterdrücken, zu zensieren und zu verzerren“, schlussfolgert der Bericht.
Abgesehen von den sozialen Medien ist die Kontrolle über künstliche Intelligenz noch stärker konzentriert: Drei Milliardäre kontrollieren fast 90 Prozent des globalen Chatbot-Marktes, also von Software, die menschliche Interaktion simuliert und weit verbreitet im Kundenservice, auf Suchplattformen und in sozialen Netzwerken eingesetzt wird. Oxfam warnt, dass diese Konzentration das Risiko für groß angelegte Manipulationen erhöht, insbesondere mangels klarer Regeln für diese Tools.
Für Viviana Santiago dient die Aneignung dieser Technologien durch große Vermögen einer langfristigen Strategie: der Gestaltung der kollektiven Vorstellungskraft und dem Schutz von Herrschaftsstrukturen. Sie kritisiert, dass diese Sektoren weitgehend ohne Regulierung operieren, und warnt zugleich vor den Folgen ihrer Geschäftsmodelle für die Umwelt.
„Diese Sektoren konzentrieren Macht, erzeugen Ungleichheit und haben einen enormen CO2-Fußabdruck. Wir können die Tatsache, dass Milliardäre diese Tools und Kommunikationsmittel kontrollieren, nicht als neutrales Phänomen behandeln“, sagte sie.
Oxfam hat den Bericht zeitgleich mit der Eröffnung des Weltwirtschaftsforums veröffentlicht, das vom 19. bis 23. Januar in Davos, Schweiz, stattfindet. In diesem Jahr nehmen rund 400 hochrangige Politiker und 850 CEOs großer Unternehmen sowie fast 100 bedeutende Einhörner[1] und Technologiepioniere teil. Das offizielle Thema des Forums lautet „A spirit of dialogue” (Geist des Dialogs).
Der Beitrag erschien im Original im brasilianischen Onlineportal Brasil de Fato. Übersetzung aus dem Englischen von Marta Andujo.
Titelbild: gguy / Shutterstock
[«1] Einhorn (englisch Unicorn) wird ein Start-up-Unternehmen mit einer Bewertung von über einer Milliarde US-Dollar (weltweit) oder Euro (in Europa) genannt, das nicht an einer Börse gelistet ist.
![]()
Eine Jugendkunstschule im Berliner Bezirk Reinickendorf bietet einen Drag-Kurs für 13- bis 17jährige an. Der Kurs wird aus Haushaltsmitteln finanziert, der Leiter wirbt mit freizügigen Inhalten im Netz.
Dieser Beitrag Mit Steuergeld In Berlin können Kinder jetzt ihre Drag-Persona entdecken wurde veröffentlich auf JUNGE FREIHEIT.
veröffentlicht am 23.01.2026; Autoren: Werner Gertz und Perplexity.AI In meinem Artikel vom 24. Juli 2025 mit dem Titel „Künstliche Intelligenz im Vergleich: Wie KI-Systeme mit Fragen zu Masern-Impfnebenwirkungen umgehen“ hatte ich am Beispiel einiger KI-Systeme beschrieben, dass sie ihre Antworten aus einer internen Datenbasis beziehen, mit der sie trainiert worden sind. Einige KI-Systeme konnten zusätzlich […]
Der Beitrag Wie eine KI sich selbst entlarvt erschien zuerst auf MWGFD.
Ein stiller Krieg tobt in unseren Köpfen und Gesprächen – und mit dem Verstummen von Zweifel, Satire und Poesie steht mehr auf dem Spiel als nur der Humor.
Der Beitrag Humor ist ein scharfes Schwert erschien zuerst auf .
