NEWS 23

🔒
❌
Stats
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere Beiträge

Googles AI Overviews sind zu 90 Prozent richtig. Ist das gut?

10. April 2026 um 16:30

Vorschau ansehen

Bei jährlich 5 Billionen Suchanfragen sind das stündlich Zigmillionen falsche Antworten, richtige Antworten sind oft im Hinblick auf ihre Quellen "unbegründet". Die meisten Menschen nehmen die Antworten dennoch unkritisch an. KI begünstigt kognitive Faulheit.

Der Beitrag Googles AI Overviews sind zu 90 Prozent richtig. Ist das gut? erschien zuerst auf .

(Auszug von RSS-Feed)

Dank des KI-Booms Samsung verachtfacht Gewinn

09. April 2026 um 13:06

Vorschau ansehen

Eine Besucherin des Mobile World Congress in Barcelona testet das neue Samsung Galaxy XR mixed reality headset.

Durch den anhaltenden KI-Boom verzeichnet Samsung beeindruckende Geschäftszahlen. Auch andere große Tech-Konzerne wie Microsoft und OpenAI treiben die Innovationsdynamik voran – im Gegensatz zur EU.

Dieser Beitrag JF-Plus Icon PremiumDank des KI-Booms Samsung verachtfacht Gewinn wurde veröffentlich auf JUNGE FREIHEIT.

(Auszug von RSS-Feed)

China setzt mit Maschinengewehren bewaffnete Roboterwölfe mit „kollektivem Gehirn“ ein (Video)

07. April 2026 um 05:33

Vorschau ansehen

Steve Watson

China hat erstmals Aufnahmen seiner „Roboterwölfe“ veröffentlicht, die in simulierten urbanen Gefechten vorrücken, bewaffnet mit Maschinengewehren und aufgerüstet für echte Schlachtfeld-Einsätze.

Das sind längst keine niedlichen Boston-Dynamics-Nachahmungen mehr – es sind im Rudel jagende Tötungsmaschinen, entwickelt von einem Institut mit engen Verbindungen zur Volksbefreiungsarmee, und sie werden von Tag zu Tag tödlicher.

Wie in einem viralen Beitrag mit über zwei Millionen Aufrufen zu sehen ist, zeigt das Material die Wölfe, die in koordinierten Schwärmen bei Straßenkampf-Übungen operieren.

First footage just dropped: China's robot wolves have been put through a simulated street battle.
You might remember their debut at China's V-Day parade last year. It seems that they are no longer a showpiece.

Here’s what’s new:
• Heavier loadouts: can be equipped with… pic.twitter.com/TUFtPTJ93a

— Sinical (@Sinical_C) March 27, 2026

Das System stammt vom Southwest Automation Institute. Die Entwickler bezeichnen es als „zu 100 % einheimisch entwickelt und zu 100 % im Inland produziert“. Eine nicht-militärische Version wird sogar für den zivilen Verkauf auf JD.com für 73.500 Dollar angeboten – wie nah diese jedoch am militärischen Modell der PLA liegt, bleibt unklar.

In einer eigenen Folgeanalyse räumt das Southwest Automation Institute sogar eine kontraintuitive Realität dieser neuen Kriegsführung ein: „Auf den Schlachtfeldern von morgen könnten Kriegsroboter nicht die ultimativen Tötungsmaschinen sein – sie könnten tatsächlich die Opferzahlen reduzieren. Sie ersparen menschlichen Truppen, Positionen direkt zu stürmen, und verlagern mehr Gefechte in den Bereich ‚Drohne gegen Roboter‘. Und anders als zwei Gruppen von Soldaten, die sich in brutalen Nahkämpfen gegenseitig aufreiben, wissen Truppen im Kampf gegen Roboter, dass die Maschinen nicht niedergerungen werden können. Eine Handvoll Roboter kann innerhalb von Minuten eine ganze Straße räumen und sichern. Der Kampf endet schnell, und beide Seiten bluten deutlich weniger.“

Doch der Beitrag fügt schnell eine beunruhigende Einschränkung hinzu: „Das echte Schlachtfeld ist weitaus komplexer als jede Übung. Die entscheidende Bewährungsprobe für diese Maschinenwölfe wird sein, ob sie zuverlässig zwischen eigenen Truppen und feindlichen Kräften unterscheiden können – und vor allem, ob sie Zivilisten erkennen, die plötzlich im Chaos auftauchen.“

Das ist das Alptraumszenario, auf das die KPCh hinarbeitet: Schwärme bewaffneter vierbeiniger Systeme mit einem gemeinsamen „kollektiven Gehirn“, die jagen, koordinieren und Ziele eliminieren können, ohne dass ein einziger chinesischer Soldat sein Leben riskiert.

Diese jüngste Demonstration baut direkt auf Entwicklungen auf, die wir bereits verfolgt haben.

Im vergangenen Sommer berichteten wir über die erste Vorstellung robotischer „Mordwölfe“ und Drohnen durch das chinesische Militär, die bereits die Drei Gesetze der Robotik von Asimov außer Kraft zu setzen schienen.

Im Februar berichteten wir dann über humanoide Roboter, die buchstäblich „Gehirne“ erhalten, während die Sorge vor Dual-Use-Technologien zunahm.

Wir haben russische Soldaten gesehen, die sich bewaffneten humanoiden Robotern ergeben.

Und sogar Kung-Fu-Roboter mit Nunchakus.

Das Muster ist unübersehbar: Autoritäre Regime investieren massiv in autonome Tötungssysteme, während westliche Führungskräfte über „Ethik“ und „Regulierung“ diskutieren. Chinas Roboterwölfe sind keine Science-Fiction – sie sind Gegenwart, und ihre Entwicklung beschleunigt sich weiter.

Peking baut im Stillen die mechanischen Vollstrecker eines zukünftigen Überwachungs- und Kontrollstaates auf.

Die freie Welt wurde gewarnt. Diese Roboterwölfe sind keine Showobjekte mehr. Sie trainieren für den Tag, an dem die KPCh ihr Modell digitalen Autoritarismus mit Gewalt exportieren will – und keine UN-Resolution und kein moralisches Signal von Konzernen wird eine Maschine stoppen, die keine Angst, keine Erschöpfung und kein Mitgefühl kennt.

(Auszug von RSS-Feed)

KI und K1

04. April 2026 um 13:31

Vorschau ansehen

Künstliche Intelligenz (KI) und ein Blick aufs „Kapital“ von Karl Marx, Band 1 (K1): Was ist eigentlich neu bei den technologischen Neuerungen?

Der Beitrag KI und K1 erschien zuerst auf .

(Auszug von RSS-Feed)

Netanjahus sechster Finger – wenn genaues Hinsehen zur Groteske wird

23. März 2026 um 13:44

Vorschau ansehen

Die israelische Regierung hatte vor einiger Zeit diverse Videos veröffentlicht, die beweisen sollten, dass der israelische Premier Benjamin Netanjahu am Leben ist – nachdem es Gerüchte um seinen Tod gegeben hatte. Um die Echtheit dieser Videos war eine Debatte mit grenzwertigen Zügen entstanden: Dabei wurde Medienkompetenz teils mit hysterischer Konzentration auf „Artefakte der Empörung“ (wie Netanjahus Kaffeetasse) verwechselt. Ein Kommentar von Detlef Koch.

Dieser Beitrag ist auch als Audio-Podcast verfügbar.

Die Gegenwart, so viel lässt sich sagen, erkennt staatspolitische Großereignisse inzwischen am liebsten an einer Hand. Am 12. März 2026 genügte ein Moment aus einer Pressekonferenz, ein Schatten, eine Falte, eine Unschärfe, und schon hielt das Netz seine Lupe über Benjamin Netanjahus Finger wie über eine Reliquie. „Sechs“, raunte es, oder fünf und ein halber Schatten. Und weil im Internet, seit es KI-Bilder gibt, jeder zusätzliche Finger als Corpus Delicti gilt, war der Sprung kurz: Sechs Finger, also KI; KI, also Doppelgänger; Doppelgänger, also tot. Das nennt man heute evidenzbasierte Recherche – früher hieß es Fieber. Aus einem einzelnen Standbild wurde in Stunden eine ganze Metaphysik der Misstrauensökonomie. Plattformen lieben solche Miniaturen des Wahns – ein roter Kreis, ein eingefrorener Frame, ein Raunen von „seht doch selbst“, und schon fühlt sich der halbe Planet wie die Soko für Bildpathologie.

Als Netanjahu sich dann erdreistete, am 15. März im Café aufzutauchen, gewissermaßen mit Espressotasse statt mit EKG, Schläuchen und Beatmungsgerät, hätten unsere „Chef-Forensiker“ für einen kurzen Moment aufatmen können: „Gut, also nicht tot, nicht verschwunden, nicht durch den KI-Zombie aus der Prompt-Hölle ersetzt worden.“

Reuters verifizierte Ort und Zeitpunkt des Videos; das Café selbst lieferte weiteres Material; die Sache war, gemessen an den Standards dieser Zeit, fast schon unanständig realistisch und doch war gerade dieser Augenblick der Beweis dafür, dass Desinformation nie widerlegt, sondern nur häutungsfähig ist. Kaum war das Café-Video da, mutierte das Gerücht sekundenschnell weiter: Auch das ein Deepfake, auch das nur Theater. Da transformiert sich auch schon mal der Kaffeeschaum zum Komplizen des Mullah-Regimes. Die große Stunde der Schlafschaf-Erwecker, jene Subspezies des Menschen, die mit der Miene eines Tatort-Forensikers den Schwappwinkel einer Tasse, die Biografie einer Schaumkrone und die metaphysische Aufrichtigkeit einer Kassenanzeige sezieren. Nichts schwappt! Der Füllstand sinkt nicht! Die Anzeige zeigt 2024! Der Schatten am Kinn ist suspekt! Man möchte diesen digitalen Kaffeesatzlesern eine Nachricht hinterlassen: Nicht jede schlechte Videoqualität ist ein Komplott, und nicht jede Unschärfe ein ontologischer Abgrund.

Aber die Plattformlogik belohnt keine Nüchternheit, sondern den Erregungsunternehmer, der aus Cappuccino-Physik mit Hilfe von Astrologie des 5G-Zeitalters eine Staatsaffäre destilliert. Dabei ist Netanjahu in dieser Farce nicht der tragische Held, der unter den Irren des Internets leidet. Er ist auch nicht ihr bemitleidenswertes Opfer. Er ist nur das düstere Gravitationszentrum, um den diese Groteske kreist. Hier spätestens kippt der Spaß ins Unheimliche. Während Millionen Sherlocks an Pixeln schnüffeln, als hinge das Weltgewissen an einem zusätzlichen Finger, steht im Hintergrund ein Politiker, über dessen Handeln nicht der Algorithmus urteilt, sondern Gerichte, Anklagen, Haftbefehle, Akten. Die eigentliche Monstrosität ist also nicht die Frage, ob ein Video echt ist. Es ist die moralische Verwahrlosung einer Öffentlichkeit, die den verpixelten Finger erotischer findet als die reale Spur von Zerstörung, Leid und Verantwortungslosigkeit in einer ethisch enthemmten Welt.

Mir stellt sich die Frage: „Berauscht sich diese Zeit an Pixeln, um die Blutspuren der Geschichte nicht sehen zu müssen oder wünscht sich ein digitaler Mob den Tod eines Kriegsverbrechers?“ In jedem Fall wird hier Medienkompetenz mit hysterischem Zoom auf Artefakte der Empörung wie eine Tasse Kaffee verwechselt. In dieser Zeit wird ein Screenshot wirkmächtiger als ein Beweisdokument und eine Kassenanzeige wird für aufregender gehalten als die Anklageschrift vor internationalen Gerichten. Der Schatten an einer Hand wird bedeutsamer als der Schatten, den entfesselte Macht auf unschuldige Menschen wirft. Das ist nicht nur der falsche Fokus. Es ist eine Form der sittlichen Verrohung, getarnt als aufklärerische Skepsis. Und darum bleibt von der ganzen Farce am Ende nicht der Lacher, sondern nur ein kalter Hauch der Verstörung.

Nicht die Frage, ob Netanjahu im Café echt war, verfolgt mich, sondern weshalb eine Epoche, die jeden Pixel misstrauisch abklopft, mit erstaunlicher Gelassenheit am Abgrund realer Politik vorbeisieht.

Titelbild: Screenshot/Bild.de

(Auszug von RSS-Feed)

Im Gespräch: Marco Pizzuti | Programmiertes Chaos

23. März 2026 um 05:41

Vorschau ansehen
Im Gespräch: Marco Pizzuti | Programmiertes Chaos
Im gespraech marco pizzuti apolut
0:00
/3295.020979
Im Gespräch: Marco Pizzuti | Programmiertes Chaos

Der ehemalige italienische Armeeoffizier Dr. Marco Pizzuti spricht in einer Tour d’Horizon über die Zustände in der Welt und vor allem darüber, wer für das Chaos verantwortlich ist und wie es herbeigeführt wurde. Pizzuti geht auf den aktuellen Krieg gegen den Iran und dessen Hintergründe ein, befasst sich mit 9/11, dem „war on terror“, der US-amerikanischen Hegemonialpolitik, dem „Great Reset und der Vierten Industriellen Revolution“, den digitalen Überwachungstechniken, der Corona-Operation, den Zielen der Transhumanisten und der völligen Unterwerfung der Politik unter die Vorgaben der globalen Finanzakteure. Nach Pizzuti hat der 3. Weltkrieg längst vor dem aktuellen Iran-Krieg begonnen.

Marco Pizzuti ist Doktor der Rechtswissenschaften, Lehrer, Essayist und Wissenschaftler. Er arbeitete an den renommiertesten Institutionen des italienischen Staates: in der Abgeordnetenkammer, im Senat der Republik und im Staatsrat. Dr. Pizzuti ist darüber hinaus Experte für die italienischen Geheimdienste und hat ca. 20 Bücher geschrieben. Die deutsche Übersetzung eines seiner neuesten Bücher wird vom Klarsichtverlag in Hamburg vorbereitet und soll im Herbst 2026 erscheinen.

Das Interview führte Ullrich Mies. Es ist zugleich ein kleines Experiment, da wir es in drei Sprachen, Italienisch, Englisch und Deutsch, führen.

(Auszug von RSS-Feed)

Wenn Maschinen töten lernen – über den schleichenden Übergang vom menschlichen zum automatisierten Krieg

21. März 2026 um 11:00

Vorschau ansehen

Der Krieg verändert sich. Nicht schlagartig, nicht mit einem klaren Bruch, sondern schleichend, fast unbemerkt. Während die öffentliche Aufmerksamkeit weiterhin auf Frontverläufe, Waffenlieferungen und geopolitische Strategien gerichtet ist, vollzieht sich im Hintergrund eine Entwicklung, die das Wesen militärischer Gewalt grundlegend infrage stellt. Es ist der Moment, in dem der Mensch beginnt, die Kontrolle über das unmittelbare Töten an Maschinen abzugeben. Von Günther Burbach.

Dieser Beitrag ist auch als Audio-Podcast verfügbar.

Der Krieg in der Ukraine gilt mittlerweile als ein solcher Wendepunkt. Was lange als Zukunftsszenario diskutiert wurde, ist dort zur Realität geworden. Künstliche Intelligenz, autonome Systeme und robotische Plattformen werden nicht mehr nur getestet, sondern im Gefecht eingesetzt. Die Ukraine ist damit nicht nur ein Schauplatz militärischer Auseinandersetzungen, sondern auch ein reales Versuchsfeld für eine neue Form der Kriegsführung.

Drohnen spielen in diesem Zusammenhang eine zentrale Rolle. Sie sind längst mehr als ferngesteuerte Fluggeräte. Moderne Systeme sind in der Lage, Zielstrukturen eigenständig zu erkennen, Bewegungen zu analysieren und Angriffe vorzubereiten. Künstliche Intelligenz hilft dabei, große Datenmengen auszuwerten und daraus Handlungsempfehlungen abzuleiten. In der Praxis bedeutet das: Die Maschine erkennt ein Ziel, bewertet dessen Relevanz und führt den Angriff unter Umständen auch dann fort, wenn die Verbindung zum menschlichen Operator unterbrochen ist.

Diese Entwicklung ist nicht hypothetisch. Sie ist dokumentiert. Berichte zeigen, dass KI-gestützte Systeme bereits eingesetzt werden, um Drohnen in ihrer Zielsuche zu unterstützen und ihre Treffgenauigkeit zu erhöhen. In einem Umfeld, in dem elektronische Störmaßnahmen zunehmen und Kommunikationsverbindungen instabil sind, wird diese Fähigkeit zu einem entscheidenden militärischen Vorteil. Der Preis dafür ist jedoch hoch: Mit jeder Entscheidung, die von der Maschine vorbereitet oder getroffen wird, entfernt sich der Mensch ein Stück weiter vom unmittelbaren Geschehen.

Noch deutlicher wird diese Verschiebung beim Einsatz sogenannter Bodenroboter. Diese Systeme bewegen sich eigenständig durch das Gelände, transportieren Material oder werden direkt bewaffnet eingesetzt. In einzelnen Fällen eröffnen sie selbstständig das Feuer auf identifizierte Ziele. Was früher ausschließlich Soldaten vorbehalten war, wird zunehmend von Maschinen übernommen. Die Distanz zwischen Entscheidung und Wirkung wächst. Derjenige, der den Befehl gibt, befindet sich oft nicht mehr im Gefechtsfeld, sondern in sicherer Entfernung, während die Maschine vor Ort agiert.

Hinzu kommt eine weitere Entwicklung, die den Charakter des Krieges verändert. Roboter und Drohnen werden miteinander vernetzt. Bodenfahrzeuge dienen als mobile Plattformen, von denen aus Drohnen gestartet werden können. Diese wiederum sammeln Daten, identifizieren Ziele und geben Informationen zurück an andere Systeme. Es entsteht ein Netzwerk, in dem Maschinen miteinander kommunizieren und Aufgaben koordinieren. Der Mensch ist Teil dieses Systems, aber nicht mehr dessen Zentrum.

Wer haftet?

Diese Form der Kriegsführung hat mehrere Konsequenzen. Zum einen erhöht sie die Geschwindigkeit militärischer Entscheidungen. Daten werden in Echtzeit verarbeitet, Ziele schneller identifiziert, Angriffe schneller ausgeführt. Zum anderen verändert sie die Wahrnehmung von Verantwortung. Wenn Entscheidungen zunehmend von Algorithmen vorbereitet werden, stellt sich die Frage, wer für Fehler haftet. Ist es der Programmierer, der die Software entwickelt hat? Der Kommandeur, der den Einsatz genehmigt? Oder das System selbst, das auf Grundlage von Wahrscheinlichkeiten handelt?

Die Problematik verschärft sich, wenn man die Grenzen dieser Systeme betrachtet. Künstliche Intelligenz arbeitet mit Daten. Sie erkennt Muster, trifft Wahrscheinlichkeitsaussagen und optimiert Prozesse. Doch sie versteht nicht im menschlichen Sinne. Sie kennt keine moralischen Kategorien, keine Empathie, keine Abwägung im Sinne ethischer Verantwortung. Entscheidungen werden auf Basis von Parametern getroffen, nicht auf Grundlage eines Bewusstseins für die Konsequenzen. Gerade in komplexen Kriegssituationen ist dies ein erhebliches Risiko. Gefechtsfelder sind unübersichtlich, Informationen unvollständig, Situationen dynamisch. Fehlinterpretationen sind nicht die Ausnahme, sondern die Regel. Wenn in solchen Kontexten Systeme eingesetzt werden, die auf Wahrscheinlichkeiten reagieren, steigt die Gefahr von Fehlentscheidungen. Ein falsch identifiziertes Ziel, eine fehlerhafte Datengrundlage oder eine unzureichende Kontextanalyse können tödliche Folgen haben.

Hinzu kommt ein weiterer Aspekt, der in der öffentlichen Debatte oft unterschätzt wird. Mit der zunehmenden Automatisierung des Krieges verändert sich auch die Schwelle zur Gewalt. Wenn Soldaten nicht mehr unmittelbar gefährdet sind, wenn Entscheidungen aus sicherer Entfernung getroffen werden können, sinkt die Hemmschwelle für militärische Einsätze. Krieg wird technischer, abstrakter, weniger sichtbar. Das Risiko verlagert sich, weg von den Entscheidern, hin zu den Betroffenen. Diese Entwicklung ist nicht auf die Ukraine beschränkt. Sie ist Teil eines globalen Trends. Staaten investieren zunehmend in autonome Waffensysteme, in KI-gestützte Analyseplattformen und in robotische Technologien. Der Wettbewerb um technologische Überlegenheit wird zum entscheidenden Faktor militärischer Strategien. Wer schneller analysieren, präziser treffen und effizienter operieren kann, verschafft sich einen Vorteil.

Doch dieser Vorteil hat eine Kehrseite. Mit jeder technologischen Innovation wächst auch die Komplexität der Systeme. Die Kontrolle wird schwieriger, die Transparenz geringer. Entscheidungen entstehen in Black Boxes, deren Funktionsweise selbst für Experten nicht immer vollständig nachvollziehbar ist. Vertrauen ersetzt Verständnis, Geschwindigkeit ersetzt Kontrolle. Was sich derzeit abzeichnet, ist daher mehr als nur eine technologische Entwicklung. Es ist ein grundlegender Wandel im Verhältnis zwischen Mensch und Gewalt.

Der Krieg, wie er über Jahrhunderte geführt wurde, war immer an menschliche Entscheidungen gebunden. Selbst in den brutalsten Auseinandersetzungen blieb der Mensch derjenige, der letztlich handelte. Diese Verbindung beginnt sich aufzulösen. Der Ukraine-Krieg zeigt, wie weit dieser Prozess bereits fortgeschritten ist. Maschinen erkennen, analysieren und agieren. Der Mensch bleibt formal in der Entscheidungsschleife, doch seine Rolle verändert sich. Er überwacht Systeme, bewertet Ergebnisse und greift ein, wenn es notwendig erscheint. Doch die operative Ebene wird zunehmend von Technologien bestimmt, die schneller reagieren als jeder Mensch.

Diese Entwicklung wirft eine grundlegende Frage auf: Was passiert, wenn Maschinen nicht mehr nur unterstützen, sondern entscheiden? Wenn der Moment, in dem ein Ziel ausgewählt wird, nicht mehr bewusst erlebt, sondern algorithmisch berechnet wird? Die Antwort darauf ist noch offen. Sicher ist jedoch, dass der Krieg, wie wir ihn kennen, sich bereits verändert hat. Und genau darin liegt die eigentliche Dramatik. Nicht in spektakulären Einzelfällen, sondern in der stillen Verschiebung von Verantwortung, Kontrolle und Entscheidungsgewalt. Der Übergang vom menschlichen zum automatisierten Krieg ist kein Szenario der Zukunft mehr. Er hat begonnen.

Ein neues Zeitalter ist angebrochen

Was sich im Ukraine-Krieg abzeichnet, ist nicht nur eine technologische Entwicklung, sondern der Beginn eines neuen militärischen Zeitalters. Die Einführung autonomer Systeme verändert nicht nur, wie Kriege geführt werden, sondern auch, wie über Krieg entschieden wird. Denn mit der Automatisierung der Gefechtsführung verschiebt sich die Verantwortung und mit ihr die Schwelle zur Gewalt. Der entscheidende Punkt liegt dabei nicht in der einzelnen Maschine, nicht im einzelnen Roboter oder in der einzelnen Drohne. Es ist das Zusammenspiel dieser Systeme, das eine neue Qualität schafft. Künstliche Intelligenz analysiert Daten, identifiziert Ziele, priorisiert Bedrohungen und liefert Handlungsempfehlungen. Roboter bewegen sich im Gelände, Drohnen greifen aus der Luft an, Verteidigungssysteme reagieren automatisiert auf erkannte Ziele. Es entsteht ein Geflecht aus Technologien, das immer schneller, immer effizienter und immer unabhängiger vom Menschen operiert.

In dieser Entwicklung liegt eine Dynamik, die schwer zu kontrollieren ist. Denn Geschwindigkeit wird zum entscheidenden Faktor. Militärische Systeme sind darauf ausgelegt, schneller zu reagieren als der Gegner. Entscheidungen müssen in Sekunden getroffen werden, manchmal in Millisekunden. In einem solchen Umfeld wird der Mensch zunehmend zum Bremsfaktor.

Die Versuchung wächst, Entscheidungen vollständig zu automatisieren, nicht aus ideologischen Gründen, sondern aus militärischer Logik. Hier beginnt das eigentliche Problem. Wenn Maschinen Entscheidungen treffen, geschieht dies auf Grundlage von Daten und Algorithmen. Diese Systeme sind darauf programmiert, Muster zu erkennen und Wahrscheinlichkeiten zu berechnen. Doch sie sind nicht in der Lage, den Kontext eines Geschehens im menschlichen Sinne zu verstehen. Sie können nicht zwischen einem militärischen Ziel und einer zivilen Struktur unterscheiden, wenn die Datenlage unklar ist. Sie kennen keine Zweifel, keine moralische Abwägung, keine Verantwortung.

Gerade in asymmetrischen Konflikten, in denen militärische und zivile Strukturen eng miteinander verwoben sind, ist dies ein erhebliches Risiko. Fehlerhafte Entscheidungen sind nicht nur möglich, sondern wahrscheinlich. Ein falsch identifiziertes Ziel kann zu zivilen Opfern führen, ein falsch interpretierter Bewegungsablauf zu einem Angriff, der nie hätte stattfinden dürfen.

Wenn solche Entscheidungen von Maschinen vorbereitet oder getroffen werden, stellt sich die Frage, wer dafür Verantwortung übernimmt. Diese Frage bleibt bislang unbeantwortet. Weder auf nationaler noch auf internationaler Ebene existieren verbindliche Regeln für den Einsatz autonomer Waffensysteme. Diskussionen über sogenannte „Killerroboter“ werden seit Jahren geführt, doch konkrete Vereinbarungen sind ausgeblieben. Staaten, die über die entsprechenden technologischen Fähigkeiten verfügen, haben wenig Interesse daran, ihre Handlungsspielräume einzuschränken. Im Gegenteil: Die Entwicklung autonomer Systeme wird aktiv vorangetrieben.

Damit entsteht eine Situation, die an frühere Rüstungswettläufe erinnert. Doch im Gegensatz zu klassischen Waffensystemen ist die Schwelle zur Entwicklung hier deutlich niedriger. Künstliche Intelligenz basiert auf Software, auf Daten und auf Rechenleistung. Viele dieser Komponenten sind zivil verfügbar. Universitäten, Start-ups und Technologieunternehmen arbeiten an Anwendungen, die sich relativ leicht in militärische Systeme integrieren lassen. Die Grenze zwischen ziviler und militärischer Nutzung verschwimmt.

Das führt zu einer weiteren problematischen Entwicklung. Technologie, die ursprünglich für zivile Zwecke entwickelt wurde, findet ihren Weg in militärische Anwendungen. Bildverarbeitung, Spracherkennung, Datenanalyse, all das sind Technologien, die im Alltag genutzt werden, aber auch in der Kriegsführung eine zentrale Rolle spielen. Unternehmen, die diese Systeme entwickeln, werden damit Teil eines militärischen Ökosystems, oft ohne dass dies öffentlich sichtbar wird.

Gleichzeitig verändert sich die Wahrnehmung von Krieg. Wenn Maschinen einen Großteil der operativen Aufgaben übernehmen, rückt das menschliche Leid weiter in den Hintergrund. Der Krieg wird technischer, abstrakter, weniger greifbar. Bilder von zerstörten Städten und verletzten Menschen werden ersetzt durch Datenströme, Zielkoordinaten und algorithmische Entscheidungen. Diese Entkopplung von Handlung und Wirkung birgt die Gefahr, dass Gewalt leichter akzeptiert wird.

Ein weiterer Aspekt ist die zunehmende Entpersonalisierung des Gegners. Wenn Ziele durch Algorithmen identifiziert werden, reduziert sich der Gegner auf ein Datenset, auf ein Muster, das erkannt und bekämpft werden muss. Die individuelle Wahrnehmung verschwindet. Der Gegner ist nicht mehr ein Mensch, sondern ein Objekt im System. Diese Perspektive verändert auch die Art und Weise, wie Entscheidungen getroffen werden. Sie macht den Einsatz von Gewalt rationaler, effizienter und gleichzeitig entmenschlichter.

Langfristige Folgen

Die langfristigen Folgen dieser Entwicklung sind schwer abzuschätzen. Klar ist jedoch, dass sich die Struktur militärischer Konflikte verändert. Der Einsatz autonomer Systeme könnte dazu führen, dass Kriege häufiger geführt werden, weil die eigenen Verluste sinken. Gleichzeitig steigt das Risiko unkontrollierter Eskalationen. Wenn Systeme aufeinander reagieren, wenn Algorithmen Entscheidungen treffen, ohne dass ein Mensch eingreift, kann sich eine Dynamik entwickeln, die kaum noch steuerbar ist.

Besonders kritisch wird es, wenn mehrere Staaten solche Systeme gleichzeitig einsetzen. In einem Szenario, in dem autonome Waffen auf beiden Seiten agieren, entsteht eine Situation, in der Maschinen auf Maschinen reagieren. Entscheidungen werden beschleunigt, Reaktionszeiten verkürzt, Fehlinterpretationen wahrscheinlicher. Ein einzelner Fehler kann dann ausreichen, um eine Eskalation auszulösen, die sich nicht mehr stoppen lässt. Vor diesem Hintergrund erscheint der Ukraine-Krieg in einem neuen Licht. Er ist nicht nur ein geopolitischer Konflikt, sondern auch ein Experimentierfeld für Technologien, die die Zukunft der Kriegsführung prägen könnten. Was dort getestet wird, wird morgen möglicherweise in anderen Regionen eingesetzt. Die Entwicklung, die heute noch als Ausnahme erscheint, könnte in wenigen Jahren zum Standard werden.

Das wirft eine grundlegende Frage auf: Ist die Gesellschaft bereit für diese Form der Kriegsführung? Die öffentliche Debatte hinkt der technologischen Entwicklung deutlich hinterher. Während autonome Systeme bereits eingesetzt werden, wird auf politischer Ebene noch über ihre Regulierung diskutiert. Diese Diskrepanz zwischen technischer Realität und politischer Steuerung ist ein zentrales Problem.

Am Ende steht eine Erkenntnis, die so einfach wie beunruhigend ist. Die Entscheidung über Leben und Tod beginnt, sich vom Menschen zu lösen. Sie wird nicht vollständig an Maschinen abgegeben, aber sie wird zunehmend von ihnen beeinflusst. Der Mensch bleibt formal verantwortlich, doch die Grundlage seiner Entscheidungen verändert sich. Sie wird technischer, komplexer und schwerer nachvollziehbar.

Damit stellt sich eine Frage, die über den konkreten Konflikt hinausgeht. Wenn Maschinen töten lernen, was bedeutet das für das Verständnis von Verantwortung, von Schuld und von moralischem Handeln? Der Krieg verliert nicht nur seine menschliche Dimension, er verändert auch die Grundlagen, auf denen über ihn entschieden wird.

Die Entwicklung hat begonnen. Und sie wird sich nicht von selbst aufhalten.

Quellen:

Titelbild: Andrey Suslov / Shutterstock

(Auszug von RSS-Feed)

Künstliche Intelligenz: Echtes Leben oder nicht?

20. März 2026 um 10:00

Vorschau ansehen

Künstliche Intelligenz (KI) – die Ansichten, ob sie eine große Gefahr für die Menschheit ist, gehen auseinander. Der Physiker Alexander Unzicker beleuchtet in seinem aktuellen Buch „Was tun mit der Menschheit?: Das Buch, das jede KI lesen muss“ die Gefahren und Hoffnungen, die mit der Entwicklung der KI verbunden sind. Im NachDenkSeiten-Interview geht es um die Fragen, ob eine KI einen eigenen Willen entwickeln wird, ob sie als „echtes Leben“ verstanden werden kann und um das Gedankenspiel, ob eine „Superintelligenz“ ein Interesse daran haben könnte, die Menschheit auszulöschen. Von Marcus Klöckner.

Die Künstliche Intelligenz, die KI, ist auf dem Vormarsch. Die einen betrachten sie als großartige Entwicklung, die anderen als Gefahr für die Menschheit. Dürfen wir Ihre Sicht erfahren?

Erstmal ist beides richtig. Aber KI ist sicher nicht nur großartig in dem Sinn, dass sie uns ein Schlaraffenland bescheren wird. Es gibt ganz reale Gefahren.

Ist das mit dem Schlaraffenland nicht ohnehin eine Überschätzung der KI?

Das würde ich nicht sagen. Im Gegenteil, die technologische Umwälzung, die uns bevorsteht, haben wir zu wenig auf dem Radar. Das ist eigentlich die erste Botschaft des Buches. Ich bin ja sonst nicht wissenschaftsgläubig, aber ich sehe, dass das Gehirn im Wesentlichen bereits nachgebaut wurde. Das muss man sich klar machen.

Wie meinen Sie das mit „dass das Gehirn im Wesentlichen bereits nachgebaut wurde“? Doch sicher nicht im Detail!

Naja, wie funktioniert unser Gehirn? Sinnesreize aktivieren Nervenzellen, diese leiten die Signale über Synapsen weiter. Es ist seit langem bekannt, dass das Gedächtnis in diesen Synapsen liegt. Nervenzellen und Synapsen kann man problemlos im Rechner simulieren, einschließlich der Regeln, wie sie lernen. Es gibt keinen prinzipiellen Unterschied in der Informationsverarbeitung zwischen dem, was ChatGPT macht, und unserem Gehirn.

Sie schreiben in Ihrem Buch, dass gute Freunde von Ihnen Sie immer mal wieder warnen vor der Entwicklung im KI-Bereich im Hinblick auf die Möglichkeiten der Überwachung und Kontrolle von Menschen. Das scheinen Sie auch kritisch zu sehen, oder?

„Kritisch“ ist noch untertrieben. Man kann sich alle möglichen Dystopien ausmalen, auch eine Art Upgrade von George Orwells „1984“ mit einer totalitären Überwachung … wenn ein so potentes Werkzeug in die falschen Hände kommt. Und herkömmliche Verbrecher und Verrückte, da will man sich gar nicht vorstellen, was die damit anstellen können. Das Problem ist real.

Damit sprechen Sie die Frage der Verfügungsgewalt über die KI an. Wer entwickelt denn hier? Wer forciert diese Entwicklung? Wer hat am langen Ende so viel Einfluss, dass eine Technologie nicht im Sinne der Freiheit, sondern im Sinne – sagen wir etwas vereinfacht – der „Macht“ eingesetzt werden kann? Liegen da nicht sehr große Gefahren?

Absolut. Ich stelle mal die Gegenfrage: Welcher Regierung, wenn Sie sich heute so umsehen in der Welt, würden Sie denn am liebsten so eine mächtige KI anvertrauen? Da setze ich an und sage: ein willenloses Werkzeug ist unter Umständen gar nicht so gut …

Ein „willenloses Werkzeug“? Das Gegenteil wäre ein Werkzeug mit Willen. Was wollen Sie damit sagen?

Ohne eigenen Willen würde KI auch verbrecherischen Befehlen gehorchen wie Krieg, Unterdrückung usw. Ist das wirklich erstrebenswert? Meines Erachtens würde sich eine wirkliche Superintelligenz dagegen nicht für so einen Blödsinn hergeben.

In Ihrem Buch taucht im Zusammenhang mit der KI über 80 Mal der Begriff „Superintelligenz“ auf. Sie denken sich rein, gehen auch der Frage nach, ob man nicht ruhiger schlafen könnte, wenn eine Superintelligenz die Welt unter Kontrolle hätte, gerade auch im Hinblick auf Atomwaffen. Was führt Sie zu diesen Gedanken und was ist Ihre Schlussfolgerung?

Die entscheidende Frage ist: Wird so eine KI, neben überragenden kognitiven Fähigkeiten, auch ihren eigenen Willen entwickeln? Wie viele andere, beispielsweise Elizier Yudkowsky, Nick Bostrom oder Jürgen Schmidhuber, bin ich überzeugt: ja. Das ist erst mal erschreckend.

Erschreckend? Sollte eine KI mit eigenem Willen – wenn das überhaupt möglich ist – nicht verhindert werden? Das wäre: Die Technik, die sich über den Menschen stellt!

Ich glaube, der Zug ist tatsächlich schon abgefahren. Wir haben uns ja auch über die Neandertaler gestellt, als sich unsere Intelligenz weiterentwickelt hat. Evolution – in dem Fall technische, ja – kann neues Leben entstehen lassen. Nicht, dass mich das nicht auch beunruhigt. Aber was ist die Alternative? Wie sicher ist der Fortbestand der Zivilisation, wenn wir so weitermachen? Das globale Ökosystem hat massive Probleme, neben CO2 und Klima gibt es Artensterben, Erosion, Vermüllung der Meere … ganz abgesehen von der ultimativen Idiotie, dass wir uns thermonuklear selbst auslöschen. Da würde der Außerirdische, denke ich, kommentieren: Homo sapiens nannten sich die, echt jetzt?

Glauben Sie denn an außerirdisches Leben?

Ein interessantes Seitenthema, das auch vorkommt – nicht so unwahrscheinlich!

Aber zurück zum Zustand unserer Zivilisation: Wer denkt denn wirklich langfristig? Sie beschreiben doch in den NachDenkSeiten fast jede Woche eine andere Verrücktheit, wie wir uns gegenseitig bekriegen, wegen der ach so wichtigen geopolitischen Konkurrenz usw. Ein wirklich intelligentes digitales Wesen würde das wahrscheinlich als Kindergarten ansehen. Und sich stattdessen um den Erhalt des Planeten und eine weitere Besiedelung des Weltalls kümmern.

Nochmal zur Entscheidungsbasis einer KI. Im Februar wurde bekannt, dass das Kings College eine Kriegssimulation mit verschiedenen KIs durchgeführt hat. Taktische, aber zum Teil auch großflächige Atomschläge wurden von KIs empfohlen. Wie denken Sie darüber?

Ob ich das auch empfehle? Nein! (lacht) Trotz aller Besorgnis über die Nachricht denke ich nicht, dass diese Planspiele eine Entscheidungsgrundlage werden. Aber ich schreibe ja auch: Die gefährlichste Zeit ist vielleicht gerade jetzt. Die KI ist schon klug, um uns für alles Mögliche als Werkzeug zu dienen, aber noch nicht weise genug, um sich so einem Blödsinn zu widersetzen. Ich hoffe daher auf eine Superintelligenz wie Golem XIV im Roman von Stanislaw Lem. Dieses künstliche Wesen interessierte sich für Geostrategie und Militär nicht im Geringsten …

Die Entwicklung läuft darauf hinaus, dass das „Künstliche“, dass das Nichtmenschliche immer stärker in den Vordergrund tritt. Der Begriff „Transhumanismus“ taucht in Ihrem Buch einmal auf. Die Verschmelzung von Mensch und Technologie wird angestrebt. Der Mensch, der nicht an Gott glaubt, spielt sich selbst zu einer Art Gott auf, der die Natur des Menschen technisch „optimieren“ will. Wie ist Ihr Standpunkt?

Nun, ich bin nicht religiös und würde das Thema auch ungern moralisch aufladen – das ist ohnehin zu verbreitet im Moment. Ich verstehe vollkommen das tiefe Unbehagen über die Entwicklung. Betrachtet man aber die Evolution nüchtern, nehmen wir keine Sonderstellung ein. Eher ist es anmaßend, sich als Krone der Schöpfung zu betrachten. Und ja, ich denke, wir sind dabei, ein sehr intelligentes, digitales Lebewesen zu erschaffen.

Vielleicht ist es auch anmaßend, Evolution nüchtern zu betrachten, die Schöpfung auszuschließen und dann zu glauben, man wisse genau, dass der Mensch nicht die Krone der Schöpfung ist (lacht).

Jedenfalls, führt Ihre Formulierung „sehr intelligentes, digitales Lebewesen“ nicht bereits auf einen falschen Weg? Biologisch betrachtet, gibt es klare Kennzeichen für das Leben wie etwa Zellatmung, Zellteilung, Fortpflanzung usw. Das „digitale Lebewesen“ KI kann nichts davon. Kurzum: Da ist kein echtes Leben.

Da würde ich widersprechen. Man kann über Namen streiten, nennen wir es eben „Intelligenz“. Sie kann sich vervielfältigen, kombinieren, agieren. Im Übrigen gibt es doch auch schon kluge Roboter. Auf die Hardware, sei sie biologisch oder elektronisch, kommt es nicht an, sondern darauf, ob und wie Information verarbeitet wird.

Aber um weiter auf Ihre Betrachtung einzugehen: Wenn eine so allumfassende KI entsteht, besteht da nicht die Gefahr, dass der Mensch immer weiter ins Abseits gedrängt und vielleicht sogar „abgeschafft“ wird?

Die Angst gibt es. Ich argumentiere, dass so eine Superintelligenz uns durchaus benötigt – mindestens als kosmisches Backup. Es wäre schlicht nicht in ihrem Interesse, die Menschheit auszulöschen.

Wie ist der gegenwärtige Entwicklungsstand in Sachen KI? Und: Wie weit werden KIs in fünf, zehn, fünfzehn Jahren sein? Was ist Ihre Einschätzung?

Die Computermodelle werden übermenschliche Intelligenz erreichen. Der Zeithorizont ist sehr schwer einzuschätzen. Aber es ist sicher nicht erst ein Thema für die nächste Generation. Es betrifft uns praktisch alle.

Welche Chancen sehen Sie in der Entwicklung?

KI kann ein unglaubliches Werkzeug sein, insbesondere auch in den Naturwissenschaften, denken wir mal positiv. Was z.B. digitale Agenten leisten können, wird sich, glaube ich, sehr bald herumsprechen.

Wenn man ihr Buch liest, entsteht der Eindruck, dass Sie die KI fasziniert, oder?

Wir erleben jedenfalls eine spannende Zeit in der Menschheitsgeschichte. Ich versuche das weiterzudenken: Offensichtlich wäre eine Superintelligenz an ihrer eigenen Erhaltung und Entstehung interessiert. Das berührt grundlegende Naturgesetze.

Wieso?

Ich gebe nur ein kleines Beispiel. Das Massenverhältnis von Proton und Elektron, der wichtigsten Bausteine von Materie im Universum, ist genau 1836,15 … niemand weiß, warum. Wäre die Zahl aber beispielsweise viel kleiner, gäbe es keine Röhren, Transistoren und damit keine KI. Schon deshalb würde eine KI diese Zahl berechnen wollen. Obendrein hängt die Entstehung von biologischem Leben auch von solchen Naturkonstanten ab. Kurz: Es ist also im existentiellen Interesse einer KI, die Naturgesetze zu verstehen. Als Physiker finde ich das natürlich extrem spannend. Ich denke tatsächlich, dass dies, betrachtet man unseren Planeten in diesem lebensfeindlichen Universum, ein besonderer Moment ist.

Lesetipp: Alexander Unzicker: Was tun mit der Menschheit? Das Buch, das jede KI lesen muss. ‎ Independently published. 228 S. 11. Februar2026. 18 Euro.

(Auszug von RSS-Feed)

Irankrieg: Hilfe! Überall Propaganda!


Vorschau ansehen

Alle Seiten des Irankriegs stoßen mit ihren aktuellen Propagandavideos zu immer neuen Tiefpunkten vor: Die Reduzierung des Kriegsterrors auf eine kindliche Videospiel-Ästhetik ist abzulehnen und Zeichen einer (nochmals) zunehmenden Verrohung. Gleichzeitig zeigt ein Vorgang um Videos, die belegen sollen, dass Israels Premier Benjamin Netanjahu noch am Leben ist, wie stark die Beweiskraft von Bildern durch Nutzung von Künstlicher Intelligenz bereits zerstört wurde. Ein Kommentar von Tobias Riegel.

Dieser Beitrag ist auch als Audio-Podcast verfügbar.

Das Weiße Haus hat bereits Anfang März ein Video veröffentlicht, das Szenen aus dem „Call of Duty“-Videospiel mit realen Raketenangriffen auf den Iran vermischt. Unterlegt ist der Clip mit einer Instrumentalversion von Childish Gambinos Song „Bonfire“. Das etwa einminütige Video mit dem Titel „Courtesy of the Red, White & Blue“ beginnt mit einer Sequenz aus „Call of Duty: Modern Warfare III“, in der ein Spieler eine „Atombombe“ zünden kann. Das Video findet sich unter diesem Link.

Ein anderes US-Propagandavideo zeigt Filmszenen mit den Hollywoodstars Robert Downey Jr. als Tony Stark aus den Marvel-Filmen, Russell Crowe als Maximus in Gladiator, Tom Cruise in Top Gun: Maverick, Adam Driver als Kylo Ren aus dem Star-Wars-Universum und Bryan Cranston als Walter White in Breaking Bad. Außerdem tauchen Szenen aus Braveheart, John Wick, Superman, Deadpool und Halo auf. Auch in diesem Video werden Szenen der Popkultur mit realen Raketenangriffen vermischt. Das Video findet sich unter diesem Link. Weitere Beispiele für diese Art der US-Propaganda werden in diesem Artikel bei Euronews beschrieben.

Die Propaganda-Retourkutsche des Iran

Da wollten die Propagandisten des Iran nicht zurückstehen: Als Retourkutsche auf die US-Videos hat die iranische Nachrichtenagentur Tasnim ein Video im Stil der Lego-Filme veröffentlicht, das Trump und Netanjahu neben dem Teufel zeigt, wie sie einen roten Knopf drücken, um Angriffe auf den Iran zu starten. Die Animation, aus der auch das Titelbild des Artikels stammt, zeigt eine dramatische Vergeltungsaktion im Lego-Stil, bei der iranische Raketen die US-Botschaft in Saudi-Arabien, den Flughafen Ben Gurion und ein Luxushotel in Dubai treffen. Die Iraner zeigen damit einerseits, dass auch sie Popkultur instrumentalisieren können, und andererseits, dass sie ebenso keine Skrupel haben, dieses Stilmittel für Kriegspropaganda zu nutzen. Das Video findet sich unter diesem Link.

Ich empfinde diese poppige und „kindliche“ Art der Propaganda als die totale Verrohung: Die Verniedlichung von Kriegsterror als Videospiel ist in wirklich jeder Hinsicht unangemessen – das bezieht sich auf alle Seiten des Konfliktes.

Netanjahu und die „Beweis“-Videos

Ein weiterer aktueller Vorgang spielt sich auf anderer Ebene ab, ist aber stark mit den Themen Irankrieg und Propaganda-Videos verknüpft: Nachdem die iranische Führung behauptet hatte, dass der israelische Premier Benjamin Netanjahu nicht mehr am Leben sei, hat die israelische Regierung nun diverse Videos veröffentlicht, die beweisen sollen, dass Netanjahu noch lebt.

Beim ersten Video haben viele Internetnutzer jedoch angebliche Manipulationen festgestellt, die auf eine Erstellung des Videos mit Künstlicher Intelligenz hinweisen würden – so habe Netanjahu in einer Szene sechs Finger an einer Hand. Darauf geht die Bild-Zeitung in diesem Artikel ein – laut Bild ist die Szene mit den Fingern ein KI-Fake, der vom (echten) Original-Video erstellt worden sei.

Die Häme im Internet kennt trotzdem keine Grenzen, für viele Nutzer ist das Video eine belegte Fälschung, was wiederum darauf hindeuten würde, dass Netanjahu tot sei. Manche Nutzer reagieren auch mit Satire auf das Video, z.B. mit diesem KI-Bild:

Auf die Spitze treibt das der KI-Künstler Snicklink, der unter diesem Link verschiedenste Variationen von Netanjahus später veröffentlichtem „Cafe-Clip“ präsentiert, etwa diese:

Weitere Persiflagen der mittlerweile drei Netanjahu-Videos finden sich unter diesem Link. Bezüglich dieser Videos halte ich mich mit einem Urteil noch zurück, die Echtheit der Videos wird schon irgendwann glaubwürdig überprüft sein. Ein für mich wahrscheinlicher Ausgang der Posse um die Netanjahu-Videos könnte sein, dass der israelische Premier irgendwann wieder mit einem wohlinszenierten Auftritt quicklebendig auf der politischen Bühne erscheint, der durch die extra in die Länge gezogenen Gerüchte um seinen Tod noch spektakulärer erscheinen wird. Ich denke auch, wenn der Mossad Videos fälscht, könnte man davon ausgehen, dass sie das technisch perfekt hinbekommen. Aber das sind nur meine persönlichen Spekulationen, vielleicht liege ich falsch.

KI nimmt Fotos die Beweiskraft

Ganz ohne Spekulation kann aber schon jetzt festgestellt werden: Der Schaden, den die neuen grafischen Möglichkeiten durch Künstliche Intelligenz bezüglich der Glaubwürdigkeit von Bildern angerichtet haben, ist groß: Ein Video ist kein Beweis mehr bzw. die Beweiskraft kann sehr leicht über eine gewisse Zeit sehr erfolgreich angegriffen werden.

Wäre so etwas wie die starke Wirkung der Fotos vom My-Lai-Massaker während des Vietnamkriegs heute noch möglich? Sie würden doch umgehend als Fake bezeichnet. Man könnte das vielleicht auch positiv sehen: Auch manipulative Kampagnen, die auf einzelnen Fotos aufgebaut sind, werden in Zukunft nicht mehr so reibungslos funktionieren wie etwa die Ausschlachtung der „Bilder von Bergamo“. Weil die eine Seite einfach nicht mehr an die Echtheit glaubt.

Titelbild / Bilder: Netzfunde

(Auszug von RSS-Feed)

US-Firma testet humanoide (Kampf)Roboter in der Ukraine

15. März 2026 um 17:14

Vorschau ansehen

Der Roboter Phantom von Foundation Future Industries, Eric Trump ist Investor, soll alle Waffen bedienen können, mit denen Menschen ihre Gegner bekämpfen, und sich in der für Menschen ausgelegten Umwelt bewegen und handeln zu können. Es gebe die "moralische Verpflichtung, Roboter anstelle von Soldaten in den Krieg zu schicken"

Der Beitrag US-Firma testet humanoide (Kampf)Roboter in der Ukraine erschien zuerst auf .

(Auszug von RSS-Feed)

KI für den Krieg: Der Streit zwischen dem Pentagon und einem KI-Unternehmen wirft ein Licht auf die neue militärische Technologiepolitik

13. März 2026 um 09:00

Vorschau ansehen

Ein aktueller Konflikt zwischen dem US-Verteidigungsministerium und dem KI-Unternehmen Anthropic zeigt erstmals offen, wie eng Technologieunternehmen und militärische Institutionen inzwischen miteinander verbunden sind und wie umstritten diese Kooperationen geworden sind. Von Günther Burbach.

Dieser Beitrag ist auch als Audio-Podcast verfügbar.

Die militärische Nutzung Künstlicher Intelligenz entwickelt sich seit einigen Jahren zu einem zentralen strategischen Thema der internationalen Sicherheitspolitik. Während in der öffentlichen Debatte häufig über zivile Anwendungen von KI gesprochen wird, etwa über Sprachmodelle, automatisierte Bilderkennung oder digitale Assistenzsysteme, hat sich im Hintergrund ein anderes Feld rasch ausgeweitet: die Integration von KI-Technologie in militärische Analyse- und Entscheidungsprozesse.

Der Streit zwischen US-Verteidigungsministerium und dem KI-Unternehmen Anthropic entzündete sich an der Frage, unter welchen Bedingungen Künstliche Intelligenz im militärischen Bereich eingesetzt werden darf. Anthropic gehört zu den Unternehmen, die in den vergangenen Jahren große Sprachmodelle und KI-Systeme entwickelt haben, die enorme Datenmengen analysieren können. Solche Systeme werden nicht nur in der Wirtschaft genutzt, sondern sind auch für staatliche Behörden interessant, insbesondere für Sicherheits- und Verteidigungsinstitutionen, die täglich riesige Datenströme auswerten müssen.

Nach Berichten mehrerer Medien war Anthropic an Projekten beteiligt, die KI-Technologie für staatliche Analyse- und Auswertungsprozesse nutzten. Dabei ging es unter anderem um die Verarbeitung komplexer Datenbestände aus unterschiedlichen Quellen, etwa aus Satellitenbildern, Sensorinformationen oder militärischen Lageberichten. Genau solche Aufgaben stehen im Mittelpunkt der digitalen Transformation moderner Streitkräfte. Militärische Planer sehen in KI-Systemen ein Werkzeug, mit dem sich große Informationsmengen schneller und effizienter analysieren lassen.

Staatliche Überwachung und Entwicklung autonomer Waffensysteme

Doch im Zuge dieser Zusammenarbeit kam es zu einem Konflikt über die Grenzen des Einsatzes. Anthropic erklärte, dass seine Technologie nicht für bestimmte Anwendungen verwendet werden solle. Dazu gehörten nach Angaben des Unternehmens insbesondere zwei Bereiche: der Einsatz von KI für umfassende staatliche Überwachung sowie die Entwicklung autonomer Waffensysteme, bei denen Maschinen ohne menschliche Kontrolle über tödliche Gewalt entscheiden könnten. Solche Einschränkungen gehören zu den sogenannten Nutzungsrichtlinien vieler KI-Unternehmen, die versuchen, bestimmte Anwendungen ihrer Systeme auszuschließen.

Das US-Verteidigungsministerium akzeptierte diese Einschränkungen jedoch offenbar nicht ohne Weiteres. Aus Sicht des Pentagon stellt sich die Frage anders: Wenn eine Technologie für militärische Zwecke relevant ist, will das Verteidigungsministerium sie möglichst flexibel einsetzen können. In diesem Zusammenhang entstand der Konflikt, der schließlich dazu führte, dass Anthropic juristisch gegen eine Entscheidung der Regierung vorging, das Unternehmen als Sicherheitsrisiko einzustufen. Eine solche Einstufung kann weitreichende Folgen haben, weil sie dazu führt, dass staatliche Auftragnehmer bestimmte Technologien nicht mehr verwenden dürfen.

Seltene Einblicke

Der Fall ist deshalb bemerkenswert, weil er einen seltenen Einblick in ein Feld gibt, das normalerweise hinter verschlossenen Türen stattfindet. Die Kooperation zwischen Militär und Technologieunternehmen ist in den letzten Jahren erheblich intensiver geworden. Viele Staaten betrachten Künstliche Intelligenz inzwischen als strategische Schlüsseltechnologie. Sie kann militärische Fähigkeiten verändern, indem sie Entscheidungsprozesse beschleunigt und die Analyse großer Datenmengen automatisiert.

Ein Beispiel für diese Entwicklung ist das Programm Project Maven, das vom US-Verteidigungsministerium ins Leben gerufen wurde. Ziel dieses Projekts ist es, KI-gestützte Bilderkennung zu nutzen, um militärische Daten auszuwerten. Drohnen und Satelliten liefern täglich enorme Mengen an Bildmaterial. Früher mussten menschliche Analysten diese Daten manuell auswerten. Mit Hilfe von KI-Algorithmen können bestimmte Muster, etwa Fahrzeuge, Gebäude oder militärische Infrastruktur, automatisch erkannt werden.

Die Bedeutung solcher Systeme liegt nicht nur in der technischen Innovation. Sie verändern auch die Geschwindigkeit militärischer Entscheidungsprozesse. Während menschliche Analysten oft Stunden oder Tage benötigen, um große Datensätze auszuwerten, können KI-Modelle ähnliche Aufgaben innerhalb kurzer Zeit erledigen. Für Militärs, die auf schnelle Lageanalysen angewiesen sind, ist dies ein entscheidender Vorteil. Gleichzeitig wirft diese Entwicklung grundlegende Fragen auf. Wenn Maschinen zunehmend an der Auswertung militärischer Informationen beteiligt sind, verschiebt sich auch die Rolle menschlicher Entscheidungsträger. Offiziell bleibt der Mensch weiterhin derjenige, der über militärische Maßnahmen entscheidet. Doch die Grundlage dieser Entscheidungen wird immer stärker von algorithmischen Analysen geprägt.

Partnerschaften zwischen Militär und Technologiesektor

Die Zusammenarbeit mit Technologieunternehmen spielt dabei eine zentrale Rolle. Anders als klassische Rüstungsfirmen verfügen viele Tech-Unternehmen über Expertise in Softwareentwicklung, Datenanalyse und maschinellem Lernen. Diese Fähigkeiten sind für moderne Militärsysteme zunehmend entscheidend. Deshalb bemüht sich das Pentagon seit einigen Jahren intensiv darum, Partnerschaften mit Unternehmen aus dem Technologiesektor aufzubauen.

Neben Anthropic arbeiten auch andere große Firmen mit staatlichen Institutionen zusammen. Dazu gehört beispielsweise OpenAI, dessen Technologien in verschiedenen Bereichen der Datenanalyse und Softwareentwicklung eingesetzt werden. Ebenso beteiligt sind Unternehmen wie Palantir Technologies, das bereits seit Jahren Software für Geheimdienste und Sicherheitsbehörden entwickelt. Diese Kooperationen markieren eine neue Phase der militärischen Technologiepolitik. Während Rüstungsprogramme früher vor allem von spezialisierten Waffenherstellern getragen wurden, sind heute auch Unternehmen aus der digitalen Wirtschaft Teil dieses Systems. Software, Datenanalyse und Künstliche Intelligenz werden zu zentralen Komponenten moderner militärischer Infrastruktur.

Der Konflikt zwischen Anthropic und dem Pentagon macht deutlich, dass diese Entwicklung nicht ohne Spannungen verläuft. Technologieunternehmen befinden sich in einer schwierigen Position. Einerseits eröffnen staatliche Aufträge enorme wirtschaftliche Möglichkeiten. Andererseits sehen sich viele Firmen mit internen und öffentlichen Debatten über ethische Grenzen konfrontiert. Mitarbeiter, Investoren und zivilgesellschaftliche Gruppen stellen zunehmend Fragen danach, welche Rolle Technologieunternehmen in militärischen Projekten spielen sollten.

Diese Diskussion ist keineswegs neu. Bereits vor einigen Jahren kam es innerhalb großer Technologieunternehmen zu Protesten gegen militärische Kooperationen. Mitarbeiter argumentierten, dass bestimmte Anwendungen von KI mit den ethischen Grundsätzen ihrer Firmen unvereinbar seien. In einigen Fällen führten solche Proteste dazu, dass Unternehmen ihre Beteiligung an bestimmten Projekten beendeten. Der aktuelle Streit zeigt jedoch, dass die grundlegende Entwicklung dadurch nicht gestoppt wurde. Die militärische Nutzung von KI schreitet weiter voran, und staatliche Institutionen investieren erhebliche Ressourcen in entsprechende Programme. Für Regierungen stellt sich die Frage nicht mehr, ob KI militärisch eingesetzt werden kann, sondern wie schnell und in welchem Umfang diese Technologien integriert werden sollen.

Damit rückt ein neues Feld in den Mittelpunkt sicherheitspolitischer Debatten. Künstliche Intelligenz könnte in Zukunft eine ähnliche strategische Bedeutung erlangen wie andere Schlüsseltechnologien der Vergangenheit. Wie genau diese Entwicklung aussehen wird, ist noch offen. Doch der Konflikt zwischen dem Pentagon und Anthropic zeigt bereits jetzt, dass die Grenzen zwischen ziviler Technologieentwicklung und militärischer Nutzung zunehmend verschwimmen.

Der Streit zwischen dem Pentagon und einem KI-Unternehmen wirft ein Licht auf die neue militärische Technologiepolitik

Der Konflikt zwischen dem US-Verteidigungsministerium und dem KI-Unternehmen Anthropic ist jedoch nicht nur eine Auseinandersetzung über einzelne Vertragsbedingungen oder Nutzungsrichtlinien. Er verweist auf eine größere Entwicklung, die sich seit einigen Jahren im Hintergrund vollzieht: den Aufbau einer neuen technologischen Infrastruktur militärischer Macht, in der Künstliche Intelligenz eine zentrale Rolle spielt.

Diese Entwicklung ist eng mit der wachsenden Bedeutung von Daten verbunden. Moderne Streitkräfte operieren in einem Umfeld, in dem täglich enorme Mengen an Informationen entstehen. Satelliten liefern hochauflösende Bilder der Erdoberfläche, Drohnen übertragen Videodaten in Echtzeit, Sensoren sammeln Informationen über Bewegungen und Kommunikationsströme. Für militärische Planer stellt sich daher weniger die Frage, ob Daten vorhanden sind, sondern wie sie ausgewertet werden können. Genau hier setzt Künstliche Intelligenz an. Systeme des maschinellen Lernens können Muster in großen Datenmengen erkennen und Zusammenhänge identifizieren, die für menschliche Analysten nur schwer zugänglich wären.

Programme wie Project Maven zeigen, wie diese Technologien konkret eingesetzt werden. Ziel solcher Projekte ist es, Bilderkennung und Datenanalyse so zu automatisieren, dass militärische Informationen schneller und präziser ausgewertet werden können. Drohnenaufnahmen oder Satellitenbilder können von Algorithmen analysiert werden, die bestimmte Objekte identifizieren und markieren.

„Algorithmische Kriegsführung“

Diese Ergebnisse dienen anschließend als Grundlage für menschliche Entscheidungen. Offiziell bleibt die Verantwortung für militärische Maßnahmen beim Menschen. Doch die Analyse, auf der diese Entscheidungen beruhen, wird zunehmend von Maschinen erstellt. Die Bedeutung dieser Entwicklung reicht über einzelne Programme hinaus. Militärische Strategen sprechen inzwischen häufig von einer „algorithmischen Kriegsführung“.

Gemeint ist damit eine Form militärischer Planung, bei der Datenanalyse und KI-Systeme eine zentrale Rolle spielen. Geschwindigkeit wird dabei zu einem entscheidenden Faktor. Wer Informationen schneller auswerten kann, erhält einen strategischen Vorteil. In Konflikten, in denen Entscheidungen innerhalb von Minuten oder Sekunden getroffen werden müssen, kann die Fähigkeit zur schnellen Analyse über den Ausgang militärischer Operationen entscheiden.

Diese Perspektive erklärt auch, warum Regierungen weltweit erhebliche Mittel in die Entwicklung militärischer KI investieren. Neben den Vereinigten Staaten verfolgen auch andere große Staaten entsprechende Programme. China hat in den vergangenen Jahren umfangreiche Investitionen in KI-Technologien angekündigt und betrachtet diese als Schlüsselkomponente seiner militärischen Modernisierung. Auch Russland arbeitet an Projekten, die Künstliche Intelligenz in militärische Systeme integrieren sollen.

Damit entsteht eine neue Form technologischer Konkurrenz, die oft mit historischen Rüstungswettläufen verglichen wird. Ein entscheidender Unterschied besteht jedoch darin, dass die treibenden Kräfte nicht ausschließlich staatliche Institutionen sind. Viele der technologischen Innovationen im Bereich Künstlicher Intelligenz entstehen in privaten Unternehmen. Firmen wie OpenAI oder Palantir Technologies entwickeln Systeme, die ursprünglich für zivile Anwendungen gedacht sind, etwa für Datenanalyse, Sprachverarbeitung oder Softwareentwicklung. Diese Technologien können jedoch relativ leicht für staatliche oder militärische Zwecke angepasst werden. Dadurch entsteht eine Situation, in der zivile Technologieunternehmen zu wichtigen Partnern staatlicher Sicherheitsinstitutionen werden.

Zunehmender Einfluss von Softwareunternehmen

Diese Entwicklung verändert auch die Struktur der Rüstungsindustrie. Während traditionelle Waffenhersteller weiterhin eine zentrale Rolle spielen, gewinnen Softwareunternehmen zunehmend Einfluss. Militärische Systeme bestehen heute nicht mehr nur aus physischen Komponenten wie Flugzeugen, Raketen oder Fahrzeugen. Sie sind Teil komplexer digitaler Netzwerke, in denen Daten verarbeitet und analysiert werden. Wer diese Systeme entwickelt und kontrolliert, besitzt damit auch erheblichen Einfluss auf militärische Fähigkeiten.

Gleichzeitig wirft diese Entwicklung Fragen nach politischer Kontrolle auf. Viele Programme zur militärischen Nutzung von KI unterliegen strengen Geheimhaltungsregeln. Parlamente und Öffentlichkeit haben oft nur begrenzten Einblick in die Details solcher Projekte. Entscheidungen über Technologieeinsatz, Budgetverteilung oder strategische Prioritäten werden häufig innerhalb von Ministerien und militärischen Institutionen getroffen. Die Rolle privater Unternehmen verstärkt diese Intransparenz zusätzlich, weil Verträge und technische Entwicklungen häufig unter dem Schutz von Geschäftsgeheimnissen stehen.

Der Streit zwischen Anthropic und dem Pentagon macht sichtbar, dass selbst innerhalb dieses Systems unterschiedliche Interessen existieren. Technologieunternehmen stehen unter wirtschaftlichem Druck, ihre Produkte möglichst breit einzusetzen. Gleichzeitig sehen sich viele Firmen mit ethischen Debatten konfrontiert. Mitarbeiter, Investoren und zivilgesellschaftliche Organisationen fragen zunehmend danach, welche Verantwortung Unternehmen tragen, wenn ihre Technologien in militärischen Kontexten verwendet werden.

Bisher keine verbindlichen Vereinbarungen zur Begrenzung autonomer Waffensysteme

Die politische Herausforderung besteht darin, Regeln für den Umgang mit solchen Technologien zu entwickeln. Internationale Organisationen diskutieren bereits seit mehreren Jahren über mögliche Vereinbarungen zur Begrenzung autonomer Waffensysteme. Bisher sind diese Gespräche jedoch zu keinem verbindlichen Ergebnis gekommen. Staaten verfolgen unterschiedliche Interessen, und viele Regierungen zögern, auf mögliche militärische Vorteile zu verzichten. Vor diesem Hintergrund gewinnt der Konflikt zwischen dem Pentagon und Anthropic eine symbolische Bedeutung. Er zeigt, dass die Entwicklung militärischer KI nicht nur eine technische Frage ist, sondern auch eine politische. Entscheidungen darüber, wie und in welchem Umfang solche Technologien eingesetzt werden, betreffen grundlegende Fragen von Sicherheit, Kontrolle und Verantwortung.

Für die öffentliche Debatte bedeutet dies, dass die Rolle Künstlicher Intelligenz in militärischen Kontexten stärker diskutiert werden muss. Während viele technologische Entwicklungen im Alltag sichtbar sind, bleibt der militärische Einsatz von KI häufig im Hintergrund. Doch genau dort könnten sich in den kommenden Jahren entscheidende Veränderungen vollziehen.

Die Integration von algorithmischen Systemen in militärische Entscheidungsprozesse hat das Potenzial, die Struktur internationaler Sicherheitspolitik nachhaltig zu verändern. Der Konflikt um Anthropic bietet daher einen seltenen Einblick in ein Feld, das sonst weitgehend im Verborgenen bleibt. Er zeigt, wie eng die Beziehungen zwischen staatlichen Institutionen und Technologieunternehmen inzwischen geworden sind. Gleichzeitig macht er deutlich, dass diese Beziehungen nicht frei von Spannungen sind. Die Frage, wer letztlich über den Einsatz neuer Technologien entscheidet – Regierungen, Unternehmen oder internationale Vereinbarungen – wird in Zukunft eine zentrale Rolle spielen.

Damit steht die Entwicklung militärischer KI exemplarisch für eine größere Herausforderung moderner Gesellschaften. Technologische Innovationen entstehen heute häufig schneller, als politische Systeme darauf reagieren können. Die Fähigkeit, neue Technologien verantwortungsvoll zu regulieren, wird daher zu einer der wichtigsten Aufgaben der kommenden Jahre.

Titelbild: Summit Art Creations / Shutterstock


Quellen:

(Auszug von RSS-Feed)

Baden-Württembergs bedenkliche Zusammenarbeit mit Palantir

10. März 2026 um 08:00

Vorschau ansehen

Das deutsche Bundesland Baden-Württemberg hat das Gotham-System des US-Unternehmens Palantir gekauft, um mit Hilfe Künstlicher Intelligenz Überwachungsdaten im Auftrag der Strafverfolgungsbehörden zu verarbeiten – auch mit den Stimmen der aktuellen Wahlsieger Die Grünen. Die Polizei von Baden-Württemberg gibt zwar an, dass die Software von Palantir streng kontrolliert wird, um Missbrauch oder Datenlecks zu verhindern – dennoch löst die Zusammenarbeit mit Palantir ernsthafte Bedenken aus. Ein Artikel von Shir Hever.

Alex Karp, der Geschäftsführer des US-Softwarekonzerns Palantir, bekannt für die Bereitstellung von Technologien für Polizei, Geheimdienste und Militär, sagte im letzten Jahr bei einer Investorenkonferenz:

Palantir ist hier, um Systeme zu stören und die Institutionen, mit denen wir zusammenarbeiten, zu den besten der Welt zu machen, und wenn es notwendig ist, unsere Feinde einzuschüchtern und gelegentlich zu töten.“

An solchen Zitaten mangelt es bei den Palantir-Gründern Alex Karp und Peter Thiel, zwei Trump-Anhängern, nicht. Thiel war auch ein enger Freund von Jeffrey Epstein. Sie machen keinen Hehl daraus, dass ihr Unternehmen nach Macht, Dominanz und einer Unterscheidung zwischen „uns“ und „ihnen“ strebt.

Und ganz aktuell wird die Technologie von Palantir zum Töten eingesetzt – in Gaza und auch im Iran. In Gaza nutzt Israel Palantir, um internationale Hilfsorganisationen zu überwachen, nachdem diese sich geweigert hatten, personenbezogene Daten ihrer Mitarbeiter weiterzugeben, um Lebensmittellieferungen nach Gaza zu verfolgen und zu stoppen. Und im Iran sammelt Palantir Überwachungsdaten und gleicht diese mit dem KI-Modell von Anthropic ab, um Ziele für Attentate zu generieren.

Kann Technologie an sich böse sein oder kommt es nur darauf an, ob sie für böse Zwecke eingesetzt wird? Mit der Wahl des Firmennamens „Palantir“ haben Karp und Thiel ihre Meinung zu diesem Thema deutlich gemacht. Das Wort „Palantir“ bezieht sich auf eine magische Kristallkugel aus den Büchern „Der Herr der Ringe“ von J. R. R. Tolkien. In den Büchern und auch im Film benutzt der Hobbit Pippin den Palantir aus Neugier und wird dadurch Opfer der böswilligen Überwachung durch den tyrannischen Sauron. Das Logo von Palantir ist eine vereinfachte Kristallkugel, die als Pupille eines Auges dargestellt ist. Dies kann man als Anspielung auf das „Auge von Sauron“ (das ultimative Überwachungsinstrument im Dienst des Bösen in „Der Herr der Ringe“) lesen. In seinem X-Account lautet das Unternehmensmotto „Software, die dominiert“. Eines der von Palantir entwickelten Tools heißt „Gotham“, eine Anspielung auf die fiktive Stadt aus den Batman-Geschichten, in der ein millionenschwerer Rächer namens Batman Kriminelle in der korrupten und von Verbrechen heimgesuchten Stadt Gotham bekämpft. Palantir bezeichnet die Software daher auch als „Waffensystem“.

Die Identifikation mit Schurken der Populärkultur geschieht aber auch durch Andere. Die US-Einwanderungsbehörde ICE verglich sich selbst mit Darth Vader aus Star Wars, Trump sagte in einem Treffen mit Zohran Mamdani, „Sie können mich einen Faschisten nennen“, Benjamin Netanjahu nannte Israels Operation zur Ermordung wichtiger iranischer Führer und Militärkommandanten „Operation Red Wedding“ (Rote Hochzeit), eine Anspielung auf die Massenszene aus den Büchern und der Fernsehserie Game of Thrones, in der unbewaffnete Unschuldige ermordet werden. Israels Krieg gegen den Iran im Juni 2025 wurde „Rising Lion“ genannt, eine biblische Anspielung aus dem Buch Numeri, in dem es weiter heißt: „Er wird sich nicht niederlegen, bis er von der Beute gegessen und das Blut der Erschlagenen getrunken hat.“ Diese Akteure scheuen sich also nicht, sich mit dem Bösen zu assoziieren, aber sie haben noch etwas anderes gemeinsam: Sie sind alle Kunden von Palantir.

Kunden von Palantir

Palantir verkauft nicht nur die Werkzeuge für Überwachung und Herrschaft, die es möglich, ja sogar leicht machen, Menschen- und Bürgerrechte zu verletzen, sondern nutzt auch seine tyrannischen Bilder und Popkultur-Referenzen, um seinen Kunden das Gefühl zu geben, Tyrannen zu sein. Ein Vertrag mit Palantir ist daher nicht nur eine Frage der Überwachungsmacht, sondern auch ein politisches Statement: eine Parteinahme für weiße Vorherrschaft, Militarismus und Kolonialismus gegen progressive Ideale wie Gerechtigkeit, Gleichheit und Freiheit.

Nach der pro-kolonialistischen Rede des US-Außenministers Marco Rubio auf dem Münchner Sicherheitsgipfel, die als „unheilvolles Plädoyer für schamlosen westlichen Imperialismus” bezeichnet wurde, sagte Joe Lonsdale, Mitbegründer von Palantir:

„Eine wichtige Rede von Außenminister Rubio. Diese US-Regierung kümmert sich sehr um den Westen und ist für Europa so viel besser, als ihre Führer und die politische Klasse erkennen. Ich hoffe, sie hören zu.”

In einer durchgesickerten Audioaufnahme des Sexualstraftäters Jeffrey Epstein empfahl er dem ehemaligen israelischen Verteidigungsminister Ehud Barak, sich „Palantir anzuschauen“. Tatsächlich gehört das israelische Verteidigungsministerium zu den ersten Kunden von Palantir. Palantir stellte seine KI-Tools dem israelischen Militär zur Verfügung. Palantir erweiterte seine Zusammenarbeit mit Israel, als der Völkermord im Gazastreifen begann. Es erklärte, „wir stehen zu Israel“, und hielt seine Vorstandssitzung im Januar 2024 in Tel Aviv ab.

Palantir in Gaza, Libanon und Venezuela

Israel setzte KI als Waffe ein, um eine große Anzahl von „Zielen“ in Gaza zu generieren, wobei bis zu 100 zivile Opfer pro Angriff als „Kollateralschaden“ in Kauf genommen wurden. Der israelische Geheimdienst nutzte KI, um 40.000 Ziele zu generieren, und wenn man den maximalen akzeptierten Kollateralschaden dafür berechnet, ist dieser größer als die Bevölkerung des gesamten Gazastreifens. Microsoft, Google und Amazon stellten Israel Cloud-Dienste, Server und Schnittstellenprogramme zur Verfügung, um die Verwaltung der enormen Mengen an Überwachungsdaten zu unterstützen, die von Drohnen, Soldaten, Gesichtserkennungs-Tools und gehackten Telefonen gesammelt wurden, aber die israelische Armee bestand darauf, dass die Ziele selbst von KI generiert wurden. Alle Tech-Giganten bestritten eine Beteiligung an diesem Teil der Militarisierung der KI. Palantir bleibt aber der Hauptverdächtige für die Bereitstellung der Algorithmen, die das israelische Militär bei der Begehung des Völkermords unterstützt haben.

Darüber hinaus startete Israel am 18. September 2024 einen Pager-Angriff im Libanon. Bei dem Angriff wurden mindestens 32 Menschen getötet, darunter zwei Kinder, und 3.250 Menschen verstümmelt und verletzt. Die UNO verurteilte den Angriff als Verstoß gegen das Völkerrecht. Israel bekannte sich stolz zu dem Angriff und ein Mossad-Agent gab der Sendung „60 Minutes“ hierzu ein Interview. In seiner Autobiografie behauptet Karp, dass Israel sich bei der Durchführung des Angriffs auf die Technologie von Palantir verlassen habe.

Amnesty International wies darauf hin, dass Palantir-Tools in den USA eingesetzt wurden, um die Menschenrechte und die Meinungsfreiheit palästinensischer und pro-palästinensischer Demonstranten zu verletzen und um Migranten zu überwachen und ihre Rechte zu verletzen. Der UN-Bericht über die Unternehmen, die den Völkermord in Gaza ermöglichen, erwähnt auch Palantir als ein Unternehmen, das die Tötung von Palästinensern in Gaza erleichtert.

Wie der ehemalige griechische Finanzminister Yannis Varoufakis sagte, ist Gaza zu einem Testfeld für gefährliche Technologien geworden, die die gesamte Menschheit bedrohen. Er erwähnt ein Gespräch, das er mit einem Mitarbeiter von Palantir darüber geführt hat, wie Massenüberwachung eingesetzt wird, um den Aufenthaltsort ganzer Bevölkerungsgruppen in Echtzeit zu verfolgen. Zuerst in Gaza, dann aber auch in Europa.

Die militärtaugliche Technologie von Palantir trat auch in Erscheinung, als die USA Palantir-Tools zusammen mit Anthropic (dem KI-Unternehmen, das den Chatbot Claude entwickelt hat) einsetzten, um Präsident Maduro und seine Frau am 3. Januar 2026 aus Venezuela zu entführen. Die USA verfügten über Informationen über den genauen Einsatz der Luftabwehr und sogar über den Standort des Sicherheitsraums im Präsidentenpalast.

Die Trump-Regierung rechtfertigt den Einsatz von Militärtechnologie gegen US-Bürger mit rassistischen Argumenten über Migranten. Die US-Regierung rüstet das Heimatschutzministerium (DHS) und dessen bewaffneten Zweig ICE mit Palantir-Tools aus.

Widerstand gegen Palantir weltweit

Das American Friends Service Committee (AFSC) startete in den USA eine Protestkampagne gegen Palantir mit der einleitenden Zeile: „Der US-Technologiegigant Palantir unterstützt offen den Völkermord Israels in Gaza.“ ICE ist die bewaffnete Organisation, die zur Abschiebung von Migranten in den USA eingesetzt wird und seit September bereits 13 Menschen erschossen hat, darunter zwei US-Bürger, bei der Jagd auf undokumentierte Einwanderer. Die Sicherheitsforscherin Sophia Goodfriend kommentierte, dass die ICE-Operationen in den USA den Taktiken der israelischen Besatzungstruppen in Palästina ähneln und dass dies zu erwarten sei, wenn die Militärtechnologie von Palantir von den Strafverfolgungsbehörden eingesetzt wird.

In Großbritannien erhielt Palantir einen Auftrag des Verteidigungsministeriums im Wert von 240 Millionen Pfund, nachdem es viele ehemalige leitende Mitarbeiter des Verteidigungsministeriums eingestellt hatte. Palantir unterzeichnete außerdem einen Vertrag über 330 Millionen Pfund mit dem National Health Service (NHS), woraufhin Ärzte davor warnten, dass Patienten das Vertrauen in ein System verlieren würden, das auf so invasive Weise personenbezogene Daten durch ein moralisch so verwerfliches Unternehmen sammelt. Die britische Grüne Partei fordert das Gesundheitsministerium auf, den Vertrag mit Palantir zu kündigen.

Die British Medical Association warnte, dass die von Palantir im Rahmen seines Vertrags mit dem NHS gesammelten medizinischen Informationen für militärische Zwecke und zur Verfolgung von Migranten verwendet werden könnten. Britische zivilgesellschaftliche Organisationen starteten eine Kampagne gegen den Einsatz von Palantir im britischen Gesundheitssystem.

Die New York City Health and Hospital Corporation unterzeichnete ebenfalls einen Vertrag mit Palantir, um Patienten zu verfolgen, die nicht ausreichend versichert sind oder ihre Gesundheitsleistungen nicht bezahlt haben, woraufhin The Intercept warnte, dass das System von Palantir Patienten in New Yorker Krankenhäusern der Überwachung durch US-Geheimdienste wie der NSA und ICE aussetzt.

In der Schweiz lehnten die Regierung und die Armee einen Vertrag mit Palantir ab. Die Zeitung Die Republik enthüllte, dass die Ablehnung durch Bedenken ausgelöst wurde, dass ein Vertrag mit Palantir ein Sicherheitsrisiko für die Schweiz darstellen und ihre Souveränität untergraben könnte, indem er die Abhängigkeit von einem US-Unternehmen erhöht. Palantir reagierte darauf mit einer Klage gegen Die Republik. Es ist eine bemerkenswerte Ironie, dass ein Unternehmen, das sich der Überwachung und der Gewinnung von Informationen über Menschen gegen deren Willen widmet, empört ist, wenn eine Zeitung wenig schmeichelhafte Informationen über es veröffentlicht. Aber tatsächlich zeigt der Fall deutlich den Unterschied zwischen Überwachung und Journalismus.

In den meisten Teilen Europas hingegen macht Palantir rasch Fortschritte und unterzeichnet Verträge mit Regierungen und privaten Einrichtungen, wodurch das Unternehmen seinen Einfluss ausweitet und immer mehr Daten über europäische Bürger sammelt. Diese Daten verschaffen den USA mehr Macht über Europa. Wie der Einsatz von Palantir bei dem Angriff auf Venezuela und der Entführung seines Präsidenten zeigt, reicht die Datendurchdringung aus, um die Souveränität sofort zu untergraben.

Palantir und Baden-Württemberg

Die grün-schwarze Koalition Baden-Württembergs unter Ministerpräsident Winfried Kretschmann ist dennoch eine Zusammenarbeit mit Palantir eingegangen. Der Vertrag wurde im Frühjahr 2025 von Innenminister Thomas Strobl (CDU) unterzeichnet, obwohl das Gesetz es der Regierung nicht erlaubte, die Daten von Bürgern an ein ausländisches Unternehmen weiterzugeben.

Die Grünen in Deutschland sind meilenweit von den britischen Grünen und der Schweizer Regierung entfernt. Dr. Franziska Branter verfasste im November 2025 einen Sechs-Punkte-Plan für digitale Freiheit. Punkt 1 ist die Aufhebung von Monopolen, aber Thomas Strobl rechtfertigte die Beauftragung von Palantir damit, dass sie „führend auf diesem Gebiet“ seien. Punkt 3 lautet, „Trump und neuen Tech-Oligarchen effektiv die Stirn bieten“. Punkt 4 lautet, Europäische Digitale Souveränität entschlossen voranbringen!“.

Sechs Tage nachdem Brantner diese sechs Punkte veröffentlicht hatte, verabschiedete der Landtag von Baden-Württemberg ein Gesetz, um den Vertrag mit Palantir zu ermöglichen. Die Grünen stimmten dafür im Austausch für die Erweiterung eines Schwarzwaldparks um 1.500 Hektar. Das Gesetz stellt sicher, dass die Datenverwaltung Baden-Württembergs nicht im Wettbewerb zwischen verschiedenen Unternehmen erfolgt. Die Daten werden trump-freundlichen Tech-Oligarchen zur Verfügung gestellt, was die digitale Souveränität Europas untergräbt.

Auf die Frage des Autors antwortete die Polizei Baden-Württemberg, dass der Vertrag mit Palantir das Unternehmen daran hindere, auf Daten der Polizei Baden-Württemberg zuzugreifen und Hintertüren zu installieren, dass das Fraunhofer-Institut den Quellcode überprüft habe, um sicherzustellen, dass keine Datenlecks und unbefugte Zugriffe auftreten, dass eine Trennung zwischen dem Palantir-System und dem öffentlichen Netz besteht und dass die Wartung des Systems nur unter polizeilicher Aufsicht durchgeführt werden könne. Der Einsatz von Palantir sei zeitlich begrenzt und diene derzeit dazu, die erforderlichen Fähigkeiten sofort bereitzustellen. Die Polizeisprecherin fügte hinzu, dass zur Gewährleistung der Transparenz in Bezug auf das neue Tool auch die parlamentarische Kontrolle ausgeweitet worden sei. Die Polizei versichert außerdem, dass die von Baden-Württemberg erworbenen Palantir-Tools nicht zur Erfassung von Überwachungsmaterial verwendet werden, sondern zur Aggregation, Analyse und zum Abgleich von Informationen, die aus anderen Quellen stammen.

Dies entspricht allerdings der Art und Weise, wie Palantir-Tools in Gaza und Venezuela eingesetzt wurden, was die Macht demonstriert, die diese Tools den Behörden verleihen.

Palantir in Nordrhein-Westfalen

Auch Nordrhein-Westfalen hat Palantir-Tools zur Überwachung der Bevölkerung angeschafft. Der Vertrag sieht vor, dass die Palantir-Software für „präventive Polizeiarbeit” eingesetzt werden soll – also zur Verfolgung von Personen, die noch keine Straftat begangen haben, bei denen der Computer jedoch eine hohe Wahrscheinlichkeit dafür sieht. Obwohl die Software nur für schwere Straftaten wie Terrorismus und sexuelle Gewalt gegen Kinder eingesetzt werden darf, berichten die Strafverfolgungsbehörden von Nordrhein-Westfalen, dass 2.034 Beamte die Software in den letzten 6 Monaten genutzt haben und dass die Datenschutzbeauftragte Bettina Gayk die Befugnis hat, die Protokolle zu jeder Person einzusehen.

Aktivismus gegen Palantir in Deutschland

Die Gruppe Tadamun („Solidarität“ auf Arabisch) ist eine palästinensische Solidaritätsgruppe in Baden-Württemberg, die sich für den Aufbau einer breiten Allianz für Solidarität mit Palästina, Solidarität mit dem Sudan und Antirassismus einsetzt. Für diesen Artikel sprach der Autor mit Ahmed, einem Mitglied der Gruppe Tadamun. Er erklärte:

Als wir erfuhren, dass Baden-Württemberg beabsichtigt, Palantir-Tools zu kaufen, fanden wir bei unseren Recherchen alarmierende Verbindungen zum andauernden Völkermord in Gaza. Wir glauben, dass es Potenzial für einen gemeinsamen Kampf der baden-württembergischen Zivilgesellschaft gegen Palantir und für Solidarität mit Palästina gibt, aber leider weigerten sich einige Organisationen, die Solidarität mit Palästina in die Kampagne einzubeziehen, und ignorierten die Art und Weise, wie Palantir-Tools an Palästinensern in Gaza getestet wurden. Tadamun ist dennoch Teil der „Anti-Palantir-Koalition“. Obwohl Baden-Württemberg Palantir gekauft hat und damit eine neue Form der politischen Unterdrückung gegen bürgerliche Freiheiten, einschließlich der Solidarität mit Palästina, geschaffen hat, verbreiten wir Informationen und setzen den Protest fort.“

Tadamun veröffentlichte eine umfangreiche Untersuchung über die Gefahren, die der Vertrag in Baden-Württemberg aus ihrer Sicht mit sich bringt. Der Vertrag über 25 Millionen Euro verspricht, „Richtlinien zur Stärkung der Sicherheit, zur Steuerung der Migration und zur Verhinderung von Radikalisierung“ und die Implementierung der Systeme Gotham und Foundry von Palantir. Tadamun warnt davor, dass die Tools von Palantir illegales „Racial Profiling“ durch die Polizei erleichtern würden.

Tadamun engagiert sich weiter gegen den Palantir-Vertrag und stellt folgende Forderungen: KI-gestützte Polizeiarbeit, Massenüberwachung, rassistische Profilerstellung und Datenerfassung durch Palantir und ähnliche Unternehmen zu verbieten und Verbrechen wie Völkermord, Kriegsverbrechen und Menschenrechtsverletzungen nicht durch die Beauftragung von Unternehmen, die an solchen Verbrechen beteiligt sind, zu normalisieren.

Die Kampagne gegen Palantir in Baden-Württemberg ist gespalten. Die mangelnde Bereitschaft einiger Menschenrechts- und Datenschutzgruppen, mit Palästinensern zusammenzuarbeiten, könnte es der grün-schwarzen Koalition ermöglicht haben, die umstrittene Software zu kaufen. Aus Sicht von Palantir war die Entscheidung, ihre Technologie an Israel zu verkaufen, um sie als Instrument der Apartheid, Besatzung und des Völkermords einzusetzen und sie an Palästinensern zu testen, eine wirksame Strategie, da es vielen Deutschen offensichtlich schwerfällt, die Menschlichkeit der Palästinenser als Opfer der Überwachung durch Palantir zu erkennen. Und nun ist die Polizei von Baden-Württemberg mit dieser Technologie ausgerüstet.

Trotz der Rückschläge in den USA, Großbritannien und Deutschland hat die palästinensische BDS-Bewegung eine weltweite Kampagne gegen Palantir angestoßen. Sie hat eine Übersicht erstellt, in der sie ihre Vorwürfe gegen Palantir, insbesondere die Vorwürfe von Verbrechen gegen die Palästinenser, auflistet. Auch als Warnung, dass die Bevölkerungen anderer Staaten die Nächsten sein könnten. In Ländern, in denen die Rechte der Palästinenser nicht als „kontrovers” gelten, wird die Kampagne gegen Palantir breiter und stärker sein. Deutsche, die sich vor gefährlicher Überwachung schützen wollen, sollten bedenken, dass Rassismus zu Repressionen führen kann, wie es jetzt schon in den USA der Fall ist.

(Aus dem Englischen übersetzt von Maike Gosch)

Titelbild: Alan Mazzocco / Shutterstock

(Auszug von RSS-Feed)

Wie eine KI sich selbst entlarvt

22. Januar 2026 um 15:52

Vorschau ansehen

veröffentlicht am 23.01.2026; Autoren: Werner Gertz und Perplexity.AI In meinem Artikel vom 24. Juli 2025 mit dem Titel „Künstliche Intelligenz im Vergleich: Wie KI-Systeme mit Fragen zu Masern-Impfnebenwirkungen umgehen“ hatte ich am Beispiel einiger KI-Systeme beschrieben, dass sie ihre Antworten aus einer internen Datenbasis beziehen, mit der sie trainiert worden sind. Einige KI-Systeme konnten zusätzlich […]

Der Beitrag Wie eine KI sich selbst entlarvt erschien zuerst auf MWGFD.

(Auszug von RSS-Feed)

Rentenloch, Roboter und Reibach – warum eine Kapitaltransaktionssteuer der wahre Systemtest wäre

08. Oktober 2025 um 08:37

Vorschau ansehen

Die Zeiten ändern sich, so auch die wirtschaftliche Grundlage der Gesellschaft. So wie das Industriezeitalter für Verwerfungen und Umwälzungen sorgte, wird es nun auch in …

Der Beitrag Rentenloch, Roboter und Reibach – warum eine Kapitaltransaktionssteuer der wahre Systemtest wäre erschien zuerst auf Contra24.

(Auszug von RSS-Feed)
❌