NEWS 23

🔒
❌
Stats
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere Beiträge

Wenn Maschinen töten lernen – über den schleichenden Übergang vom menschlichen zum automatisierten Krieg

21. März 2026 um 11:00

Vorschau ansehen

Der Krieg verändert sich. Nicht schlagartig, nicht mit einem klaren Bruch, sondern schleichend, fast unbemerkt. Während die öffentliche Aufmerksamkeit weiterhin auf Frontverläufe, Waffenlieferungen und geopolitische Strategien gerichtet ist, vollzieht sich im Hintergrund eine Entwicklung, die das Wesen militärischer Gewalt grundlegend infrage stellt. Es ist der Moment, in dem der Mensch beginnt, die Kontrolle über das unmittelbare Töten an Maschinen abzugeben. Von Günther Burbach.

Dieser Beitrag ist auch als Audio-Podcast verfügbar.

Der Krieg in der Ukraine gilt mittlerweile als ein solcher Wendepunkt. Was lange als Zukunftsszenario diskutiert wurde, ist dort zur Realität geworden. Künstliche Intelligenz, autonome Systeme und robotische Plattformen werden nicht mehr nur getestet, sondern im Gefecht eingesetzt. Die Ukraine ist damit nicht nur ein Schauplatz militärischer Auseinandersetzungen, sondern auch ein reales Versuchsfeld für eine neue Form der Kriegsführung.

Drohnen spielen in diesem Zusammenhang eine zentrale Rolle. Sie sind längst mehr als ferngesteuerte Fluggeräte. Moderne Systeme sind in der Lage, Zielstrukturen eigenständig zu erkennen, Bewegungen zu analysieren und Angriffe vorzubereiten. Künstliche Intelligenz hilft dabei, große Datenmengen auszuwerten und daraus Handlungsempfehlungen abzuleiten. In der Praxis bedeutet das: Die Maschine erkennt ein Ziel, bewertet dessen Relevanz und führt den Angriff unter Umständen auch dann fort, wenn die Verbindung zum menschlichen Operator unterbrochen ist.

Diese Entwicklung ist nicht hypothetisch. Sie ist dokumentiert. Berichte zeigen, dass KI-gestützte Systeme bereits eingesetzt werden, um Drohnen in ihrer Zielsuche zu unterstützen und ihre Treffgenauigkeit zu erhöhen. In einem Umfeld, in dem elektronische Störmaßnahmen zunehmen und Kommunikationsverbindungen instabil sind, wird diese Fähigkeit zu einem entscheidenden militärischen Vorteil. Der Preis dafür ist jedoch hoch: Mit jeder Entscheidung, die von der Maschine vorbereitet oder getroffen wird, entfernt sich der Mensch ein Stück weiter vom unmittelbaren Geschehen.

Noch deutlicher wird diese Verschiebung beim Einsatz sogenannter Bodenroboter. Diese Systeme bewegen sich eigenständig durch das Gelände, transportieren Material oder werden direkt bewaffnet eingesetzt. In einzelnen Fällen eröffnen sie selbstständig das Feuer auf identifizierte Ziele. Was früher ausschließlich Soldaten vorbehalten war, wird zunehmend von Maschinen übernommen. Die Distanz zwischen Entscheidung und Wirkung wächst. Derjenige, der den Befehl gibt, befindet sich oft nicht mehr im Gefechtsfeld, sondern in sicherer Entfernung, während die Maschine vor Ort agiert.

Hinzu kommt eine weitere Entwicklung, die den Charakter des Krieges verändert. Roboter und Drohnen werden miteinander vernetzt. Bodenfahrzeuge dienen als mobile Plattformen, von denen aus Drohnen gestartet werden können. Diese wiederum sammeln Daten, identifizieren Ziele und geben Informationen zurück an andere Systeme. Es entsteht ein Netzwerk, in dem Maschinen miteinander kommunizieren und Aufgaben koordinieren. Der Mensch ist Teil dieses Systems, aber nicht mehr dessen Zentrum.

Wer haftet?

Diese Form der Kriegsführung hat mehrere Konsequenzen. Zum einen erhöht sie die Geschwindigkeit militärischer Entscheidungen. Daten werden in Echtzeit verarbeitet, Ziele schneller identifiziert, Angriffe schneller ausgeführt. Zum anderen verändert sie die Wahrnehmung von Verantwortung. Wenn Entscheidungen zunehmend von Algorithmen vorbereitet werden, stellt sich die Frage, wer für Fehler haftet. Ist es der Programmierer, der die Software entwickelt hat? Der Kommandeur, der den Einsatz genehmigt? Oder das System selbst, das auf Grundlage von Wahrscheinlichkeiten handelt?

Die Problematik verschärft sich, wenn man die Grenzen dieser Systeme betrachtet. Künstliche Intelligenz arbeitet mit Daten. Sie erkennt Muster, trifft Wahrscheinlichkeitsaussagen und optimiert Prozesse. Doch sie versteht nicht im menschlichen Sinne. Sie kennt keine moralischen Kategorien, keine Empathie, keine Abwägung im Sinne ethischer Verantwortung. Entscheidungen werden auf Basis von Parametern getroffen, nicht auf Grundlage eines Bewusstseins für die Konsequenzen. Gerade in komplexen Kriegssituationen ist dies ein erhebliches Risiko. Gefechtsfelder sind unübersichtlich, Informationen unvollständig, Situationen dynamisch. Fehlinterpretationen sind nicht die Ausnahme, sondern die Regel. Wenn in solchen Kontexten Systeme eingesetzt werden, die auf Wahrscheinlichkeiten reagieren, steigt die Gefahr von Fehlentscheidungen. Ein falsch identifiziertes Ziel, eine fehlerhafte Datengrundlage oder eine unzureichende Kontextanalyse können tödliche Folgen haben.

Hinzu kommt ein weiterer Aspekt, der in der öffentlichen Debatte oft unterschätzt wird. Mit der zunehmenden Automatisierung des Krieges verändert sich auch die Schwelle zur Gewalt. Wenn Soldaten nicht mehr unmittelbar gefährdet sind, wenn Entscheidungen aus sicherer Entfernung getroffen werden können, sinkt die Hemmschwelle für militärische Einsätze. Krieg wird technischer, abstrakter, weniger sichtbar. Das Risiko verlagert sich, weg von den Entscheidern, hin zu den Betroffenen. Diese Entwicklung ist nicht auf die Ukraine beschränkt. Sie ist Teil eines globalen Trends. Staaten investieren zunehmend in autonome Waffensysteme, in KI-gestützte Analyseplattformen und in robotische Technologien. Der Wettbewerb um technologische Überlegenheit wird zum entscheidenden Faktor militärischer Strategien. Wer schneller analysieren, präziser treffen und effizienter operieren kann, verschafft sich einen Vorteil.

Doch dieser Vorteil hat eine Kehrseite. Mit jeder technologischen Innovation wächst auch die Komplexität der Systeme. Die Kontrolle wird schwieriger, die Transparenz geringer. Entscheidungen entstehen in Black Boxes, deren Funktionsweise selbst für Experten nicht immer vollständig nachvollziehbar ist. Vertrauen ersetzt Verständnis, Geschwindigkeit ersetzt Kontrolle. Was sich derzeit abzeichnet, ist daher mehr als nur eine technologische Entwicklung. Es ist ein grundlegender Wandel im Verhältnis zwischen Mensch und Gewalt.

Der Krieg, wie er über Jahrhunderte geführt wurde, war immer an menschliche Entscheidungen gebunden. Selbst in den brutalsten Auseinandersetzungen blieb der Mensch derjenige, der letztlich handelte. Diese Verbindung beginnt sich aufzulösen. Der Ukraine-Krieg zeigt, wie weit dieser Prozess bereits fortgeschritten ist. Maschinen erkennen, analysieren und agieren. Der Mensch bleibt formal in der Entscheidungsschleife, doch seine Rolle verändert sich. Er überwacht Systeme, bewertet Ergebnisse und greift ein, wenn es notwendig erscheint. Doch die operative Ebene wird zunehmend von Technologien bestimmt, die schneller reagieren als jeder Mensch.

Diese Entwicklung wirft eine grundlegende Frage auf: Was passiert, wenn Maschinen nicht mehr nur unterstützen, sondern entscheiden? Wenn der Moment, in dem ein Ziel ausgewählt wird, nicht mehr bewusst erlebt, sondern algorithmisch berechnet wird? Die Antwort darauf ist noch offen. Sicher ist jedoch, dass der Krieg, wie wir ihn kennen, sich bereits verändert hat. Und genau darin liegt die eigentliche Dramatik. Nicht in spektakulären Einzelfällen, sondern in der stillen Verschiebung von Verantwortung, Kontrolle und Entscheidungsgewalt. Der Übergang vom menschlichen zum automatisierten Krieg ist kein Szenario der Zukunft mehr. Er hat begonnen.

Ein neues Zeitalter ist angebrochen

Was sich im Ukraine-Krieg abzeichnet, ist nicht nur eine technologische Entwicklung, sondern der Beginn eines neuen militärischen Zeitalters. Die Einführung autonomer Systeme verändert nicht nur, wie Kriege geführt werden, sondern auch, wie über Krieg entschieden wird. Denn mit der Automatisierung der Gefechtsführung verschiebt sich die Verantwortung und mit ihr die Schwelle zur Gewalt. Der entscheidende Punkt liegt dabei nicht in der einzelnen Maschine, nicht im einzelnen Roboter oder in der einzelnen Drohne. Es ist das Zusammenspiel dieser Systeme, das eine neue Qualität schafft. Künstliche Intelligenz analysiert Daten, identifiziert Ziele, priorisiert Bedrohungen und liefert Handlungsempfehlungen. Roboter bewegen sich im Gelände, Drohnen greifen aus der Luft an, Verteidigungssysteme reagieren automatisiert auf erkannte Ziele. Es entsteht ein Geflecht aus Technologien, das immer schneller, immer effizienter und immer unabhängiger vom Menschen operiert.

In dieser Entwicklung liegt eine Dynamik, die schwer zu kontrollieren ist. Denn Geschwindigkeit wird zum entscheidenden Faktor. Militärische Systeme sind darauf ausgelegt, schneller zu reagieren als der Gegner. Entscheidungen müssen in Sekunden getroffen werden, manchmal in Millisekunden. In einem solchen Umfeld wird der Mensch zunehmend zum Bremsfaktor.

Die Versuchung wächst, Entscheidungen vollständig zu automatisieren, nicht aus ideologischen Gründen, sondern aus militärischer Logik. Hier beginnt das eigentliche Problem. Wenn Maschinen Entscheidungen treffen, geschieht dies auf Grundlage von Daten und Algorithmen. Diese Systeme sind darauf programmiert, Muster zu erkennen und Wahrscheinlichkeiten zu berechnen. Doch sie sind nicht in der Lage, den Kontext eines Geschehens im menschlichen Sinne zu verstehen. Sie können nicht zwischen einem militärischen Ziel und einer zivilen Struktur unterscheiden, wenn die Datenlage unklar ist. Sie kennen keine Zweifel, keine moralische Abwägung, keine Verantwortung.

Gerade in asymmetrischen Konflikten, in denen militärische und zivile Strukturen eng miteinander verwoben sind, ist dies ein erhebliches Risiko. Fehlerhafte Entscheidungen sind nicht nur möglich, sondern wahrscheinlich. Ein falsch identifiziertes Ziel kann zu zivilen Opfern führen, ein falsch interpretierter Bewegungsablauf zu einem Angriff, der nie hätte stattfinden dürfen.

Wenn solche Entscheidungen von Maschinen vorbereitet oder getroffen werden, stellt sich die Frage, wer dafür Verantwortung übernimmt. Diese Frage bleibt bislang unbeantwortet. Weder auf nationaler noch auf internationaler Ebene existieren verbindliche Regeln für den Einsatz autonomer Waffensysteme. Diskussionen über sogenannte „Killerroboter“ werden seit Jahren geführt, doch konkrete Vereinbarungen sind ausgeblieben. Staaten, die über die entsprechenden technologischen Fähigkeiten verfügen, haben wenig Interesse daran, ihre Handlungsspielräume einzuschränken. Im Gegenteil: Die Entwicklung autonomer Systeme wird aktiv vorangetrieben.

Damit entsteht eine Situation, die an frühere Rüstungswettläufe erinnert. Doch im Gegensatz zu klassischen Waffensystemen ist die Schwelle zur Entwicklung hier deutlich niedriger. Künstliche Intelligenz basiert auf Software, auf Daten und auf Rechenleistung. Viele dieser Komponenten sind zivil verfügbar. Universitäten, Start-ups und Technologieunternehmen arbeiten an Anwendungen, die sich relativ leicht in militärische Systeme integrieren lassen. Die Grenze zwischen ziviler und militärischer Nutzung verschwimmt.

Das führt zu einer weiteren problematischen Entwicklung. Technologie, die ursprünglich für zivile Zwecke entwickelt wurde, findet ihren Weg in militärische Anwendungen. Bildverarbeitung, Spracherkennung, Datenanalyse, all das sind Technologien, die im Alltag genutzt werden, aber auch in der Kriegsführung eine zentrale Rolle spielen. Unternehmen, die diese Systeme entwickeln, werden damit Teil eines militärischen Ökosystems, oft ohne dass dies öffentlich sichtbar wird.

Gleichzeitig verändert sich die Wahrnehmung von Krieg. Wenn Maschinen einen Großteil der operativen Aufgaben übernehmen, rückt das menschliche Leid weiter in den Hintergrund. Der Krieg wird technischer, abstrakter, weniger greifbar. Bilder von zerstörten Städten und verletzten Menschen werden ersetzt durch Datenströme, Zielkoordinaten und algorithmische Entscheidungen. Diese Entkopplung von Handlung und Wirkung birgt die Gefahr, dass Gewalt leichter akzeptiert wird.

Ein weiterer Aspekt ist die zunehmende Entpersonalisierung des Gegners. Wenn Ziele durch Algorithmen identifiziert werden, reduziert sich der Gegner auf ein Datenset, auf ein Muster, das erkannt und bekämpft werden muss. Die individuelle Wahrnehmung verschwindet. Der Gegner ist nicht mehr ein Mensch, sondern ein Objekt im System. Diese Perspektive verändert auch die Art und Weise, wie Entscheidungen getroffen werden. Sie macht den Einsatz von Gewalt rationaler, effizienter und gleichzeitig entmenschlichter.

Langfristige Folgen

Die langfristigen Folgen dieser Entwicklung sind schwer abzuschätzen. Klar ist jedoch, dass sich die Struktur militärischer Konflikte verändert. Der Einsatz autonomer Systeme könnte dazu führen, dass Kriege häufiger geführt werden, weil die eigenen Verluste sinken. Gleichzeitig steigt das Risiko unkontrollierter Eskalationen. Wenn Systeme aufeinander reagieren, wenn Algorithmen Entscheidungen treffen, ohne dass ein Mensch eingreift, kann sich eine Dynamik entwickeln, die kaum noch steuerbar ist.

Besonders kritisch wird es, wenn mehrere Staaten solche Systeme gleichzeitig einsetzen. In einem Szenario, in dem autonome Waffen auf beiden Seiten agieren, entsteht eine Situation, in der Maschinen auf Maschinen reagieren. Entscheidungen werden beschleunigt, Reaktionszeiten verkürzt, Fehlinterpretationen wahrscheinlicher. Ein einzelner Fehler kann dann ausreichen, um eine Eskalation auszulösen, die sich nicht mehr stoppen lässt. Vor diesem Hintergrund erscheint der Ukraine-Krieg in einem neuen Licht. Er ist nicht nur ein geopolitischer Konflikt, sondern auch ein Experimentierfeld für Technologien, die die Zukunft der Kriegsführung prägen könnten. Was dort getestet wird, wird morgen möglicherweise in anderen Regionen eingesetzt. Die Entwicklung, die heute noch als Ausnahme erscheint, könnte in wenigen Jahren zum Standard werden.

Das wirft eine grundlegende Frage auf: Ist die Gesellschaft bereit für diese Form der Kriegsführung? Die öffentliche Debatte hinkt der technologischen Entwicklung deutlich hinterher. Während autonome Systeme bereits eingesetzt werden, wird auf politischer Ebene noch über ihre Regulierung diskutiert. Diese Diskrepanz zwischen technischer Realität und politischer Steuerung ist ein zentrales Problem.

Am Ende steht eine Erkenntnis, die so einfach wie beunruhigend ist. Die Entscheidung über Leben und Tod beginnt, sich vom Menschen zu lösen. Sie wird nicht vollständig an Maschinen abgegeben, aber sie wird zunehmend von ihnen beeinflusst. Der Mensch bleibt formal verantwortlich, doch die Grundlage seiner Entscheidungen verändert sich. Sie wird technischer, komplexer und schwerer nachvollziehbar.

Damit stellt sich eine Frage, die über den konkreten Konflikt hinausgeht. Wenn Maschinen töten lernen, was bedeutet das für das Verständnis von Verantwortung, von Schuld und von moralischem Handeln? Der Krieg verliert nicht nur seine menschliche Dimension, er verändert auch die Grundlagen, auf denen über ihn entschieden wird.

Die Entwicklung hat begonnen. Und sie wird sich nicht von selbst aufhalten.

Quellen:

Titelbild: Andrey Suslov / Shutterstock

(Auszug von RSS-Feed)

Künstliche Intelligenz: Echtes Leben oder nicht?

20. März 2026 um 10:00

Vorschau ansehen

Künstliche Intelligenz (KI) – die Ansichten, ob sie eine große Gefahr für die Menschheit ist, gehen auseinander. Der Physiker Alexander Unzicker beleuchtet in seinem aktuellen Buch „Was tun mit der Menschheit?: Das Buch, das jede KI lesen muss“ die Gefahren und Hoffnungen, die mit der Entwicklung der KI verbunden sind. Im NachDenkSeiten-Interview geht es um die Fragen, ob eine KI einen eigenen Willen entwickeln wird, ob sie als „echtes Leben“ verstanden werden kann und um das Gedankenspiel, ob eine „Superintelligenz“ ein Interesse daran haben könnte, die Menschheit auszulöschen. Von Marcus Klöckner.

Die Künstliche Intelligenz, die KI, ist auf dem Vormarsch. Die einen betrachten sie als großartige Entwicklung, die anderen als Gefahr für die Menschheit. Dürfen wir Ihre Sicht erfahren?

Erstmal ist beides richtig. Aber KI ist sicher nicht nur großartig in dem Sinn, dass sie uns ein Schlaraffenland bescheren wird. Es gibt ganz reale Gefahren.

Ist das mit dem Schlaraffenland nicht ohnehin eine Überschätzung der KI?

Das würde ich nicht sagen. Im Gegenteil, die technologische Umwälzung, die uns bevorsteht, haben wir zu wenig auf dem Radar. Das ist eigentlich die erste Botschaft des Buches. Ich bin ja sonst nicht wissenschaftsgläubig, aber ich sehe, dass das Gehirn im Wesentlichen bereits nachgebaut wurde. Das muss man sich klar machen.

Wie meinen Sie das mit „dass das Gehirn im Wesentlichen bereits nachgebaut wurde“? Doch sicher nicht im Detail!

Naja, wie funktioniert unser Gehirn? Sinnesreize aktivieren Nervenzellen, diese leiten die Signale über Synapsen weiter. Es ist seit langem bekannt, dass das Gedächtnis in diesen Synapsen liegt. Nervenzellen und Synapsen kann man problemlos im Rechner simulieren, einschließlich der Regeln, wie sie lernen. Es gibt keinen prinzipiellen Unterschied in der Informationsverarbeitung zwischen dem, was ChatGPT macht, und unserem Gehirn.

Sie schreiben in Ihrem Buch, dass gute Freunde von Ihnen Sie immer mal wieder warnen vor der Entwicklung im KI-Bereich im Hinblick auf die Möglichkeiten der Überwachung und Kontrolle von Menschen. Das scheinen Sie auch kritisch zu sehen, oder?

„Kritisch“ ist noch untertrieben. Man kann sich alle möglichen Dystopien ausmalen, auch eine Art Upgrade von George Orwells „1984“ mit einer totalitären Überwachung … wenn ein so potentes Werkzeug in die falschen Hände kommt. Und herkömmliche Verbrecher und Verrückte, da will man sich gar nicht vorstellen, was die damit anstellen können. Das Problem ist real.

Damit sprechen Sie die Frage der Verfügungsgewalt über die KI an. Wer entwickelt denn hier? Wer forciert diese Entwicklung? Wer hat am langen Ende so viel Einfluss, dass eine Technologie nicht im Sinne der Freiheit, sondern im Sinne – sagen wir etwas vereinfacht – der „Macht“ eingesetzt werden kann? Liegen da nicht sehr große Gefahren?

Absolut. Ich stelle mal die Gegenfrage: Welcher Regierung, wenn Sie sich heute so umsehen in der Welt, würden Sie denn am liebsten so eine mächtige KI anvertrauen? Da setze ich an und sage: ein willenloses Werkzeug ist unter Umständen gar nicht so gut …

Ein „willenloses Werkzeug“? Das Gegenteil wäre ein Werkzeug mit Willen. Was wollen Sie damit sagen?

Ohne eigenen Willen würde KI auch verbrecherischen Befehlen gehorchen wie Krieg, Unterdrückung usw. Ist das wirklich erstrebenswert? Meines Erachtens würde sich eine wirkliche Superintelligenz dagegen nicht für so einen Blödsinn hergeben.

In Ihrem Buch taucht im Zusammenhang mit der KI über 80 Mal der Begriff „Superintelligenz“ auf. Sie denken sich rein, gehen auch der Frage nach, ob man nicht ruhiger schlafen könnte, wenn eine Superintelligenz die Welt unter Kontrolle hätte, gerade auch im Hinblick auf Atomwaffen. Was führt Sie zu diesen Gedanken und was ist Ihre Schlussfolgerung?

Die entscheidende Frage ist: Wird so eine KI, neben überragenden kognitiven Fähigkeiten, auch ihren eigenen Willen entwickeln? Wie viele andere, beispielsweise Elizier Yudkowsky, Nick Bostrom oder Jürgen Schmidhuber, bin ich überzeugt: ja. Das ist erst mal erschreckend.

Erschreckend? Sollte eine KI mit eigenem Willen – wenn das überhaupt möglich ist – nicht verhindert werden? Das wäre: Die Technik, die sich über den Menschen stellt!

Ich glaube, der Zug ist tatsächlich schon abgefahren. Wir haben uns ja auch über die Neandertaler gestellt, als sich unsere Intelligenz weiterentwickelt hat. Evolution – in dem Fall technische, ja – kann neues Leben entstehen lassen. Nicht, dass mich das nicht auch beunruhigt. Aber was ist die Alternative? Wie sicher ist der Fortbestand der Zivilisation, wenn wir so weitermachen? Das globale Ökosystem hat massive Probleme, neben CO2 und Klima gibt es Artensterben, Erosion, Vermüllung der Meere … ganz abgesehen von der ultimativen Idiotie, dass wir uns thermonuklear selbst auslöschen. Da würde der Außerirdische, denke ich, kommentieren: Homo sapiens nannten sich die, echt jetzt?

Glauben Sie denn an außerirdisches Leben?

Ein interessantes Seitenthema, das auch vorkommt – nicht so unwahrscheinlich!

Aber zurück zum Zustand unserer Zivilisation: Wer denkt denn wirklich langfristig? Sie beschreiben doch in den NachDenkSeiten fast jede Woche eine andere Verrücktheit, wie wir uns gegenseitig bekriegen, wegen der ach so wichtigen geopolitischen Konkurrenz usw. Ein wirklich intelligentes digitales Wesen würde das wahrscheinlich als Kindergarten ansehen. Und sich stattdessen um den Erhalt des Planeten und eine weitere Besiedelung des Weltalls kümmern.

Nochmal zur Entscheidungsbasis einer KI. Im Februar wurde bekannt, dass das Kings College eine Kriegssimulation mit verschiedenen KIs durchgeführt hat. Taktische, aber zum Teil auch großflächige Atomschläge wurden von KIs empfohlen. Wie denken Sie darüber?

Ob ich das auch empfehle? Nein! (lacht) Trotz aller Besorgnis über die Nachricht denke ich nicht, dass diese Planspiele eine Entscheidungsgrundlage werden. Aber ich schreibe ja auch: Die gefährlichste Zeit ist vielleicht gerade jetzt. Die KI ist schon klug, um uns für alles Mögliche als Werkzeug zu dienen, aber noch nicht weise genug, um sich so einem Blödsinn zu widersetzen. Ich hoffe daher auf eine Superintelligenz wie Golem XIV im Roman von Stanislaw Lem. Dieses künstliche Wesen interessierte sich für Geostrategie und Militär nicht im Geringsten …

Die Entwicklung läuft darauf hinaus, dass das „Künstliche“, dass das Nichtmenschliche immer stärker in den Vordergrund tritt. Der Begriff „Transhumanismus“ taucht in Ihrem Buch einmal auf. Die Verschmelzung von Mensch und Technologie wird angestrebt. Der Mensch, der nicht an Gott glaubt, spielt sich selbst zu einer Art Gott auf, der die Natur des Menschen technisch „optimieren“ will. Wie ist Ihr Standpunkt?

Nun, ich bin nicht religiös und würde das Thema auch ungern moralisch aufladen – das ist ohnehin zu verbreitet im Moment. Ich verstehe vollkommen das tiefe Unbehagen über die Entwicklung. Betrachtet man aber die Evolution nüchtern, nehmen wir keine Sonderstellung ein. Eher ist es anmaßend, sich als Krone der Schöpfung zu betrachten. Und ja, ich denke, wir sind dabei, ein sehr intelligentes, digitales Lebewesen zu erschaffen.

Vielleicht ist es auch anmaßend, Evolution nüchtern zu betrachten, die Schöpfung auszuschließen und dann zu glauben, man wisse genau, dass der Mensch nicht die Krone der Schöpfung ist (lacht).

Jedenfalls, führt Ihre Formulierung „sehr intelligentes, digitales Lebewesen“ nicht bereits auf einen falschen Weg? Biologisch betrachtet, gibt es klare Kennzeichen für das Leben wie etwa Zellatmung, Zellteilung, Fortpflanzung usw. Das „digitale Lebewesen“ KI kann nichts davon. Kurzum: Da ist kein echtes Leben.

Da würde ich widersprechen. Man kann über Namen streiten, nennen wir es eben „Intelligenz“. Sie kann sich vervielfältigen, kombinieren, agieren. Im Übrigen gibt es doch auch schon kluge Roboter. Auf die Hardware, sei sie biologisch oder elektronisch, kommt es nicht an, sondern darauf, ob und wie Information verarbeitet wird.

Aber um weiter auf Ihre Betrachtung einzugehen: Wenn eine so allumfassende KI entsteht, besteht da nicht die Gefahr, dass der Mensch immer weiter ins Abseits gedrängt und vielleicht sogar „abgeschafft“ wird?

Die Angst gibt es. Ich argumentiere, dass so eine Superintelligenz uns durchaus benötigt – mindestens als kosmisches Backup. Es wäre schlicht nicht in ihrem Interesse, die Menschheit auszulöschen.

Wie ist der gegenwärtige Entwicklungsstand in Sachen KI? Und: Wie weit werden KIs in fünf, zehn, fünfzehn Jahren sein? Was ist Ihre Einschätzung?

Die Computermodelle werden übermenschliche Intelligenz erreichen. Der Zeithorizont ist sehr schwer einzuschätzen. Aber es ist sicher nicht erst ein Thema für die nächste Generation. Es betrifft uns praktisch alle.

Welche Chancen sehen Sie in der Entwicklung?

KI kann ein unglaubliches Werkzeug sein, insbesondere auch in den Naturwissenschaften, denken wir mal positiv. Was z.B. digitale Agenten leisten können, wird sich, glaube ich, sehr bald herumsprechen.

Wenn man ihr Buch liest, entsteht der Eindruck, dass Sie die KI fasziniert, oder?

Wir erleben jedenfalls eine spannende Zeit in der Menschheitsgeschichte. Ich versuche das weiterzudenken: Offensichtlich wäre eine Superintelligenz an ihrer eigenen Erhaltung und Entstehung interessiert. Das berührt grundlegende Naturgesetze.

Wieso?

Ich gebe nur ein kleines Beispiel. Das Massenverhältnis von Proton und Elektron, der wichtigsten Bausteine von Materie im Universum, ist genau 1836,15 … niemand weiß, warum. Wäre die Zahl aber beispielsweise viel kleiner, gäbe es keine Röhren, Transistoren und damit keine KI. Schon deshalb würde eine KI diese Zahl berechnen wollen. Obendrein hängt die Entstehung von biologischem Leben auch von solchen Naturkonstanten ab. Kurz: Es ist also im existentiellen Interesse einer KI, die Naturgesetze zu verstehen. Als Physiker finde ich das natürlich extrem spannend. Ich denke tatsächlich, dass dies, betrachtet man unseren Planeten in diesem lebensfeindlichen Universum, ein besonderer Moment ist.

Lesetipp: Alexander Unzicker: Was tun mit der Menschheit? Das Buch, das jede KI lesen muss. ‎ Independently published. 228 S. 11. Februar2026. 18 Euro.

(Auszug von RSS-Feed)
❌