Das Militär setzt verstärkt auf KI. Das gefährdet Zivilisten – und Soldaten
Ein neuer Bericht warnt vor gefährlich wenigen Schutzmechanismen bei autonomen Waffensystemen, während das Pentagon Milliarden dafür fordert.
Für seinen Haushalt 2026 hat das US-Verteidigungsministerium 13,4 Milliarden Dollar für autonome Waffen und Systeme beantragt – darunter unbemannte und ferngesteuerte Drohnen und Waffensysteme. Verteidigungsminister Pete Hegseth hat unmissverständlich klargemacht, dass die Beschleunigung des KI-Einsatzes auf dem Schlachtfeld zu seinen obersten Prioritäten gehört. Doch Experten schlagen Alarm: Er treibe dies voran, während er gleichzeitig Zentren zur Minimierung ziviler Schäden schließe, Aufsichtsbehörden beschneide, operative Tests reduziere und solche Schutzmechanismen als „risikoaverse Bürokratie“ abtue.
Ein neuer Bericht „Business of Military AI“ des Brennan Center for Justice an der New York University Law School kommt zu dem Schluss, dass der erweiterte KI-Einsatz des Militärs in Kombination mit Schlupflöchern in den Regeln zur Nutzung dieser Technologie eine effektive Regulierung und Aufsicht erschwert – in einem gefährlich umwälzenden Moment für die Zukunft der Kriegsführung.
„Das Recht entwickelt sich nicht so schnell wie die Technologie – aber das ist in vielerlei Hinsicht eine politische Entscheidung“, sagt Amos Toh, Senior Counsel am Brennan Center und einer der Autoren des Berichts. „Es gibt diese Art von pauschaler Dämonisierung von Schutzmaßnahmen als Bürokratie. Das Problem mit dieser Rahmung ist aber, dass Schutzmaßnahmen die Technologie erst sicher und effektiv machen.“
Pentagons Kontrollverluste
Toh sagt, die Rhetorik, Schutzmaßnahmen seien unnötig und „woke“, ignoriere die Tatsache, dass sie nicht nur eingeführt werden, um übermäßigen zivilen Schaden zu begrenzen und bürgerliche Freiheiten zu schützen, sondern auch um sicherzustellen, dass die Technologie getestet und als zuverlässig eingestuft wird. Es sei für Militärangehörige schlicht sicherer, wenn ihre KI-Waffen und Trackingsysteme wie erwartet funktionieren – besonders auf dem Schlachtfeld: „Es hat operativen Wert, sicherzustellen, dass diese Technologie angemessen getestet, bewertet und überwacht wird.“
Steven Feldstein, Politikwissenschaftler und Senior Fellow beim Carnegie Endowment for International Peace, sieht das genauso. „Das Pentagon unter Hegseths Führung baut zunehmend Rechenschaftsstrukturen ab“, sagt er. „Und das genau in dem Moment, in dem eine mächtige neue Technologie eingeführt wird, bei der es erhebliche Intransparenz darüber gibt, wie Informationen verarbeitet und in verschiedene Entscheidungen eingespeist werden. Keine grundlegenden Strukturen zu haben, um das zu prüfen, zu testen und die Genauigkeit zu validieren – das sollte die Alarmglocken läuten lassen.“
Hegseth: Noch mehr Dronen
Drohnen werden seit Jahrzehnten vom Militär eingesetzt und haben sich seit dem Start der ersten modernen Drohne im Jahr 1994 stark weiterentwickelt. Die Abhängigkeit der Ukraine von Drohnen in ihrem Krieg gegen Russland markierte einen Wendepunkt, erklärt Feldstein: Sie zeige, wie Drohnen zur Zukunft der Kriegsführung geworden sind, weil sie Ländern mit geringeren Ressourcen ermöglichen, den Rückstand mit kostengünstigen Drohnen wettzumachen. Im vergangenen Sommer kündigte Hegseth an, die Produktion kostengünstiger Drohnen in den USA zu steigern, während Donald Trump Jr. und Eric Trump kürzlich bekanntgaben, ein neues Drohnenunternehmen zu unterstützen, das die Nachfrage des Pentagons bedienen soll.
Und die rasante Entwicklung der KI verändert, wie Drohnensysteme für Navigation, Kommunikation, Überwachung und Zielidentifikation eingesetzt werden.
Der Brennan-Center-Bericht stellte fest, dass das Verteidigungsministerium massiv in Drohnenprojekte investiert hat, die es unbemannten Systemen ermöglichen könnten, zu kommunizieren und Ziele anzugreifen – selbst wenn die Maschinen den Kontakt zu den sie steuernden Menschen verlieren. Er stellte außerdem fest, dass zwei Technologieunternehmen – Palantir und Anduril – ihre Anteile an Verteidigungseinnahmen schneller gesteigert haben als die meisten anderen. „Die Unterlagen zeigen, wie Palantirs Ansatz zur Datenintegration und -analyse für den Schwenk des Militärs zur datenzentrierten Kriegsführung unverzichtbar geworden ist“, heißt es im Bericht. „Alle Teilstreitkräfte haben Software von Palantir gekauft.“
Palantir, Anduril und Project Maven
Im Jahr 2017 startete das Militär Project Maven, das als Pilotprogramm mit Palantir, Google und anderen Technologieunternehmen begann, um Algorithmen zu entwickeln, die Satellitenbilder und Drohnenaufnahmen zur Zielidentifikation auswerten. Maven analysiert inzwischen ein breites Spektrum an Datenquellen mit eigenem Budgetposten im Verteidigungshaushalt. Palantir entwickelt zudem ein KI-gestütztes Befehls- und Kontrollprogramm namens Titan, das Daten analysieren soll, um der Armee bei der Missionsplanung zu helfen.
Das vergangene Jahr war für Palantir und Anduril jeweils das profitabelste seit Beginn ihrer Zusammenarbeit mit dem Militär, so der Bericht – wobei er darauf hinweist, dass die fünf größten Rüstungskonzerne wie Lockheed Martin und Boeing die Verteidigungsausgaben weiterhin dominieren. Anduril schloss 2018 eine Partnerschaft mit dem Department of Homeland Security, um durch ein Netz von mit KI-Funktionen ausgestatteten Überwachungstürmen an der US-Mexiko-Grenze eine virtuelle Grenzmauer zu errichten. Inzwischen verkauft das Unternehmen auch KI-gesteuerte Drohnen und Munition an das Militär.
Doch die Verbindung zwischen Militär und privaten Technologieunternehmen verläuft nicht reibungslos. Im vergangenen Monat scheiterten Vertragsverhandlungen, nachdem die US-Regierung versucht hatte, das Technologieunternehmen Anthropic unter Druck zu setzen, seinen ursprünglichen Deal mit dem Verteidigungsministerium neu zu verhandeln und den Einsatz seines Claude-KI-Modells für die Entwicklung autonomer Waffen oder die Massenüberwachung von Amerikanern zu erlauben. Anthropic erklärte, sein Large Language Model sei dafür noch nicht geeignet – und als das Unternehmen bei den Bedingungen nicht nachgab, erklärte Hegseth es zum Sicherheitsrisiko für die nationale Lieferkette, woraufhin Anthropic klagte und mehrere befreundete Technologieunternehmen Unterstützungsschreiben einreichten. (OpenAI kündigte im Zuge des Anthropic-Streits einen eigenen Deal mit dem Pentagon an.)
Wenig Transparenz, viele Risiken
Die Anthropic-Affäre war ein seltener Einblick in die Beziehung zwischen dem Verteidigungsministerium und dem Silicon Valley – und KI-Sicherheitsexperten haben darauf hingewiesen, wie wenig Einblick die amerikanische Öffentlichkeit in die Welt der Rüstungstechnologie bekommt. Da KI neu ist, bedient sich die US-Regierung eines Flickenteppichs aus Gesetzen, Schlupflöchern und Pilotprogrammen, um Verteidigungstechnologie so zu finanzieren, dass kaum Regulierung, Transparenz oder Tests möglich sind. Und die wenigen Schutzmaßnahmen, die eingeführt wurden, werden gerade abgebaut.
Im Jahr 2025, kurz nach seinem Amtsantritt, hob Präsident Donald Trump Joe Bidens Executive Order von 2023 zur Förderung sicherer, verlässlicher und vertrauenswürdiger KI auf. Diese hatte im Oktober 2024 zu einem Memorandum geführt, das einen Rahmen für KI-Governance und Risikomanagement im Bereich der nationalen Sicherheit absteckte. (Tohs Bericht kritisierte Bidens Regeln als „von vornherein unzureichend“, wies aber darauf hin, dass Trump mehrere Schutzmaßnahmen weiter geschwächt habe.) Hegseth strich zudem Aufsichtsbehörden, die sich mit der Begrenzung ziviler Schäden befassten, wie das Civilian Protection Center for Excellence. Darüber hinaus halbierte er die Zahl der Mitarbeiter in der Behörde, die die Tests der wichtigsten Waffensysteme des Militärs überwacht. Tests seien notwendig, um Fehler in einem kontrollierten Laborumfeld zu beheben, erklärt Toh – und nicht erst auf dem Schlachtfeld, wie es geschah, als KI-gesteuerte Drohnen im Ukrainekrieg nicht wie versprochen funktionierten und anfällig für russische GPS-Störtechniken waren.
„Es gibt echte Gründe, warum man die Art und Weise, wie das Militär seine Missionen durchführt, aktualisieren möchte; diese Technologien einzubinden ist wichtig und etwas, das die Streitkräfte anderer Länder bereits tun“, sagt Feldstein. Die Antwort sei nicht, überhaupt nicht zu innovieren, sondern „es auf eine durchdachte, verantwortungsvolle Weise zu tun. Man braucht die richtigen Formen von Rechenschaftspflicht und Transparenz, damit man die legitimen Ziele trifft wie vorgesehen und den zivilen Kollateralschaden so gering wie nötig hält – so wie es das internationale Recht vorschreibt.“
Autonomie ohne Verantwortung
Das Potenzial für Fehler und Schäden wird noch beunruhigender, wenn es um vollständige Autonomie geht, erklärt Feldstein. Das bedeutet, die Grenze zu überschreiten zwischen Technologie, die den Menschen bei der Kriegsführung unterstützt, und dem vollständigen Entzug menschlicher Verantwortung durch den Einsatz von Technologie als alleiniger Entscheidungsinstanz. Und wer trägt in diesem Fall die Verantwortung für Fehler?
„Wenn Sie eine Maschine mit vollständiger Entscheidungsgewalt auf das Schlachtfeld schicken und keine klare Möglichkeit haben, die daraus resultierenden Entscheidungen zu kontrollieren – wer wird ins Visier genommen?“, fragt Feldstein. „Wer kann sagen, welche unerwarteten und unvorhergesehenen Folgen entstehen werden?“