Was die Anthropic-Klage für die Zukunft von KI im Krieg bedeutet

Anthropic klagt gegen das Pentagon: Das Silicon-Valley-Unternehmen weigert sich, Claude für autonome Waffen und Massenüberwachung freizugeben.

ROLLING STONE Badge
Empfehlungen der Redaktion

Die Spannungen zwischen der Trump-Regierung und dem Tech-Unternehmen Anthropic haben sich in einem hitzigen Streit darüber zugespitzt, wie und wann die Regierung ihre KI im Krieg einsetzen darf.

Das Unternehmen und die Regierung stecken in einer Sackgasse: Das Verteidigungsministerium will freie Hand beim Einsatz von Claude, Anthropics Large Language Model, im Inland und auf dem Schlachtfeld. Anthropic sagt, Claude sei noch nicht bereit, für die Massenüberwachung von US-Bürgern oder die Entwicklung vollautonomer Waffen eingesetzt zu werden. Als Anthropic sich bei diesen Punkten nicht bewegte, reagierten Präsident Donald Trump und Verteidigungsminister Pete Hegseth, indem sie Anthropics Nutzung innerhalb von Bundesbehörden einschränkten und das Unternehmen schließlich als Lieferkettenrisiko für die nationale Sicherheit einstuften.

Das war, gelinde gesagt, ein extremer Schritt: Die Einstufung schließt Anthropic von Regierungsaufträgen aus und markiert das erste Mal, dass ein amerikanisches Unternehmen öffentlich als Lieferkettenrisiko bezeichnet wurde – eine Bezeichnung, die eigentlich dafür gedacht ist, Bedenken zu adressieren, dass Gegner der USA böswillig Schwachstellen in US-Militärsysteme einschleusen. Bislang war sie chinesischen und russischen Unternehmen vorbehalten, denen Spionage oder Sabotage vorgeworfen wurde.

Anthropics Klage gegen das Pentagon

Am Montag reichte Anthropic zwei Klagen gegen mehrere Bundesbehörden ein, darunter das Verteidigungsministerium und das Executive Office of the President (das Exekutivbüro des Präsidenten). Das Unternehmen bezeichnet die Schritte der Regierung als „beispiellos und rechtswidrig“ und argumentiert, die Einstufung sei eine Vergeltungsmaßnahme infolge des Scheiterns der Verhandlungen. „Die Verfassung erlaubt es der Regierung nicht, ihre enorme Macht zu nutzen, um ein Unternehmen für seine durch die Verfassung geschützte Meinungsäußerung zu bestrafen“, schreiben Anthropics Anwälte in der Klageschrift.

Auch Experten zeigten sich überrascht von den Schritten der Regierung. „Die Art, wie das Gesetz das Lieferkettenrisiko definiert, setzt voraus, dass es ein Gegner sein muss, der in der Lage ist, Verteidigungs- und Sicherheitssysteme zu kompromittieren oder eine böswillige Funktion einzuschleusen“, sagt Amos Toh, Senior Counsel im Liberty-and-National-Security-Programm des Brennan Center, der nicht mit dem Anthropic-Fall befasst ist. „In diesem Fall gibt es keinerlei Belege dafür, dass Gegner versuchen werden, Claude in Verteidigungs- und Militärsystemen zu kompromittieren, nur weil es dort eingesetzt wird. Wenn überhaupt, ließe sich das Gegenteil argumentieren: Die Tatsache, dass Anthropic diese roten Linien zieht und das DoD diese Technologie nicht einsetzen lässt, solange sie dafür nicht reif ist, erhöht die Sicherheit des Systems.“

Und das Problem geht weit über die Beziehung eines einzelnen Unternehmens zur Regierung hinaus. „Hier lauert eine außerordentlich tiefe und wichtige Frage: Wie sollte das Verhältnis zwischen der Regierung und der KI-Industrie aussehen?“, sagt Alan Rozenshtein, Professor an der University of Minnesota Law School, der ebenfalls nicht in den Fall involviert ist. „Sollte das Militär jemals Verträge abschließen, in denen ein privates Unternehmen vorgibt, dem Militär Vorschriften zu machen, die über die bloße Einhaltung der Gesetze hinausgehen?“

„Claude supercharges the potential for abuse“

Im Juli 2025 veröffentlichte die Trump-Regierung ihren AI Action Plan und kündigte ihre Absicht an, den Einsatz von KI-Technologie auszuweiten. Im selben Monat schloss Anthropic einen Vertrag mit dem Pentagon, um Claude in Militäroperationen zu integrieren. Die Regierung hat Claude beim Überfall und der Festnahme des venezolanischen Diktators Nicolás Maduro eingesetzt und nutzt es auch bei den laufenden Angriffen auf den Iran.

Ende Februar, nach monatelangen Verhandlungen, stockten die Gespräche zur Vertragsverlängerung zwischen Anthropic und dem Verteidigungsministerium, als Anthropic bekräftigte, dass Claude noch nicht für den Einsatz in letalem autonomem Kriegsführung oder für die Massenüberwachung von US-Bürgern bereit sei. Das Pentagon bestand darauf, die volle Kontrolle über den Einsatz zu haben, solange dieser „rechtmäßig“ sei.

Toh erklärt, warum das Wort „rechtmäßig“ so wichtig ist. „Was das Verteidigungsministerium im Wesentlichen tut, ist die Ausnutzung rechtlicher Graubereiche rund um seine Befugnis, US-Bürger zu überwachen und vollautonome Waffen zu entwickeln und einzusetzen“, sagt Toh. „Es drängt auf einen Einsatz von KI-Modellen in einer Weise, die entweder verfassungsrechtlich fragwürdig ist oder unter seinen Verpflichtungen nach dem Kriegsvölkerrecht zumindest zweifelhaft erscheint.“

Das bedeutet: Der Supreme Court hat sich noch nicht direkt mit der Frage befasst, welche verfassungsrechtlichen Schutzrechte US-Bürger haben, wenn die Regierung KI einsetzt. Weil KI-Regulierungen und Gesetze nicht mit dem technologischen Fortschritt mithalten konnten, kann etwas, das heute technisch gesehen rechtmäßig ist, trotzdem in einer moralischen und ethischen Grauzone existieren. Experten argumentieren, dass es sich dabei um komplexe Herausforderungen handelt, die einer eingehenderen Betrachtung bedürfen – und von einem informierten Kongress reguliert werden sollten.

Massenüberwachung und autonome Waffen

Was die Massenüberwachung betrifft, erklärt Toh, haben wir Szenarien erlebt, in denen Strafverfolgungsbehörden, Geheimdienste und das Militär gemeinsame Einsätze durchführen, wie etwa bei der Einwanderungsdurchsetzung. Eine der roten Linien, die Anthropic gezogen hat, ist, Claude nicht zur Analyse von Massendatensätzen aus kommerziellen Quellen zu erlauben, die Informationen über US-Bürger enthalten. Toh sagt, obwohl dies technisch legal sei, könne ein KI-Modell wie Claude scheinbar zusammenhanglose Datenpunkte verknüpfen, die extrem sensible Einblicke in das Leben, die Gewohnheiten und die Bewegungen von Menschen liefern und zur Überwachung oder Identifizierung genutzt werden könnten. „Man kann sich Szenarien vorstellen, in denen das Militär damit beauftragt wird, bestimmte Arten von Überwachung bei der Einwanderungsdurchsetzung durchzuführen – und in dieser Situation potenziert der Einsatz von Modellen wie Claude das Missbrauchspotenzial erheblich.“

Bei Waffen, fügt Toh hinzu, sagt Anthropic nicht, dass sie autonome Waffen grundsätzlich ablehnen. Sie sagen, dass sie den Einsatz ihres aktuellen Modells bei der Entwicklung vollautonomer Waffen ablehnen, weil die Technologie dafür noch nicht ausgereift genug ist.

„Wir glauben nicht und haben nie geglaubt, dass es die Aufgabe von Anthropic oder einem anderen privaten Unternehmen ist, an operativen Entscheidungen beteiligt zu sein – das ist die Aufgabe des Militärs“, sagte Anthropic-CEO Dario Amodei in einem Statement vom 5. März. „Unsere einzigen Bedenken betrafen die Ausnahmen für vollautonome Waffen und die massenhafte inländische Überwachung, die sich auf übergeordnete Nutzungsbereiche beziehen und nicht auf operative Entscheidungen.“

Das „Supply Chain Risk“-Label

Als Reaktion auf Anthropics Weigerung, bei diesen beiden spezifischen roten Linien nachzugeben, drohte Verteidigungsminister Pete Hegseth mit zwei scheinbar widersprüchlichen Maßnahmen gegen Anthropic: Zunächst sagte Hegseth, er könnte ein Gesetz namens Defense Production Act (Verteidigungsproduktionsgesetz) anwenden, das Anthropic dazu verpflichten würde, Claude ohne die von Anthropic gewünschten Einschränkungen an das Verteidigungsministerium zu verkaufen. Dann kündigte er an, Anthropic als „Supply Chain Risk“ einzustufen – worauf ein Truth-Social-Post von Präsident Donald Trump folgte, der die Drohung ausweitete und erklärte, er weise jede Bundesbehörde an, „den Einsatz von Anthropics Technologie sofort einzustellen“. Der Präsident fügte hinzu, es werde eine sechsmonatige Auslaufphase für Behörden wie das Verteidigungsministerium geben, die Anthropics Produkte nutzen. So setzt die Regierung derzeit Anthropics Claude bei der Militäroperation gegen den Iran ein.

Am 4. März wurde Anthropic offiziell als Supply Chain Risk eingestuft – in einer engeren Auslegung als in Trumps Truth-Social-Post.

Rozenshtein erklärt, wie Hegseths ursprüngliche Drohung Anthropic hätte vernichten können. „Die Supply-Chain-Einstufung des DoD gilt nur für DoD-Aufträge, aber Hegseth sagte auch, dass niemand, der Geschäfte mit dem DoD macht, überhaupt irgendwelche Geschäfte mit Anthropic machen darf – das hätte Anthropic als Unternehmen beendet“, sagt er. Letzteres steht derzeit nicht zur Debatte, und wenn Trump seine Drohung wahrmacht, Anthropic den Verkauf an die gesamte Regierung zu untersagen, sei das laut Rozenshtein immer noch nur ein Bruchteil von Anthropics Gesamtgeschäft.

Schlechte Stimmung, starke Argumente

„Aber die Stimmung ist schlecht“, sagt Rozenshtein. „Es ist nicht gut, als Supply Chain Risk durch die Regierung der USA abgestempelt zu sein.“

Anthropic reichte Klagen in Kalifornien und Washington D.C. ein und führt darin mehrere Argumente sowohl gegen die Maßnahmen des Verteidigungsministeriums als auch gegen Trumps Drohungen an.

„Das erste Argument, das sie vorbringen, ist, dass diese Supply-Chain-Sache keinen Sinn ergibt und nicht dem Zweck des Gesetzes entspricht“, sagt Rozenshtein. „Das Gesetz war für ausländische Unternehmen gedacht, die versuchen, Bedrohungen einzuschleusen – nicht für ein US-Unternehmen, das einen Vertragsstreit hat.“

„Man kann nicht gleichzeitig sagen: ‚Wir werden euch zwingen, uns zu verkaufen, wir werden euch nutzen, um den Iran zu bombardieren, und ihr seid wirklich gefährlich’“, fügt er hinzu. „Das erscheint mir völlig offensichtlich, und ich glaube, sie werden allein auf dieser Grundlage gewinnen.“

Anthropics Klage behauptet außerdem, dass die Regierung Vergeltung übt und damit in die Rechte des Unternehmens aus dem First Amendment eingreift, und dass ihnen kein ordentliches Verfahren (Due Process) gewährt wird. Der letzte Teil ihrer Klage bezieht sich ausdrücklich auf Trump.

„Sie sagen, Trump kann das nicht einfach so machen – man kann ein ganzes Unternehmen nicht ohne Grund für die gesamte Bundesregierung sperren“, ergänzt Rozenshtein. „Der Kongress hat ein sehr aufwendiges Beschaffungssystem geschaffen, und dafür gibt es Regeln.“

Er fasst die Klage so zusammen: „Wenn die Regierung sich nicht mit einem Unternehmen einigen kann – geben sie sich dann die Hand und gehen wie Gentlemen auseinander? Oder brennen sie das Unternehmen einfach nieder?“

Druckmittel mit Verfassungsrang

Während Anthropic und das Pentagon ihr Hin und Her fortsetzen, ist die Realität, dass die Regierung Claude nach wie vor aktiv nutzt und Anthropic weiterhin im Dialog mit ihr über die Vertragsbedingungen steht.

„Die Suche nach gerichtlicher Überprüfung ändert nichts an unserem langjährigen Engagement, KI zum Schutz unserer nationalen Sicherheit einzusetzen, aber dies ist ein notwendiger Schritt zum Schutz unseres Unternehmens, unserer Kunden und unserer Partner“, erklärte Anthropic in einem Statement gegenüber dem ROLLING STONE. „Wir werden weiterhin jeden möglichen Weg zur Lösung verfolgen, einschließlich des Dialogs mit der Regierung.“

Diese Auseinandersetzung hat Rufe nach stärkeren KI-Regulierungen und gesetzgeberischen Eingriffen des Kongresses neu belebt – statt weitreichende ethische Entscheidungen und rote Linien privaten Unternehmen zu überlassen, auf die die Öffentlichkeit kaum Einfluss hat.

„Das sind folgenreiche politische Entscheidungen mit Auswirkungen auf Leben und Tod“, sagt Toh. „Man kann es nicht einfach dem Militär überlassen zu entscheiden, welche Arten von Waffen den US-amerikanischen Verpflichtungen nach dem Kriegsvölkerrecht entsprechen – das ist etwas, das der Kongress untersuchen und mit Einschränkungen versehen sollte.“ Und, fügt Toh hinzu, die First-Amendment-Implikationen in dieser gesamten Debatte seien außerordentlich ernst zu nehmen – ob es um Waffen, Massenüberwachung oder den Text geht, den ein KI-Modell ausgibt.

„Sie sind wirklich kompliziert“

„Wenn allein die Drohung, Regierungsaufträge zu stornieren, dazu genutzt werden könnte, Unternehmen dazu zu zwingen, ihre Technologie so auszurichten, dass bestimmte Fakten bevorzugt, Dinge auf eine bestimmte Art charakterisiert oder Inhalte unterdrückt werden, hätte das ernsthafte Auswirkungen auf unseren Zugang zu Informationen“, sagt Toh. „Was wir mit dem DoD und Anthropic erleben, ist genau diese Art von Drucktaktik.“

Rozenshtein sagt, dass die Fehde zwischen Anthropic und der Regierung zwar interessant zu beobachten sein mag, er aber hofft, dass die Menschen die größeren, grundlegenden Fragen nicht aus dem Blick verlieren: unser Verhältnis zur Technologie, wer diese Entscheidungen trifft und wie sie das Leben aller beeinflusst. „Das werden die zentralen Themen sein, über die wir in den nächsten Jahren debattieren werden“, sagt er. „Sie sind wirklich kompliziert.“