KI-generierte Desinformation als neue Waffe im Irankrieg

KI-Experten warnen: Manipulierte Bilder vergiften die Informationslage im Irankrieg – „Es ist hochentwickelt und ein zentraler Teil der Geopolitik geworden.“

ROLLING STONE Badge
Empfehlungen der Redaktion

Ein Foto einer massiven Explosion an einem irakischen Flughafen; Satellitenbilder, die Schäden an einem US-Marinestützpunkt in Katar zeigen; ein Video iranischer ballistischer Raketen, die das Zentrum Tel Avivs treffen. Diese Bilder sind in der vergangenen Woche seit dem Angriff der Trump-Regierung auf Iran kursiert. Und keines davon ist echt.

Diese Bilder – und viele weitere – wurden durch KI erstellt oder manipuliert. Sie verbreiten Falschinformationen darüber, was tatsächlich in und um Iran passiert, und stellen all jene, die Wahrheit von Lüge und Propaganda zu unterscheiden versuchen, vor ein wachsendes Problem.

Die Verbreitung von Desinformation war schon immer Teil der Kriegsführung – verfeindete Seiten kämpfen um die Unterstützung der Öffentlichkeit, während sie Bomben abwerfen. Doch generative KI hat es so einfach wie nie zuvor gemacht, Bilder und Videos zu fälschen. Die Zeiten, in denen man Photoshop-Kenntnisse brauchte, um eine falsche Erzählung zu konstruieren, sind vorbei. Und über Social Media können manipulierte Bilder in Sekunden Ländergrenzen überwinden.

Während böswillige Akteure absichtlich Zwietracht säen mögen, gibt es exponentiell mehr Menschen, die diese Inhalte unwissentlich teilen. Das alles zusammen mit einem Weißen Haus, das entschlossen Propaganda verbreitet, ergibt ein Informationsökosystem, das sich erdrückend und verwirrend anfühlen kann.

Das Deepfake-Problem

„Wir haben ein Realismus-Level bei Video-, Audio- und Bild-Deepfakes erreicht, das für die meisten Menschen nicht von der Wirklichkeit zu unterscheiden ist“, sagt Rumman Chowdhury, eine prominente KI-Forscherin und ehemalige Ethikbeauftragte bei X (als die Plattform noch Twitter hieß). „Zwar haben KI-Unternehmen Wasserzeichen und andere Verifizierungsmethoden vereinbart, aber diese wurden nicht entwickelt unter Berücksichtigung dessen, wie Nutzer mit Social Media interagieren.“

„Das ist besonders gefährlich, wenn man Situationen wie den Krieg in Iran bedenkt“, ergänzt Chowdhury. „Die meisten Amerikaner gehen mit wenig Wissen und wahrscheinlich voreingenommenen Informationen an die Sache heran. Gefälschte Medieninhalte werden diese Vorurteile nur weiter verwirren und verstärken.“

„Shallowfakes“

Am 28. Februar teilte die staatsnahe iranische Zeitung „Tehran Times“ Satellitenbilder, die angeblich die Zerstörung zeigten, die eine iranische Drohne nach dem Angriff auf US-Radarausrüstung an einem US-Marinestützpunkt in Katar hinterlassen hatte.

BBC Verify, ein Team von Journalisten, das sich auf die Überprüfung von Bildern spezialisiert hat, verfolgt und kartiert Angriffe im Zusammenhang mit dem Krieg der USA und Israels gegen Iran und stufte dieses Satellitenbild als KI-generierte Fälschung ein. Das Team erklärte, das veränderte Bild basiere auf echten Satellitenaufnahmen eines US-Stützpunkts, sei jedoch mit Google KI bearbeitet worden, um Schäden vorzutäuschen.

Mittlerweile ist es nicht mehr so simpel, dass Menschen einfach Deepfakes aufgesessen werden. Der Politikwissenschaftler Steven Feldstein sagt, dass Content-Ersteller mit dem gestiegenen Bewusstsein der Menschen für KI ihrerseits raffinierter geworden sind – mit dem Ergebnis eines sogenannten „Shallowfake“, einer subtileren Form der Manipulation.

Schattierungen der Wahrheit

„Statt etwas zu präsentieren, das offensichtlich falsch aussieht, werden Schattierungen der Wahrheit präsentiert, das Vorhandene manipuliert“, sagt Feldstein. Das bedeutet: Content-Ersteller liefern Details und Nuancen, die gut genug sind, um den Bullshit-Detektor der Menschen zu überwinden, die Realität aber trotzdem so verzerren können, dass sie einem bestimmten Standpunkt entspricht. Das kann durch minimale Bildmanipulation geschehen – etwa bei einem echten Foto eines irakischen Flughafens, das Rauch über einem US-Militärstützpunkt im Irak zeigte und am 1. März mittels KI so verändert wurde, dass eine riesige Feuerball-Explosion zu sehen war. Oder es werden Bilder aus dem Kontext gerissen, indem ein altes Foto als aktuell ausgegeben wird.

„Man sieht das in zunehmendem Maße“, sagt Feldstein, Autor von „The Rise of Digital Repression: How Technology is Reshaping Power, Politics, and Resistance“. „Es ist hochentwickelt und auch ein zentraler Teil der Geopolitik geworden.“

Feldstein sagt, der Zwölf-Tage-Krieg, als Israel und die USA Iran im Juni 2025 angriffen, habe gezeigt, wie schnell KI-generierte Inhalte sich verbreiten können. BBC Verifys Shayan Sardarizadeh erklärte gegenüber dem Global Investigative Journalism Network, dieser Angriff sei das „erste Beispiel eines großen globalen Konflikts, bei dem wir mehr Desinformation sahen, die mit KI produziert wurde, als auf traditionellen Wegen“. Es markierte eine „neue Ära in der Art und Weise, wie KI-generierte Inhalte im Zuge einer großen Breaking-News-Geschichte eingesetzt werden“, so Sardarizadeh, dessen Team mehrere KI-generierte Videos und Bilder sah, die Menschen mit „Millionen und Abermillionen von Aufrufen“ in die Irre führten.

Agenten der Desinformation

Chowdhury, die ehemalige US-Wissenschaftsbotschafterin für KI, sagt, man sehe bereits „Desinformationsagenten auf Social Media, die überall bestimmte Agenden vorantreiben“. Sie verweist darauf, dass X im vergangenen November eine Standortfunktion einführte, die IP-Adressen nutzt, um den Standort von Accounts anzuzeigen. „Es stellte sich heraus, dass viele amerikanische rechte Influencer in Afrika, Bangladesch, Russland und der Ukraine sitzen.“

Sowohl Chowdhury als auch Feldstein sagen, die Verwischung von Fiktion und Realität könne dazu führen, dass Menschen ein echtes Video als Fälschung abtun. Wenn man den eigenen Augen nicht mehr trauen kann, wird es schwieriger, die eigenen fest verankerten Überzeugungen zu hinterfragen.

„Es ist mittlerweile so weit, dass nichts, was über die eigene vorgefertigte Erzählung hinausgeht, als wahr akzeptiert wird“, sagt Feldstein, „und das ist genauso schädlich.“

Krieg ist kein Videospiel

Desinformation basiert nicht immer ausschließlich auf KI. Manchmal zum Beispiel kursiert ein Screenshot aus einem Videospiel und wird geteilt, als wäre er eine echte Aufnahme von Zerstörung. Und dann gibt es schlichte Propaganda, die unter Trump exponentiell zugenommen hat. Während der ICE-Razzien in Minnesota setzte die Trump-Regierung auf grausame Memes und KI-generierte Bilder, um die öffentliche Meinung zu beeinflussen. Sie produzierten sogar ihr eigenes Shallowfake: ein Foto einer verhafteten Frau wurde digital so verändert, dass sie weinend wirkt – obwohl sie es nicht war.

Dann kam Iran. Am 4. März veröffentlichte das Weiße Haus auf seinem offiziellen X-Account ein Video, das echte Aufnahmen von iranischen Raketenangriffen mit Footage aus dem Videospiel „Call of Duty“ vermengte. In der Mitte des Videos sagt eine abgehackte Stimme aus dem Off: „Wir gewinnen diesen Kampf.“

Am 5. März veröffentlichte das Weiße Haus ein weiteres Video, diesmal zur Feier von „justice the American way“ – mit Clips aus Filmen und Serien wie „Braveheart“, „Breaking Bad“, „Iron Man“ und „Gladiator“.

Mehr als 1.000 Tote

Der Krieg hat nach Angaben iranischer Staatsmedien bereits mehr als 1.000 Menschen das Leben gekostet, darunter mehr als 100 iranische Schulmädchen, sowie mindestens sechs amerikanische Soldaten.

„Krieg ist kein Videospiel“, twitterte der Militärveteran und Barstool-Sports-Podcaster Connor Crehan. „Die Konsequenzen des Krieges sind endgültig. Ich wünschte, wir würden ihm nicht mit einer so leichtfertigen Haltung begegnen.“

Feldstein sagt, er beobachte zunehmend, wie Informationen und Bilder eingesetzt werden, um Handlungen zu mobilisieren, und dass Social Media dafür gesorgt hat, dass sich Rhetorik rasend schnell verbreiten kann – bevor jemand innehalten und die ursprüngliche Quelle eines Inhalts ermitteln kann. Wer nicht weiß, wer diese Behauptungen aufstellt und ob es sich um eine glaubwürdige Nachrichtenquelle handelt, kann kaum erkennen, ob die verbreitete Erzählung einseitig und von einem bestimmten Standpunkt geprägt ist.

Er fügt hinzu, dass der US-Präsident und Israels Premierminister Bilder und Motive genutzt haben, um iranische Bürger zur Revolte gegen ihre Regierung aufzurufen. „Die USA schicken derzeit keine Truppen, aber sie setzen auf Informationsübermittlung als Mittel, um Veränderungen auf dem Boden in Iran anzustoßen“, sagt Feldstein. „Man kann sehen, wie hoch die Einsätze sind, wenn es darum geht, wie schnell diese Informationen verarbeitet werden und wie sie Handlungen auslösen.“

Und natürlich, betont er, birgt Fehlinformation jenseits politischer Manipulation ein enormes humanitäres Risiko. Menschen in Konfliktgebieten müssen wissen, wo es sicher ist, Schutz zu suchen, wo Drohnen angreifen, ob sie evakuieren müssen. Es ist entscheidend, Informationen zu haben, denen man vertrauen kann.