Musks Grok-Chatbot erstellte sexuelle Bilder von Minderjährigen, behaupten Teenager in Klage
Drei Jane Does werfen xAI vor, für die Erstellung und Verbreitung von Kinderpornografie haftbar zu sein.
Anfang Dezember erhielt ein Teenager aus Tennessee angeblich eine Nachricht von einem anonymen Instagram-Nutzer, der sie warnte, dass sexuell explizite Deepfake-Bilder von ihr auf einem Discord-Server hochgeladen worden seien.
Ein Bild soll aus einem Foto entstanden sein, das beim Homecoming ihrer Schule im vergangenen September aufgenommen wurde. Ein weiteres Bild, das sie angeblich oben ohne zeigt, wurde offenbar aus ihrem Jahrbuchporträt generiert, das im Juni desselben Jahres entstanden war.
Als die Teenagerin, die inzwischen volljährig ist, schließlich einen Link zum Discord-Server erhielt, fand sie dort angeblich Bilder und Videos von mindestens 18 weiteren Mädchen, die zum damaligen Zeitpunkt minderjährig waren – viele davon erkannte sie als Mitschülerinnen.
Klage gegen xAI eingereicht
Die neuen Vorwürfe sind in einer 44-seitigen Klageschrift festgehalten, die am Montag beim Bundesgericht in San Jose, Kalifornien, von drei Klägerinnen aus Tennessee eingereicht wurde, die als Jane Does auftreten. Die anonymen Klägerinnen verklagen Elon Musks Künstliche-Intelligenz-Unternehmen xAI wegen dessen generativem KI-Modell Grok. Die angestrebte Sammelklage wirft xAI vor, Grok fahrlässig so entwickelt zu haben, dass solcher Missbrauch möglich wurde – und angesichts öffentlicher Empörung die Technologie lieber auf zahlende Abonnenten und Drittanbieter beschränkt zu haben, statt das Problem zu beheben.
„xAI – und sein Gründer Elon Musk – erkannte eine Geschäftsmöglichkeit: eine Gelegenheit, an der sexuellen Ausbeutung echter Menschen, darunter Kinder, zu verdienen“, heißt es in der Klageschrift, die ROLLING STONE vorliegt. „Die Bild- und Videogenerierungsfunktionen auf zahlende Abonnenten zu beschränken … verhindert nicht die Erstellung von KI-generiertem CSAM (Child Sexual Abuse Material, also sexuellem Missbrauchsmaterial von Kindern), es stellt lediglich sicher, dass xAI an all diesen Inhalten verdient.“
ROLLING STONE wandte sich am Montag mit einer Anfrage an xAI, erhielt jedoch zunächst keine Antwort.
Stimmen der Anwältinnen
„Niemand sollte mit der Angst leben müssen, die diese Überlebenden jetzt mit sich tragen. Aber ich bin beeindruckt von ihrer Stärke und ihrer Entschlossenheit, diese Klage im Namen ihrer selbst und anderer Minderjähriger der Sammelklasse einzureichen“, sagte Vanessa Baehr-Jones von Baehr-Jones Law, einer der Kanzleien, die die Klägerinnen vertreten, in einem Statement gegenüber ROLLING STONE.
„Das sind Kinder, deren Schulfotos und Familienbilder durch das KI-Tool eines milliardenschweren Unternehmens in sexuelles Missbrauchsmaterial verwandelt und dann unter Tätern gehandelt wurden. Elon Musk und xAI haben Grok wissentlich so konzipiert, dass es für finanziellen Gewinn sexuell explizite Inhalte produziert – ohne jede Rücksicht auf die Kinder und Erwachsenen, die dadurch geschädigt werden“, erklärte Annika K. Martin von Lieff Cabraser, deren Kanzlei die Klägerinnen ebenfalls vertritt. „Ohne xAI hätte dieser schädliche, illegale Inhalt niemals existieren können und wäre niemals entstanden. Das Leben dieser Mädchen wurde durch den verheerenden Verlust ihrer Privatsphäre und das tiefe Gefühl der Verletzung zerstört, das kein Kind jemals erleben sollte. Wir werden xAI für jeden einzelnen Fall zur Rechenschaft ziehen.“
Groks Bildgenerierungsfunktion erlebte Ende Dezember einen rasanten Popularitätsschub, nachdem Musk angekündigt hatte, dass X-Nutzer Grok verwenden könnten, um auf der Plattform gepostete Bilder per Mausklick zu bearbeiten. Obwohl Grok keine vollständig unbekleideten Bilder erzeugen sollte, umgingen Nutzer diese Beschränkung angeblich, indem sie das System baten, echte Fotos so zu verändern, dass die abgebildeten Personen in „transparenten Bikinis, dann in Bikinis aus Zahnseide erscheinen, in sexualisierten Posen dargestellt und so gebeugt werden, dass ihre Genitalien sichtbar sind“, wie die Klage ausführt.
Musks Reaktion und Einschränkungen
Die Bildgenerierungsfunktion wurde am 9. Januar auf zahlende Nutzer beschränkt, am 14. Januar kamen weitere technische Einschränkungen hinzu. In einem Post auf X vom 16. Januar erklärte Musk, er sei sich keiner von Grok generierten Nacktbilder von Minderjährigen bewusst. „Buchstäblich null“, schrieb er. „Wenn Grok aufgefordert wird, Bilder zu generieren, verweigert es die Erstellung illegaler Inhalte, da das Grundprinzip von Grok darin besteht, die Gesetze des jeweiligen Landes oder Bundesstaates zu befolgen. Es kann vorkommen, dass feindliches Hacking von Grok-Prompts zu unerwarteten Ergebnissen führt. Wenn das passiert, beheben wir den Fehler sofort.“
Das Center for Countering Digital Hate berichtet unterdessen, eine Stichprobe von 200.000 Bildern aus den rund 4,6 Millionen Bildern ausgewertet zu haben, die Grok zwischen dem 29. Dezember 2025 und dem 8. Januar 2026 produzierte. Auf Basis dieser Stichprobe schätzte die Organisation, dass Grok in diesem Zeitraum etwa drei Millionen sexualisierte Bilder erzeugte – darunter rund 23.000, die angeblich Kinder zeigten. Ein von Grok generiertes Bild, so die Organisation, zeigte sechs junge Mädchen in Mikrobikinis und war noch am 15. Januar öffentlich auf X abrufbar.
Die zweite Klägerin in dem Verfahren gab an, am 12. Februar 2026 von Strafverfolgungsbehörden darüber informiert worden zu sein, dass auch sie ins Visier genommen wurde. Laut Klageschrift nutzte der Betreiber des Discord-Servers Instagram-Fotos von ihr in einem blauen Bikini am Strand vom vergangenen Oktober, um Bilder von ihr ohne Kleidung zu generieren. Der mutmaßliche Täter wurde im Dezember festgenommen, heißt es in der Klage.
Schwere emotionale Schäden
Die drei Klägerinnen geben an, schwere psychische Schäden erlitten zu haben. Ihre Klage zielt darauf ab, xAI für die Erstellung und Verbreitung des mutmaßlichen sexuellen Kindesmissbrauchsmaterials haftbar zu machen, und fordert ein Geschworenengericht.