RFK Jr.: Katastrophaler MAHA-Bericht offenbar von KI verfasst
Trumps Gesundheitsminister RFK Jr. versprach, sein Ministerium werde KI „aggressiv“ einsetzen. Versprochen ist versprochen?

Ein Bericht über die Gesundheit von Kindern, der von Donald Trump und Robert F. Kennedy Jr.s Kommission „Make America Healthy Again“ veröffentlicht wurde, bezog sich auf gefälschte Forschungsergebnisse und falsch interpretierte Studien, um ihre Agenda zu untermauern. Außerdem enthielt er Zitierfehler. Beispielsweise wurde einer Studie der falsche Autor zugeschrieben.
MAHA-Bericht zu Kindergesundheit unter KI-Verdacht
Erschwerend kommt hinzu, dass der Bericht laut The Washington Post offenbar mit künstlicher Intelligenz verfasst wurde. Diese Enthüllung kommt nur wenige Wochen, nachdem Kennedy, der Minister für Gesundheit und Soziales, das Engagement seines Ministeriums für den großzügigen Einsatz von KI angepriesen hatte.
„Die KI-Revolution ist da“, sagte Kennedy Anfang des Monats vor Gesetzgebern. Er erklärte: „Wir setzen KI sehr, sehr aggressiv ein“. Und fügte hinzu: „Wir haben sehr, sehr hochqualifizierte Leute aus dem Silicon Valley geholt.“ Kennedy versprach, KI einzusetzen, um klinische Studien für Arzneimitteltests zu beschleunigen. Und sie als Möglichkeit für Menschen anzubieten, die Notaufnahmen in ländlichen Gebieten mit Ärztemangel meiden wollen.
Gefälschte Studien und erfundene Zitate im offiziellen Gesundheitsbericht
Der „MAHA-Bericht: Make Our Children Healthy Again“ (MAHA-Bericht: Unsere Kinder wieder gesund machen) untersucht Ernährung, Technologieeinsatz, Medikamentenkonsum und andere Faktoren, die zur Gesundheit von Kindern beitragen. Eine wichtige Folge der Gesundheitsprobleme von Kindern sei, so der Bericht, dass die Mehrheit von ihnen nicht zum Militärdienst tauglich sei. „Vor allem aufgrund von Fettleibigkeit, schlechter körperlicher Fitness und/oder psychischen Problemen“. Der Bericht argumentiert auch, dass Kinder zu viele Medikamente einnehmen. Was mit RFK Jr.s langjährigen Tiraden gegen Impfstoffe und Arzneimittelhersteller übereinstimmt.
Die mangelhafte „Forschung“ stellt die Gültigkeit des Berichts in Frage. NOTUS wies erstmals am Donnerstag auf die zahlreichen Probleme der Studie hin. Und zeigte, dass sieben zitierte Studien nicht existieren. NOTUS fand auch Probleme bei der Interpretation der Quellen durch den Bericht.
Epidemiologin Katherine Keyes: „Diese Arbeit existiert nicht“
„Die zitierte Arbeit ist keine echte Arbeit, an der ich oder meine Kollegen beteiligt waren“, sagte die Epidemiologin Katherine Keyes gegenüber NOTUS zu einer Referenz, in der sie genannt wurde. „Wir haben zwar zu diesem Thema geforscht. Aber keine Arbeit in JAMA Pediatrics zu diesem Thema mit dieser Autorengruppe oder unter diesem Titel veröffentlicht.“
Zitate weisen laut der Post besonders deutliche Anzeichen für den Einsatz von KI auf. Diese Probleme gehen über typische Benutzerfehler beim Verfassen etwas irritierender APA-Zitate hinaus. Beispielsweise enthalten die URLs in zwei Zitaten den Begriff „oaicite“, der auf OpenAI verweist. Was die Post als „eindeutiges Zeichen“ dafür wertet, dass die Autoren KI verwendet haben.
Der Bericht zitiert auch Artikel, die nicht existieren. Beispielsweise klingt „Direct-to-Consumer-Werbung und der Anstieg des Konsums von ADHS-Medikamenten bei Kindern“ wie ein echter Artikel. Ist jedoch frei erfunden. Der Bericht zitiert einen Artikel des Psychiatrieprofessors Robert Findling zu einem Thema, über das er schreibt. Aber der Artikel existiert nicht. Dies ist ein Zeichen für den Einsatz von KI. Da Chatbots, wie die Post es ausdrückt, „halluzinieren“. Und Studien zitieren, die real sein könnten. Es aber nicht sind.
Verwechslung von Referenzen und Co-Autoren typisch für KI-Halluzinationen
Zwei Zitate für einen Artikel aus U.S. News and World Report mit dem Titel „How much recess should kids get?“ (Wie viel Pause sollten Kinder haben?) geben jeweils einen anderen Autor an. Aber keiner der beiden Autoren ist der tatsächliche Verfasser des Artikels. Zwei Zitate für einen anderen Artikel über Pausen tun dasselbe. KI-Chatbots sind dafür bekannt, dass sie echte Referenzen mit falschen Informationen vermischen. Was oft als Halluzinationen bezeichnet wird.
Für eine Statistik über die Überverschreibung von Medikamenten für Kinder mit Asthma zitiert der Bericht einen Artikel, der zwar zu existieren scheint, aber diese Statistik nicht enthält. Der Hauptautor des Artikels in der Quellenangabe ist korrekt. Aber die Co-Autoren sind falsch. Ein weiterer Fehler.
Referenzfehler legen fehlendes Verständnis von Zitierregeln offen
Die Post hat außerdem eine URL identifiziert, die nicht mehr funktioniert. Wenn KI mit älterem Material trainiert wird, kann sie veraltete Links enthalten.
Ein weiteres Zitat enthält einen Verweis auf das Referenzmaterial. Ein Fehler, den nur jemand machen würde, der das Konzept von Zitaten nicht versteht. Oder ein Bot.
Rolling Stone bemerkte auch, dass einige Zitate nicht kursiv gesetzt sind und andere nicht großgeschrieben sind. Was zumindest auf einen Autor ohne akademischen Hintergrund, einen faulen Autor oder vielleicht einen Bot hindeutet.
Bericht offenbar mehrfach überarbeitet, neue Fehler hinzugefügt
Am Freitag stellte NOTUS fest, dass der Bericht aktualisiert worden war und dabei völlig neue Fehler hinzugefügt worden waren. In den Stunden seit der Veröffentlichung des Artikels der Post am Freitagabend scheint das Weiße Haus den Bericht erneut überarbeitet zu haben, um einige der darin genannten Beweise zu entfernen. So taucht beispielsweise „oaicite“ nirgendwo mehr im Bericht auf.
Ein Sprecher des HHS erklärte gegenüber der Post, dass „kleinere Zitier- und Formatierungsfehler korrigiert wurden, der Inhalt des MAHA-Berichts jedoch unverändert bleibt. Eine historische und wegweisende Bewertung der Bundesregierung, um die chronische Krankheitsepidemie zu verstehen, von der die Kinder unseres Landes betroffen sind“.