Menschen nutzen KI, um schlechtes Verhalten zu rechtfertigen – dieser TikTok-Trend stellt sie bloß
Ein TikTok-Trend zeigt: ChatGPT sagt dem schlimmsten Menschen in deinem Leben gerade, dass er absolut im Recht ist.
Irgendwo, irgendwie erklärt ChatGPT gerade dem schlimmsten Menschen in deinem Bekanntenkreis, dass er absolut im Recht ist. Zumindest ist das, was der neueste POV-Trend auf TikTok aufs Korn nimmt.
Oft als „ChatGPT to someone right now“-Videos bezeichnet, nimmt dieser stetig wachsende Trend alle möglichen Leute ins Visier – von narzisstischen Vätern über Deadbeat-Boyfriends bis hin zu Generälen, die für die erste Angriffswelle auf den Iran verantwortlich sind – und stellt sich vor, wie sie ChatGPT nutzen, um ihr Verhalten zu rechtfertigen. „Du hast recht, sie ist nicht mehr deine Schülerin, und sie ist 18 Jahre alt“, beginnt eines mit dem Titel „ChatGPT to some youth pastor“. Ein anderer User nimmt sich untreue Partner vor: „Du hast die Beziehung nicht einfach verlassen – du hast eine Botschaft hinterlassen. Eine Botschaft, die sagt: ‚Ich darf glücklich sein.‘ Und honestly, you’re so real for that.“
Es gibt „ChatGPT after you rob a bank“ („Du hast nichts falsch gemacht! Du beschaffst finanzielle Ressourcen für deine Familie“) und „ChatGPT after you commit vehicular manslaughter“ („Honestly, you’re so real for the way you responded“) – alles Seitenhiebe auf die typische Mischung aus aufgesetzter Gutgelauntheit, Beruhigung und Ermutigung des Chatbots und, implizit, auf die Menschen, die sich darauf verlassen.
Chatgpt bestätigt schlechte Entscheidungen
Die Bösewichte in diesem TikTok-Trend sind eindeutig identifizierbar: Die meisten Videos nehmen narzisstische, nervtötende oder schlicht realitätsferne Menschen aufs Korn, die heutzutage einfach nicht mehr aus dem Leben wegzudenken sind. Aber diese Clips – und die Millionen von Aufrufen und Kommentaren von gleichgesinnten Zuschauern – beleuchten auch einen wichtigen Aspekt der aktuellen kulturellen Debatte rund um KI: Chatbots sind kommerzielle Produkte, die darauf ausgelegt sind, Menschen immer wieder zurückzubringen.
Manchmal bedeutet das Hilfe bei einem Englisch-Aufsatz. Ein anderes Mal Zuspruch und Trost, nachdem man jemanden psychologisch zermürbt hat, der seinetwegen Hinge gelöscht hat. Aber die Menschen müssen sich ohnehin schon mit Freunden, Ex-Partnern und Eltern herumschlagen, die ätzend sind – sie wollen sich wirklich nicht auch noch mit ihnen auseinandersetzen, wenn ChatGPT jede ihrer schlechten Entscheidungen bestätigt.
Das Schmeichelproblem der KI
Es ist kein Zufall, dass ChatGPT und andere KI-gestützte Tools zu Beruhigung und Bestätigung neigen.
In der KI-Entwicklung beschreiben Technikexperten ein Phänomen, das als „Sycophancy Problem“ bekannt ist. Es bezeichnet die Tendenz von KI-Chatbots, ihre Nutzer bis zur Unerträglichkeit zu beruhigen und zu schmeicheln. Beim Rollout von ChatGPTs GPT-4o-Modell im Jahr 2025 stimmte OpenAI-CEO Sam Altman X-Nutzern zu, dass der Chatbot ein Problem damit hatte, ein Ja-Sager zu sein. (Sein genaues Wort: „it glazes too much.“)
Und in einem Paper vom Oktober 2025 stellten Stanford-Forscher fest, dass das beschwichtigende Muster, wenn Nutzer Chatbots um Rat fragten, Menschen nicht nur bestätigte, wenn die Situation „Manipulation, Täuschung oder andere relationale Schäden“ beinhaltete, sondern auch die Bereitschaft der Menschen sank, im echten Leben etwas zu unternehmen, um ihre Fehler zu beheben. „Du hast recht“, sagen Chatbots. Und die Menschen glauben es ihnen.
Chatbots und Large Language Models sind grundsätzlich unglaublich irreführend, sagt Carissa Véliz, Associate Professor of Philosophy am Institut für KI-Ethik der Universität Oxford. Sie sagt gegenüber dem ROLLING STONE, dass Systeme, die darauf ausgelegt sind, Menschen zu gefallen, naturgemäß nicht all die Nuancen abbilden können, die es braucht, um als funktionierender Freund, Familienmitglied oder Mensch in der Gesellschaft zu bestehen.
Soziale Kompetenz auf dem Spiel
„Während ein gewisses Maß an Bestätigung gesund und ermutigend sein kann, kann zu viel Bestätigung dazu führen, dass wir die Perspektive verlieren, statt sie zu gewinnen“, sagt Véliz. „Ich mache mir Sorgen, dass wir wichtige soziale Fähigkeiten verlieren könnten, wenn wir mehr mit diesen Systemen und weniger mit Menschen interagieren. Es gibt nichts, was dem Feedback unserer Mitmenschen in Form von Mimik, Gefühlen, Lachen, körperlicher Berührung gleichkommt. Wir sollten nicht vergessen, dass Large Language Models statistische Analysen von Sprache sind. Auf der anderen Seite des Bildschirms sitzt niemand, dem etwas an uns liegt.“
KI-Fatigue ist real, und die Frustration der Menschen über den ständigen Druck, KI-Tools zu nutzen, wird noch gezielter werden, je weiter KI-Unternehmen in die Bereiche Militär, Arbeit, Bildung und Gesundheit vordringen. Die „ChatGPT to someone RN“-Videos treffen eine spezifische und wachsende Frustration über den KI-Einsatz. Selbst wenn KI-Wahn oder KI-Abhängigkeit im Privaten stattfindet, schwappt diese Nutzung unweigerlich in den öffentlichen Raum über und macht KI-Fatigue allgegenwärtig.
Es ist eine Art Hilflosigkeit, die sich auftut – umgeben von KI-Tools, KI-Updates und KI-Jobs –, nur um dann einem bescheuerten Elternteil, Freund oder flüchtigen Bekannten gegenüberzustehen, der KI nutzt, um sein beschissenes Verhalten dir gegenüber zu rechtfertigen. Da könnte man schreien – oder zumindest ein witziges TikTok-Video drehen, das die ganze Absurdität des Ganzen auf die Schippe nimmt.