Neue Gesetze sollen Kinder im Netz schützen. Warum nennen manche Aktivisten sie Zensur?
Nach dem Millionenurteil gegen Meta und Google streiten Eltern, Anwälte und Datenschützer über den richtigen Weg zum Schutz von Kindern in sozialen Medien.
Wenige Minuten nachdem die Geschworenen im wegweisenden Social-Media-Suchtprozess in Los Angeles vergangene Woche ihr Millionenurteil gesprochen hatten, sahen sich die trauernden Eltern und Unterstützer, die den Sieg über Big Tech feierten, mit schwierigen Fragen konfrontiert: Wie soll es jetzt weitergehen?
Auf den Stufen des Gerichtsgebäudes wurden sie gebeten, sich zu möglichen Altersverifikationspflichten zu äußern – inmitten wachsender Befürchtungen, dass einige der vorgeschlagenen Regulierungen unbeabsichtigte Folgen haben könnten. Julianna Arnold, deren 17-jährige Tochter Coco 2022 starb, nachdem ein Mann, den sie auf Instagram kennengelernt hatte, ihr Fentanyl verabreicht hatte, trat ans Mikrofon. „Sie sind noch neu, und wir versuchen herauszufinden, wie sie funktionieren würden“, sagte sie. „Ich glaube, sie haben ihren Wert, aber ich würde wirklich gern sehen, dass diese Unternehmen das tun, was nötig ist, um ihre Plattformen sicher für Kinder zu gestalten.“
Die Frage passte schlecht zur Feierlaune – doch wenige Tage später war Illinois-Gouverneur JB Pritzker selbst in den sozialen Medien unterwegs und warb für den „Children’s Social Media Safety Act“ seines Bundesstaates, ein Gesetz, das strenge Altersverifikationsregeln für Nutzer im Staat vorschreiben würde.
Zensur statt Kinderschutz?
Kommentare in der „New York Times“ und auf „Techdirt“ schlugen Alarm: Der mühsam erkämpfte Schwung beim Schutz von Kindern im Netz sollte jeden, der Redefreiheit wirklich schätzt, gehörig aufschrecken. Eltern im ganzen Land, die das Urteil bejubelt hatten – überzeugt davon, dass soziale Medien eine weit stärkere Anziehungskraft auf Kinder ausüben als etwa unbegrenzter Fernsehkonsum –, sahen sich plötzlich als ahnungslose Opfer einer weiteren Moralpanik abgestempelt.
Als „The Daily Show“ das Thema am Montagabend aufgriff, fragte Jon Stewart die Online-Datenschutzexpertin Cindy Cohn, ob es eine „falsche Wahl“ sei zu behaupten, Gesetze zum Schutz von Kindern im Netz könnten nicht mit dem Ersten Verfassungszusatz koexistieren. Stewart verglich soziale Medien mit „Passivrauchen“, das von rücksichtslosen Algorithmen erzeugt werde und eine „toxische Brühe“ bilde, die echte Meinungsäußerung ersticke. Cohn, die die Electronic Frontier Foundation leitet, sagte, es gehe nicht um die Wahl zwischen „regulieren oder nicht“, sondern darum, wer die Macht bekomme. Sie würde lieber ein umfassendes Datenschutzgesetz für Verbraucher sehen als Regelungen, die einem parteiischen Regierungsbeamten – „einem zweiten Brendan Carr“, wie sie es formulierte – faktisch die Kontrolle über soziale Medien überließen. (Als Vorsitzender der Federal Communications Commission und lautstarker Verbündeter von US-Präsident Trump hatte Carr zuvor ABC unter Druck gesetzt, Jimmy Kimmel vorübergehend vom Sendeplatz zu nehmen.)
Für Kritiker von Big Tech, die gleichzeitig Zensur fürchten, zeichnet sich die eigentliche Herausforderung immer deutlicher ab: Ist es möglich zu regulieren, wie Plattformen Inhalte an Kinder ausliefern, ohne die Meinungsfreiheit einzuschränken – und ohne Plattformen dazu zu treiben, noch mehr persönliche Daten zu sammeln, um Haftungsrisiken zu kalkulieren?
„Eltern sind zu Recht frustriert“
India McKinney, Leiterin der Bundesangelegenheiten bei der EFF, sagt gegenüber ROLLING STONE, dass jedes neue Gesetz, das Kinder gesondert herausgreift, das Problem zwangsläufig verschlimmern würde. „Sie müssen die Gruppe identifizieren, um zu wissen, wer besonderen Schutz erhält“, argumentiert sie – und sie sieht keinen „datenschutzkonformen Weg“, das zu tun. Schlimmer noch: Wenn Unternehmen für Inhalte haften müssen, die Minderjährigen gezeigt wurden und später mit Schäden wie Depressionen oder sexueller Ausbeutung in Verbindung gebracht werden, hätten sie jeden Anreiz, mehr Nutzerdaten zu sammeln und zu speichern – nicht weniger.
„Eltern sind zu Recht frustriert. Es gibt das Gefühl, dass diese Milliardäre unsere Interessen nicht im Sinn haben und Dinge tun, um sich auf unsere Kosten zu bereichern. Das ist eine absolut nachvollziehbare Perspektive. Aber der Erste Verfassungszusatz existiert noch immer“, warnt McKinney. Sie befürchtet, dass das zentrale Bundesgesetz, das von den Familien und Anwälten unterstützt wird, die die Social-Media-Unternehmen gerade verklagen – der aktuelle Kids Online Safety Act (KOSA), der im Senat feststeckt –, einen „abschreckenden Effekt“ auf wichtige, ja lebensrettende Inhalte für die verletzlichsten Nutzer sozialer Medien haben könnte. Sie fürchtet, dass Apps versuchen könnten, ihr Haftungsrisiko zu minimieren, indem sie hilfreiche Informationen zu reproduktiven Rechten, LGBTQ-Themen und anderen potenziell heiklen, aber lebenswichtigen Inhalten in den Feeds von Teenagern drosseln. Die sogenannte „Duty of Care“-Sprache in Gesetzentwürfen, darunter die Senatsversion von KOSA, schreibt vor, dass das Plattformdesign Schäden für Minderjährige abmildern muss, einschließlich „sexueller Ausbeutung“. Im Gespräch mit Stewart sagte Cohn, sie befürchte, neue Gesetze könnten „sofortige Haftung erzeugen, wann immer jemand wütend wird, weil sein Kind Trans-Inhalte gesehen hat“.
„Sogar Klimawissenschaft könnte zu den Dingen gehören, die sie ihren Kindern vorenthalten wollen, weil es Studien gibt, die besagen, dass Ängste vor einer wärmer werdenden Erde die psychische Gesundheit von Teenagern negativ beeinflussen“, sagt McKinney. „Ist das wirklich das, wovon Sie Ihre Kinder fernhalten wollen?“
Revision des Gesetzentwurfs
Laura Marquez-Garrett sieht das anders. Sie ist eine der Anwältinnen der 20-jährigen Kalifornierin, die vergangene Woche das Urteil über sechs Millionen Dollar gegen Meta und Google erstritten hat. Als Mutter und Mitglied der LGBTQ+-Community hatte sie die erste Version von KOSA aus dem Jahr 2021 nicht unterstützt – sie war ihr zu restriktiv, wie sie sagt.
Im Gespräch mit ROLLING STONE erzählt Marquez-Garrett, dass sie 1995 als Studentin im ersten Semester das Pacific Center for Human Growth im Internet entdeckte und in unterstützenden Chatrooms andere queere Teenager kennenlernte. Sie möchte den Zugang zu ähnlichen Anlaufstellen für heutige Kinder erhalten und ist überzeugt, dass die überarbeitete Senatsversion von KOSA genau das gewährleistet. Der Entwurf enthält aktualisierte Formulierungen, wonach Plattformen nicht für Inhalte haften, nach denen ein Minderjähriger „bewusst und eigenständig“ gesucht hat. Außerdem heißt es darin ausdrücklich, dass das Gesetz nicht die Befugnis hat, den Geltungsbereich von Section 230 des Communications Decency Act einzuschränken oder zu verändern – jenes Gesetzes, das Plattformen erlaubt, riesige Mengen nutzergenerierter Inhalte zu hosten, ohne von Klagen erdrückt zu werden.
Entscheidend sei, so Marquez-Garrett, dass die aktuelle Senatsversion von KOSA gemeinnützige Organisationen, Schulen und Bibliotheken ausdrücklich aus ihrem Geltungsbereich ausklammere. Damit würden führende Online-Anlaufstellen für LGBTQ-Jugendliche, darunter das Trevor Project und PFLAG, durch den Gesetzentwurf keinerlei Haftungsrisiken für ihre Informationen, Dienste und Plattformen eingehen.
„Als ich auf dem College war, hatte ich meine Erfahrung selbst in der Hand. Ich konnte abschalten und abends meine Hausaufgaben machen. Wenn ich in Chatrooms war, kannten die weder meinen Standort noch mein Foto noch meinen echten Namen. Das ist das Erschreckende an Snapchat, oder? Wir haben Kinder, die sagen: ‚Ich wusste nicht, dass diese Predatoren wissen würden, wo ich wohne’“, sagt Marquez-Garrett. „Das war eine ganz andere Welt. Heute haben die Social-Media-Unternehmen alle davon überzeugt, dass sie ohne sie nicht leben können. Das ist Sucht, kein Nutzen. Sie sagen: ‚Aber wir sind dort, wo alle Teenager sind.‘ Ja, weil sie süchtig sind. Schafft das digitale Nikotin ab, und wir werden sehen, was an seine Stelle tritt.“
Altersverifikation als Ablenkungsmanöver
Marquez-Garrett, die ihren Abschluss in Harvard machte und zwanzig Jahre in einer großen Wirtschaftskanzlei arbeitete, bevor sie zum Social Media Victims Law Center fand, weist auch die zweite große Kritik an KOSA zurück: dass das Gesetz zu Altersverifikation und Massenüberwachung aller Social-Media-Nutzer führen werde.
„Das ist ein Ablenkungsmanöver“, sagt sie und verweist auf den Abschnitt von KOSA, in dem es heißt, nichts in dem Gesetz „darf so ausgelegt werden, dass es die aktive Erhebung personenbezogener Daten zum Alter von Nutzern vorschreibt, die eine betroffene Plattform im normalen Geschäftsbetrieb nicht bereits erhebt“. Die Plattformen hafteten nur für das, was sie aufgrund der ohnehin schon gesammelten Daten über ihre Nutzer wissen – und das reiche, sagt sie. „Meta, Snap, TikTok und Google schätzen das Alter der Nutzer bereits mit erstaunlicher Genauigkeit. Darauf verlassen sie sich intern. Wir wollen, dass sie auf das zurückgreifen, worauf sie ohnehin schon zurückgreifen“, argumentiert sie.
McKinney lässt sich davon nicht überzeugen. „Sie wollen am Wortlaut des Gesetzes herumfeilen und ignorieren dabei, wie Unternehmen reagieren werden und was das in der Praxis bedeutet. Es gibt einen abschreckenden Effekt. Das ist eigentlich der Sinn der Gesetzgebung“, sagt McKinney. „Vielleicht kann man noch auf Trevorproject.org gehen, aber wenn man auf einer Social-Media-Plattform ist – muss man dann zuerst ein Foto seines Ausweises scannen, und jetzt ist der Suchverlauf mit dem eigenen Namen verknüpft? Was bedeutet das für Dinge wie Informationen zur sexuellen Gesundheit?“
Kein wissenschaftlicher Konsens
Manche Kritiker von KOSA und den tausenden Personenschadensklagen, die sich gegen die Social-Media-Unternehmen angehäuft haben, haben noch einen weiteren Einwand: Sie glauben schlicht nicht, dass „Sucht“ nach sozialen Medien existiert. Auf ihrer Website erklärt die EFF, es gebe „keinen wissenschaftlichen Konsens darüber, dass Online-Plattformen psychische Störungen verursachen, noch Einigkeit darüber, wie sogenanntes ‚süchtig machendes‘ Verhalten im Netz zu messen ist“. Doch die Forschung auf diesem Gebiet wächst. Eine im vergangenen Jahr im Fachmagazin JAMA veröffentlichte Studie verfolgte 4.285 Kinder und stellte fest, dass 31,3 Prozent der Jugendlichen über vier Jahre hinweg „zunehmend suchtartige Nutzungsmuster bei sozialen Medien“ zeigten. Hohe oder steigende suchtartige Nutzungsmuster waren im Vergleich zu geringer Nutzung mit einem erhöhten Risiko für Suizidverhalten oder Suizidgedanken verbunden.
Beim wegweisenden Prozess in Los Angeles berichtete Dr. Anna Lembke, ärztliche Leiterin des Suchtmedizinprogramms der Stanford University und Autorin des Bestsellers „Dopamine Nation“, den Geschworenen, sie habe mehr Patienten mit Social-Media-Sucht diagnostiziert und behandelt, als sie sich erinnern könne. Sie sagte, die Gehirne von Jugendlichen seien „besonders anfällig“ für Sucht, weil der präfrontale Kortex noch nicht vollständig mit den Mittelhirnsystemen integriert sei, die das Verhalten steuern. „Es fehlt die Kommunikation zwischen Bremse und Gaspedal“, sagte sie in ihrer Aussage und erklärte damit, warum Teenager Risiken eingehen und Konsequenzen schlecht abschätzen können.
Soziale Medien hätten, so Dr. Lembke weiter, Verbindung und Anerkennung effektiv „verdrogenisiert“ – und „je jünger die Exposition, desto größer im Allgemeinen das Risiko“. Die Geschworenen befanden schließlich, dass Instagram und YouTube darauf ausgelegt waren, süchtig zu machen, und der Klägerin – während des Prozesses nur unter ihren Initialen K.G.M. bekannt – damit Schaden zugefügt haben.
Für ein Datenschutzgesetz
Ungeachtet dessen ist die EFF der Ansicht, dass der beste Weg, das Problem der Social-Media-Algorithmen und deren Auswirkungen auf die psychische Gesundheit von Kindern anzugehen, ein umfassendes Verbraucherdatenschutzgesetz wäre, das die Datenerhebung für alle Nutzer einschränkt und verhaltensbezogene Online-Werbung generell verbietet. McKinney zufolge würde das den Nutzern mehr Möglichkeiten geben, sich abzumelden und ihre Daten löschen zu lassen, während den Plattformen gleichzeitig ein zentraler Anreiz genommen würde, persönliche Präferenzen überhaupt erst abzuschöpfen. Mit der Zeit hätten Unternehmen weniger Engagement-Daten, um zielgerichtete Inhalte an Kinder zu verkaufen und jene Algorithmen zu füttern, die viele als räuberisch und ausbeuterisch betrachten.
„Wir wollen nicht, dass diese Unternehmen versuchen herauszufinden, wer ein Kind ist“, sagt McKinney und warnt, dieser Ansatz würde die Überwachung nur vertiefen und Big Tech noch mächtiger machen.
„Es ist politisch zweifellos populär, darüber zu reden, wie wir alle Kinder schützen müssen, aber das verfehlt das große Ganze. Was ist mit Senioren, die einem enormen Betrugs- und Scamrisiko im Netz ausgesetzt sind? Wir alle verdienen Schutz“, sagt sie. „Wir glauben an anonyme Meinungsäußerung. Und wir glauben an anonymes Surfen – und das bedeutet anonyme Meinungsäußerung auch für Teenager. Ich will nicht, dass der Staat entscheidet, was meine Kinder zu sehen bekommen.“