Mark Zuckerberg, CEO von Meta, wird in einem bahnbrechenden Prozess in Kalifornien aussagen, in dem untersucht wird, ob Designfunktionen auf Metas Plattformen – einschließlich Instagram – zu Sucht und Schaden bei jungen Nutzern beitragen. Der Fall, der sich vor dem Obersten Gerichtshof von Los Angeles abspielt, bringt trauernde Eltern gegen den Technologieriesen und wirft kritische Fragen über die Verantwortung von Social-Media-Unternehmen für die psychische Gesundheit ihrer jüngsten Nutzer auf.
Der Kern der Klage
Im Mittelpunkt der Klage stehen die Behauptungen von KGM, einer 20-Jährigen, die behauptet, dass der längere Kontakt mit Meta und den Plattformen von Google als Kind ihre Depressionen und Selbstmordgedanken verschlimmert habe. Die Kläger argumentieren, dass diese Unternehmen ihre Plattformen bewusst mit süchtig machenden Techniken ausgestattet haben, ähnlich denen, die in Casinos eingesetzt werden, um das Engagement und die Gewinne auf Kosten des Wohlergehens der Kinder zu maximieren.
Der Fall wurde ursprünglich gegen Meta, Google, TikTok und Snap Inc. eingereicht, es gab jedoch Vergleiche zwischen TikTok und Snap, bevor er vor Gericht kam. Dieses wegweisende Verfahren – das heißt, sein Ausgang könnte Tausende ähnlicher Klagen beeinflussen – testet die rechtlichen Grenzen der Rechenschaftspflicht im Technologiebereich.
Zuckerbergs Aussage und Hauptargumente
Zuckerbergs Aussage wird sich wahrscheinlich auf die Algorithmen und In-App-Funktionen von Instagram konzentrieren, die nach Ansicht der Kläger darauf ausgelegt sind, junge Nutzer zu fesseln. Die von Anwalt Paul Schmidt angeführte Verteidigung von Meta legt nahe, dass die psychischen Probleme von KGM auf ein schwieriges Privatleben und nicht auf die Plattform selbst zurückzuführen seien, und stellt soziale Medien eher als Bewältigungsmechanismus denn als Ursache dar.
Der Richter hat jedoch die Fortsetzung des Verfahrens zugelassen und dabei ausreichende Beweise angeführt, die darauf hindeuten, dass die auf Interaktionen ausgerichteten Funktionen von Instagram zum Verfall der psychischen Gesundheit von KGM beigetragen haben könnten. Meta argumentiert, dass Funktionen wie „Infinite Scroll“ nicht dafür verantwortlich gemacht werden können, dass Benutzer sich bereitwillig dafür entscheiden, weiterhin Inhalte zu konsumieren, eine Behauptung, die das Gericht zur Prüfung durch die Jury zugelassen hat.
Breiterer rechtlicher und regulatorischer Kontext
Dieser Prozess findet statt, während europäische Regulierungsbehörden über altersbedingte Beschränkungen auf Social-Media-Plattformen nachdenken, was die wachsende weltweite Besorgnis über die Sicherheit von Kindern im Internet widerspiegelt. In den Vereinigten Staaten schützt Abschnitt 230 des Communications Decency Act in der Vergangenheit Social-Media-Unternehmen vor der Haftung für Inhalte Dritter.
Dieser Schutz wird jedoch angefochten, da das Gericht die Fortsetzung des Verfahrens unter der Prämisse zulässt, dass die Wahl des Plattformdesigns – und nicht nur benutzergenerierte Inhalte – schädlich sein könnte.
Expertenaussagen und interne Erkenntnisse
Der Leiter von Instagram, Adam Mosseri, sagte letzte Woche aus und lehnte die Idee einer klinischen Abhängigkeit von sozialen Medien ab, räumte jedoch die Existenz einer „problematischen Nutzung“ ein. Er bekräftigte das Engagement von Meta für den Schutz junger Nutzer und behauptete, dass die langfristige Rentabilität von ihrem Wohlergehen abhängt.
Eine Studie des Meta-Whistleblowers Arturo Béjar und von Wissenschaftlern aus dem Jahr 2025 ergab jedoch, dass zwei Drittel der Sicherheitstools von Meta unwirksam waren und die Konten von Teenagern schädlichen Inhalten ausgesetzt waren, darunter sexuelle Inhalte, Selbstverletzungsthemen und Probleme mit dem Körperbild.
Der Prozess wirft grundlegende Fragen darüber auf, inwieweit Technologieunternehmen für die psychologischen Auswirkungen ihrer Produkte verantwortlich gemacht werden können. Das Ergebnis wird wahrscheinlich die Rechtslandschaft für die Verantwortung in sozialen Medien verändern und Unternehmen möglicherweise dazu zwingen, ihre Designentscheidungen neu zu bewerten und der Benutzersicherheit um jeden Preis Vorrang vor dem Engagement zu geben.
