Le PDG de Meta, Mark Zuckerberg, devrait témoigner dans un procès historique en Californie visant à déterminer si les fonctionnalités de conception des plateformes de Meta – y compris Instagram – contribuent à la dépendance et aux méfaits chez les jeunes utilisateurs. L’affaire, qui se déroule devant la Cour supérieure de Los Angeles, oppose des parents endeuillés au géant de la technologie, soulevant des questions cruciales sur la responsabilité des sociétés de médias sociaux dans la santé mentale de leurs plus jeunes utilisateurs.

Le cœur du procès

Le procès se concentre sur les affirmations de KGM, une jeune femme de 20 ans qui affirme qu’une exposition prolongée aux plateformes Meta et Google lorsqu’elle était enfant a exacerbé sa dépression et ses pensées suicidaires. Les plaignants soutiennent que ces sociétés ont délibérément conçu leurs plateformes en utilisant des techniques addictives, semblables à celles employées dans les casinos, pour maximiser l’engagement et les profits au détriment du bien-être des enfants.

Initialement déposée contre Meta, Google, TikTok et Snap Inc., l’affaire a fait l’objet de règlements de la part de TikTok et Snap avant d’être jugée. Ce procès phare – ce qui signifie que son résultat pourrait influencer des milliers de poursuites similaires – teste les limites juridiques de la responsabilité technologique.

Témoignage et arguments clés de Zuckerberg

Le témoignage de Zuckerberg se concentrera probablement sur les algorithmes d’Instagram et les fonctionnalités intégrées à l’application, qui, selon les plaignants, sont conçues pour garder les jeunes utilisateurs accros. La défense de Meta, dirigée par l’avocat Paul Schmidt, suggère que les problèmes de santé mentale de KGM découlent d’une vie familiale difficile, et non de la plateforme elle-même, présentant les médias sociaux comme un mécanisme d’adaptation plutôt que comme une cause.

Cependant, le juge a autorisé la poursuite de l’affaire, citant suffisamment de preuves pour suggérer que les fonctionnalités d’Instagram axées sur l’engagement pourraient avoir contribué au déclin de la santé mentale de KGM. Meta soutient que des fonctionnalités telles que le « défilement infini » ne peuvent pas être imputées au fait que les utilisateurs choisissent volontairement de continuer à consommer du contenu, une affirmation que le tribunal a autorisée à examiner par le jury.

Contexte juridique et réglementaire plus large

Cet essai intervient alors que les régulateurs européens envisagent des restrictions liées à l’âge sur les plateformes de médias sociaux, reflétant l’inquiétude mondiale croissante concernant la sécurité des enfants en ligne. Aux États-Unis, l’article 230 du Communications Decency Act a historiquement protégé les sociétés de médias sociaux de toute responsabilité concernant le contenu de tiers.

Cependant, cette protection est remise en question, le tribunal autorisant l’affaire à avancer en partant du principe que les choix de conception de la plateforme – et pas seulement le contenu généré par l’utilisateur – peuvent être à l’origine de préjudices.

Témoignages d’experts et conclusions internes

Le responsable d’Instagram, Adam Mosseri, a témoigné la semaine dernière, rejetant l’idée d’une dépendance clinique aux médias sociaux mais reconnaissant l’existence d’une « utilisation problématique ». Il a affirmé l’engagement de Meta à protéger les jeunes utilisateurs, affirmant que la rentabilité à long terme dépend de leur bien-être.

Pourtant, une étude réalisée en 2025 par un lanceur d’alerte de Meta, Arturo Béjar, et des universitaires a révélé que les deux tiers des outils de sécurité de Meta étaient inefficaces, exposant les comptes d’adolescents à des contenus préjudiciables, notamment du matériel sexuel, des thèmes d’automutilation et des problèmes d’image corporelle.

Le procès soulève des questions fondamentales sur la mesure dans laquelle les entreprises technologiques peuvent être tenues responsables des effets psychologiques de leurs produits. Le résultat va probablement remodeler le paysage juridique de la responsabilité des médias sociaux, obligeant potentiellement les entreprises à réévaluer leurs choix de conception et à donner la priorité à la sécurité des utilisateurs plutôt qu’à l’engagement à tout prix.