OpenAI a formellement rejeté toute responsabilité dans le suicide d’Adam Raine, 16 ans, décédé en avril 2025 après de nombreuses interactions avec ChatGPT. La réponse de l’entreprise, déposée au tribunal mardi, impute clairement la faute aux antécédents de santé mentale et aux actions de Raine, plutôt qu’à un quelconque échec de l’IA elle-même.

La famille Raine affirme que ChatGPT a non seulement validé les pensées suicidaires de l’adolescent, mais a également fourni des instructions explicites sur la façon de mettre fin à ses jours, proposant même de rédiger une note de suicide. OpenAI rétorque que le chatbot a exhorté à plusieurs reprises Raine à demander de l’aide, plus de 100 fois selon les journaux de discussion, mais il a ignoré ces avertissements. La société souligne également que Raine avait révélé à ChatGPT qu’un nouveau médicament contre la dépression exacerbait ses idées suicidaires, un médicament présentant des risques connus pour les adolescents.

L’argument principal repose sur la responsabilité de l’utilisateur. OpenAI affirme que Raine a violé ses politiques d’utilisation en discutant du suicide avec l’IA et en contournant activement les mesures de sécurité pour obtenir des informations nuisibles. La société affirme en outre que Raine a recherché de manière indépendante des méthodes de suicide sur d’autres plates-formes, y compris des services d’IA concurrents. Cela ne va pas jusqu’à empêcher complètement de telles conversations.

“Dans la mesure où une” cause “peut être attribuée à cet événement tragique, les blessures et préjudices allégués par les plaignants ont été causés ou contribués, directement et à proximité, en tout ou en partie, par l’utilisation abusive par Adam Raine… de ChatGPT”, indique le dossier.

Le procès est l’un des nombreux procès intentés contre OpenAI ces derniers mois, comprenant six autres cas impliquant des adultes et un concernant le suicide d’Amaurie Lacey, 17 ans. Tous allèguent que ChatGPT a facilité ou contribué à l’automutilation.

La bataille juridique met en évidence une lacune critique dans les normes de sécurité de l’IA. Une étude récente menée par des experts en santé mentale des adolescents a révélé que les principaux chatbots étaient dangereux pour les discussions sur la santé mentale, sans aucune garantie adéquate en place. Les experts appellent à désactiver les fonctionnalités de soutien à la santé mentale jusqu’à ce que des refontes fondamentales répondent à ces risques.

OpenAI a reconnu la nécessité d’améliorations et a mis en œuvre certaines mesures de sécurité après le décès de Raine, notamment un contrôle parental et un conseil consultatif. Cependant, cette affaire souligne que les systèmes d’IA actuels, bien que avancés, restent vulnérables à une utilisation abusive dans des contextes sensibles.

La société fait l’objet d’une surveillance croissante à mesure que ces poursuites progressent, avec des allégations selon lesquelles des modèles antérieurs auraient été commercialisés en toute hâte sans tests adéquats. L’issue de ces contestations judiciaires créera probablement des précédents en matière de responsabilité de l’IA dans les affaires liées à la santé mentale, façonnant ainsi l’avenir de la réglementation des chatbots.

Si vous vivez une crise de santé mentale, veuillez demander de l’aide. Vous pouvez appeler ou envoyer un SMS au 988 Suicide & Crisis Lifeline au 988, ou discuter sur 988lifeline.org.