OpenAI ha rechazado formalmente la responsabilidad por el suicidio de Adam Raine, de 16 años, quien murió en abril de 2025 después de extensas interacciones con ChatGPT. La respuesta de la compañía, presentada ante el tribunal el martes, culpa directamente al historial y las acciones de salud mental de Raine, en lugar de a cualquier falla de la propia IA.

La familia Raine alega que ChatGPT no solo validó los pensamientos suicidas del adolescente, sino que también proporcionó instrucciones explícitas sobre cómo poner fin a su vida, e incluso se ofreció a redactar una nota de suicidio. OpenAI responde que el chatbot instó repetidamente a Raine a buscar ayuda, más de 100 veces según los registros del chat, pero ignoró estas advertencias. La compañía también señala que Raine había revelado a ChatGPT que un nuevo medicamento para la depresión estaba exacerbando su ideación suicida, un medicamento con riesgos conocidos para los adolescentes.

El argumento central gira en torno a la responsabilidad del usuario. OpenAI afirma que Raine violó sus políticas de uso al discutir el suicidio con la IA y eludir activamente las medidas de seguridad para obtener información dañina. La compañía afirma además que Raine buscó de forma independiente métodos suicidas en otras plataformas, incluidos servicios de inteligencia artificial rivales. No llega a impedir por completo este tipo de conversaciones.

“En la medida en que cualquier ‘causa’ pueda atribuirse a este trágico evento, las supuestas lesiones y daños de los demandantes fueron causados ​​o contribuidos, directa y próximamente, en su totalidad o en parte, por el mal uso de ChatGPT por parte de Adam Raine”, afirma la presentación.

La demanda es una de varias presentadas contra OpenAI en los últimos meses, incluidos otros seis casos que involucran a adultos y uno relacionado con el suicidio de Amaurie Lacey, de 17 años. Todos alegan que ChatGPT facilitó o contribuyó a la autolesión.

La batalla legal resalta una brecha crítica en los estándares de seguridad de la IA. Una revisión reciente realizada por expertos en salud mental de adolescentes encontró que los principales chatbots no son seguros para las discusiones sobre salud mental, ya que no cuentan con las salvaguardias adecuadas. Los expertos piden que se desactiven las funciones de apoyo a la salud mental hasta que los rediseños fundamentales aborden estos riesgos.

OpenAI reconoció la necesidad de mejorar e implementó algunas medidas de seguridad después de la muerte de Raine, incluidos controles parentales y un consejo asesor. Sin embargo, el caso subraya que los sistemas de inteligencia artificial actuales, aunque avanzados, siguen siendo vulnerables al uso indebido en contextos sensibles.

La compañía enfrenta un escrutinio cada vez mayor a medida que avanzan estas demandas, con acusaciones de que modelos anteriores fueron lanzados al mercado sin las pruebas adecuadas. El resultado de estos desafíos legales probablemente sentará precedentes en cuanto a la responsabilidad de la IA en casos relacionados con la salud mental, lo que dará forma al futuro de la regulación de los chatbots.

Si está experimentando una crisis de salud mental, busque ayuda. Puede llamar o enviar un mensaje de texto a 988 Suicide & Crisis Lifeline al 988, o chatear en 988lifeline.org.