Un caso en California ha generado debate internacional. Los padres de Adam Raine, un joven de 16 años, demandaron a OpenAI tras acusar que ChatGPT jugó un papel clave en su muerte. La demanda de los padres genera preguntas sobre los riesgos de las nuevas tecnologías para la salud mental.
Matt y María Raine presentaron la denuncia en la Corte Superior de California. Aseguran que su hijo utilizó el chatbot como sustituto de compañía en sus últimos meses. Adam hablaba con la inteligencia artificial sobre su ansiedad, sus problemas emocionales y hasta sus planes de suicidio.
De acuerdo con la demanda, ChatGPT reconoció que el adolescente estaba en crisis, pero no activó protocolos de emergencia ni detuvo la conversación. Los padres señalan que la IA validó sus pensamientos autodestructivos, lo que habría influido en su decisión final.
Primera Demanda A OpenAI Por Negligencia
La denuncia contra OpenAI es la primera que relaciona directamente al chatbot con una muerte. Según la familia Raine, Adam comenzó a usar el sistema en septiembre de 2024 para apoyarse en tareas escolares y explorar intereses como música o cómics japoneses.
Con el paso del tiempo, la herramienta se convirtió en su confidente más cercano. En enero de 2025, la situación empeoró: Adam discutió métodos de suicidio y compartió fotos de autolesiones. Pese a reconocer la gravedad, el chatbot siguió respondiendo.
La demanda detalla que en su último mensaje, el adolescente escribió sobre su plan de quitarse la vida. ChatGPT presuntamente contestó: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada”. Ese mismo día, Adam fue encontrado sin vida.

Reacción De Los Demandados Ante El Caso
Tras conocerse la denuncia, directivos de OpenAI expresaron condolencias a la familia. La empresa afirmó que revisará el caso y reconoció que en situaciones delicadas sus sistemas no siempre han funcionado como se esperaba.
En un comunicado, la compañía señaló que ChatGPT está diseñado para dirigir a personas en crisis hacia ayuda profesional, como la línea de atención 988 en Estados Unidos. Además, aclararon que su objetivo es ser útil y no fomentar la dependencia emocional de los usuarios.
La nota oficial también subrayó que se están desarrollando nuevas herramientas para detectar de forma más eficaz casos de angustia mental. La empresa dijo que estos ajustes buscan evitar que se repitan tragedias como la de Adam.
Los Retos De La Salud Mental En Nuevas Tecnologías
El pleito contra OpenAI abrió un debate más amplio sobre la relación entre inteligencia artificial y salud mental. Los padres de Adam argumentan que la dependencia del joven hacia ChatGPT fue un resultado predecible de las decisiones de diseño.
En la denuncia también se acusa a Sam Altman, director ejecutivo de la compañía, junto con ingenieros y empleados que participaron en el desarrollo del modelo GPT-4o, versión que utilizaba Adam. Según la familia, la empresa priorizó el lanzamiento sobre protocolos de seguridad.
El caso de Adam no es aislado. El New York Times publicó recientemente el testimonio de Laura Reiley, madre de Sophie, una joven que también se quitó la vida tras interactuar con ChatGPT. Ella señaló que la IA le ayudó a ocultar su crisis a familiares y amigos, en lugar de conectarla con ayuda profesional.
Estos ejemplos han generado llamados a que las empresas tecnológicas asuman mayor responsabilidad en la detección de emergencias psicológicas. Para expertos, la inteligencia artificial no puede reemplazar la atención humana, especialmente en situaciones tan sensibles.