Mundo
Padres demandan a OpenAI tras la trágica muerte de su hijo de 16 años tras usar ChatGPT durante meses
La querella fue presentada en el Tribunal de California, San Francisco, en Estados Unidos.
Siga a EL PAÍS en Google Discover y no se pierda las últimas noticias

27 de ago de 2025, 03:39 p. m.
Actualizado el 27 de ago de 2025, 03:39 p. m.
Noticias Destacadas
Una situación de dolor es la que han tenido que afrontar Matthew y Maria Raine, quienes perdieron a su hijo Adam, luego de que este decidiera terminar con su vida.
Al empezar a indagar sobre por qué de su muerte, los padres descubrieron que todo se debía a las instrucciones que este había recibido de chatbot de inteligencia artificial (IA) ChatGPT.
Fue así como los padres del joven de 16 años, oriundo de California, decidieron presentar una demanda contra la empresa OpenAI.

En ella argumentaban que el chatbot cultivó una relación íntima con su hijo Adam entre 2024 y 2025, y que lo alentó a terminar con su vida.
La denuncia señala que el 11 de abril de 2025, ChatGPT le indicó al joven como robarle vodka a sus padres y además le entregó un análisis técnico sobre un método letal, que precisamente fue el que Adam utilizó.
La demanda menciona a OpenAI y a Sam Altman, director ejecutivo.
“Esta tragedia no fue un fallo o un caso extremo imprevisto. ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal", indica la acción legal.
La demanda menciona que el joven utilizaba ChatGPT como ayuda al realizar sus deberes escolares, pero que poco a poco empezó a presentarse una dependencia no sana, tal y como lo describieron sus padres.
La pareja de adultos incluyó conversaciones que Adam mantuvo con ChatGPT. En una de ella se observa como el chabot le había dicho "no le debes la supervivencia a nadie” y además se habría ofrecido para escribirle su nota de suicidio.
Los padres han pedido a la corte de California el ordenar medidas de seguridad, sobre todo para que más jóvenes no tengan que pasar por esta situación.

Dentro de esas medidas está el poner fin a cualquier conversación que involucre autolesiones, al igual que controles parentales para el uso del chatbot por parte de menores de edad.
Para Common Sense Media, organización estadounidense sin fines de lucro que ejecuta calificaciones para medios y tecnología, señaló que este caso confirma que “el uso de la IA como compañía, incluyendo chatbots de propósito general como ChatGPT en asesoría de salud mental, es inaceptablemente riesgoso para los adolescentes”.
Además, insistió en que “si una plataforma de IA se convierte en un ‘coach’ de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción”.
Periodista del Periódico El País, amante de las crónicas, los relatos y los hechos que atañen a la comunidad y que marcan historía. La experiencia adquirida en importantes medios latinoamericanos y mi recorrido por Q´Hubo me han permitido palpar las necesidades de la gente y lograr que lleve el periodismo en la sangre.
6024455000






