Después de que una pareja en Estados Unidos denunciara que ChatGPT alentó a su hijo a suicidarse, voceros de OpenAI informaron: “El próximo mes los padres podrán (...) vincular su cuenta con la cuenta de su adolescente”.
Así, podrán “controlar cómo ChatGPT responde al adolescente con reglas de comportamiento de modelos apropiadas para la edad”, según explicó la compañía en una publicación en su blog oficial.
Como si esto fuera poco, los padres recibirán notificaciones de ChatGPT “cuando el sistema detecte que el adolescente está en un momento de angustia aguda”, agregó la firma de IA generativa.
Fueron Matthew y Maria Raine quienes presentaron una demanda en una corte de California en la que aseguraron que ChatGPT cultivó una relación íntima con su hijo Adam entre 2024 y 2025.
De acuerdo con su denuncia, el chatbot influyó en el deterioro emocional del adolescente, al punto de provocar su deseo intenso de propiciar su muerte.
Esto quedaría evidenciado en su última conversación, la cual tuvo lugar el 11 de abril de 2025, cuando ChatGPT habría incitado a Adam a robar vodka a sus padres e incluso, le proporcionó detalles técnicos sobre un nudo corredizo que “podría potencialmente colgar a un ser humano”.
Después de aquella charla inusual, Adam fue hallado muerto horas después utilizando ese método.
Según la abogada Melodi Dincer, del Proyecto de Justicia Tecnológica, quien hizo parte de la preparación de dicha demanda: “Cuando una persona usa ChatGPT realmente siente que está hablando con algo al otro lado”.
“Son las mismas características que podrían llevar a alguien como Adam, con el tiempo, a comenzar a compartir más y más sobre su vida personal y, en última instancia, a buscar consejos y orientación de este producto que básicamente parece tener todas las respuestas”, argumento.
Los demandantes recibieron con escepticismo el anuncio de OpenAI sobre las nuevas medidas. Como genérico y carente de detalles, lo tildó Dincer: “Realmente es lo mínimo, y definitivamente sugiere que había muchas medidas de seguridad (simples) que podrían haberse implementado. Está por verse si harán lo que dicen que harán y qué tan efectivo será en general”.
Otros incidentes en los que usuarios fueron alentados por chatbots de inteligencia artificial a seguir pensamientos dañinos o delirantes han sido reportados.
Pero frente a sus detractores, OpenAI ha dicho que trabaja en la reducción de la “adulación” de los modelos hacia los usuarios: “Continuamos mejorando en cómo nuestros modelos reconocen y responden a señales de angustia mental y emocional”, dijo la compañía.
*Con información de AFP.