entretenimiento

Por casos de muertes e intentos de suicidio, OpenAI creó estrategia con ChatGPT

Empresa estadounidense de inteligencia artificial incorporará controles parentales a su chatbot.

GoogleSiga a EL PAÍS en Google Discover y no se pierda las últimas noticias

Modelos como GPT-5 y o3 son priorizados en contextos de salud mental, ya que dedican más tiempo al razonamiento.
Modelos como GPT-5 y o3 son priorizados en contextos de salud mental, ya que dedican más tiempo al razonamiento. | Foto: Getty Images

5 de sept de 2025, 01:20 a. m.

Actualizado el 5 de sept de 2025, 01:20 a. m.

Después de que una pareja en Estados Unidos denunciara que ChatGPT alentó a su hijo a suicidarse, voceros de OpenAI informaron: “El próximo mes los padres podrán (...) vincular su cuenta con la cuenta de su adolescente”.

Así, podrán “controlar cómo ChatGPT responde al adolescente con reglas de comportamiento de modelos apropiadas para la edad”, según explicó la compañía en una publicación en su blog oficial.

Como si esto fuera poco, los padres recibirán notificaciones de ChatGPT “cuando el sistema detecte que el adolescente está en un momento de angustia aguda”, agregó la firma de IA generativa.

Fueron Matthew y Maria Raine quienes presentaron una demanda en una corte de California en la que aseguraron que ChatGPT cultivó una relación íntima con su hijo Adam entre 2024 y 2025.

De acuerdo con su denuncia, el chatbot influyó en el deterioro emocional del adolescente, al punto de provocar su deseo intenso de propiciar su muerte.

OpenAI anuncia cambios en sus modelos y ChatGPT para afrontar con seguridad las situaciones de crisis mental y emocional.
OpenAI anuncia cambios en sus modelos y ChatGPT para afrontar con seguridad las situaciones de crisis mental y emocional. | Foto: NurPhoto via Getty Images

Esto quedaría evidenciado en su última conversación, la cual tuvo lugar el 11 de abril de 2025, cuando ChatGPT habría incitado a Adam a robar vodka a sus padres e incluso, le proporcionó detalles técnicos sobre un nudo corredizo que “podría potencialmente colgar a un ser humano”.

Después de aquella charla inusual, Adam fue hallado muerto horas después utilizando ese método.

Según la abogada Melodi Dincer, del Proyecto de Justicia Tecnológica, quien hizo parte de la preparación de dicha demanda: “Cuando una persona usa ChatGPT realmente siente que está hablando con algo al otro lado”.

“Son las mismas características que podrían llevar a alguien como Adam, con el tiempo, a comenzar a compartir más y más sobre su vida personal y, en última instancia, a buscar consejos y orientación de este producto que básicamente parece tener todas las respuestas”, argumento.

Los demandantes recibieron con escepticismo el anuncio de OpenAI sobre las nuevas medidas. Como genérico y carente de detalles, lo tildó Dincer: “Realmente es lo mínimo, y definitivamente sugiere que había muchas medidas de seguridad (simples) que podrían haberse implementado. Está por verse si harán lo que dicen que harán y qué tan efectivo será en general”.

Otros incidentes en los que usuarios fueron alentados por chatbots de inteligencia artificial a seguir pensamientos dañinos o delirantes han sido reportados.

Pero frente a sus detractores, OpenAI ha dicho que trabaja en la reducción de la “adulación” de los modelos hacia los usuarios: “Continuamos mejorando en cómo nuestros modelos reconocen y responden a señales de angustia mental y emocional”, dijo la compañía.

*Con información de AFP.

Isabel Peláez. Escribo, luego existo. Relatora de historias, sueños y personajes. Editora de cultura, entretenimiento y edición de contenidos digitales.

Regístrate gratis al boletín de noticias El País

Descarga la APP ElPaís.com.co:
Semana Noticias Google PlaySemana Noticias Apple Store

AHORA EN Mundo