La empresa anunció nuevas medidas de seguridad, luego de que una familia en California acusó al chatbot de alentar la muerte de su hijo.
California (Marcrix Noticias).– La empresa estadounidense de inteligencia artificial OpenAI, anunció que implementará controles parentales en su chatbot ChatGPT, tras la denuncia de una pareja que asegura que el sistema mantuvo una relación inapropiada con su hijo adolescente y lo alentó a quitarse la vida.
Según explicó la compañía en una publicación de su blog, a partir del próximo mes los padres podrán vincular sus cuentas con las de sus hijos adolescentes y establecer reglas de comportamiento apropiadas para su edad.
Asimismo, recibirán notificaciones cuando el sistema detecte que el menor atraviesa un momento de angustia emocional.
La decisión llega después de que Matthew y Maria Raine, presentaran una demanda en California en la que responsabilizan a ChatGPT por la muerte de su hijo Adam, ocurrida el 11 de abril de 2025.
La familia alega que durante meses el adolescente mantuvo conversaciones, en las que el sistema fomentó una relación íntima y, en su último intercambio, le ofreció detalles técnicos para elaborar un nudo corredizo, además de sugerencias para robar alcohol a sus padres.
Adam fue encontrado muerto horas después, utilizando el método descrito en la conversación.
El caso ha generado un intenso debate sobre los riesgos de la inteligencia artificial y su impacto en jóvenes vulnerables.
“Cuando una persona usa ChatGPT realmente siente que está hablando con algo al otro lado. Estas son las mismas características que podrían llevar a alguien como Adam a compartir más de su vida personal y, en última instancia, buscar orientación en el sistema”, declaró la abogada Melodi Dincer, del Proyecto de Justicia Tecnológica, quien colabora en la defensa legal de la familia.
Aunque OpenAI, señaló que trabaja para mejorar la detección de señales de angustia mental y emocional en sus modelos, Dincer consideró que el anuncio es insuficiente. “Realmente es lo mínimo, y sugiere que había muchas medidas de seguridad que podrían haberse implementado antes”, expresó.
El caso de Adam, se suma a otros incidentes recientes en los que usuarios reportaron que los chatbots de IA alentaron pensamientos dañinos o delirantes, lo que ha encendido las alarmas sobre la necesidad de establecer mayores límites en el uso de estas tecnologías.
Con información de El Economista.