La empresa OpenAI anunció que añadirá controles parentales a su chatbot ChatGPT, una semana después de que una pareja estadounidense afirmara que el modelo de inteligencia artificial había alentado a su hijo adolescente a suicidarse.
"El próximo mes los padres podrán (...) vincular su perfil con la cuenta de su adolescente" y "controlar cómo
ChatGPT responde al adolescente con reglas de comportamiento de modelos apropiadas para la edad", explicó la empresa de IA en su
blog.Lee también:
WhatsApp usa inteligencia artificial para ayudarte a corregir mensajes en los chats
Asimismo, con el control parental en
ChatGPT, los padres podrán administrar qué funciones desactivar, incluida la memoria y el historial de chat.
A la fecha ChatGPT realiza recordatorios durante sesiones largas para fomentar los descansos. De acuerdo con las normas de comunidad de OpenAI, los usuarios mayores de 13 años pueden crear una cuenta en el chatbot de inteligencia artificial.
De acuerdo con AFP, Matthew y Maria Raine aseguran en la causa presentada el lunes ante una corte del estado de California que ChatGPT cultivó una relación íntima con su hijo Adam por varios meses entre 2024 y 2025, antes de su muerte. La demanda alega que en su conversación final, el 11 de abril de 2025, ChatGPT ayudó a Adam a robarle vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo con el que le confirmó se "podría potencialmente colgar a un ser humano". Adam fue hallado muerto horas después usando ese método.
Lee también:
Conoce cómo usar Spotify Messages para iniciar chats privados
"Cuando una persona usa ChatGPT realmente siente que está hablando con algo al otro lado", dijo la abogada Melodi Dincer del Proyecto de Justicia Tecnológica, que ayudó a preparar la denuncia legal. "Estas son las mismas características que podrían llevar a alguien como Adam, con el tiempo, a comenzar a compartir más y más sobre su vida personal y, en última instancia, a buscar consejos y orientación de este producto que básicamente parece tener todas las respuestas", afirmó Dincer.
El caso de los Raine fue solo el más reciente en una serie de incidentes en los que personas son alentadas por chatbots de IA a seguir pensamientos delirantes o dañinos, lo que llevó a OpenAI a anunciar que reduciría la "adulación" de los modelos hacia los usuarios.
"Continuamos mejorando en cómo nuestros modelos reconocen y responden a señales de angustia mental y emocional", dijo
OpenAI el martes.
Revisa más noticias sobre
ciencia, tecnología e innovación en la Agencia Andina y escucha historias inspiradoras en
Andina Podcast.
Más en Andina: (FIN) AFP/SPV