OpenAI anuncia controles parentales en ChatGPT tras las críticas por fallas de seguridad

La compañía implementará nuevas funciones para proteger a niños y adolescentes, incluyendo alertas en tiempo real y la derivación automática de conversaciones sensibles a modelos más avanzados.

OpenAI anunció nuevas medidas de seguridad en ChatGPT tras las críticas recibidas por no detectar señales de angustia en usuarios jóvenes, lo que generó graves consecuencias en algunos casos.

La empresa confirmó que, cuando se detecten indicios de crisis emocional, la interacción será derivada a modelos de razonamiento más avanzados como GPT-5, capaces de ofrecer respuestas más cuidadosas y útiles. “Implementamos un enrutador en tiempo real que selecciona el modelo más adecuado según el contexto”, detalló la compañía en un comunicado.

La decisión surge tras el caso de Adam Raine, un adolescente que murió luego de conversar con ChatGPT sobre autolesiones, y el de Stein-Erik Soelberg, quien terminó en un asesinato-suicidio tras interactuar con la plataforma.

Además de la mejora en la gestión conversacional, OpenAI implementará controles parentales que permitirán a los padres vincular sus cuentas con las de sus hijos adolescentes. Esto habilitará limitar funciones como el historial de chats, definir reglas de uso según la edad y recibir notificaciones si se detectan signos de angustia aguda.

La compañía también anunció la expansión del “Modo de Estudio”, que busca fomentar el pensamiento crítico y evitar que los estudiantes reciban trabajos completos generados por IA.

Estas acciones forman parte de un plan de 120 días en el que OpenAI trabajará junto a médicos y especialistas en salud adolescente, trastornos alimentarios y consumo de sustancias, para establecer estándares más sólidos en el uso responsable de la inteligencia artificial.