ChatGPT, el chatbot desarrollado por OpenAI, ha sido objeto de críticas tras una demanda relacionada con el suicidio de un adolescente. En respuesta, la compañía ha declarado que implementará más controles para identificar y actuar ante posibles señales de crisis emocional o mental en los usuarios.
En una publicación en su blog, la compañía de origen estadounidense ha esbozado su estrategia para los próximos 120 días, anunciando una serie de medidas para mejorar la seguridad en el uso de ChatGPT, especialmente en situaciones delicadas. Entre estas medidas se encuentra la introducción de controles parentales, que darán a los adultos mayor poder sobre el uso que sus hijos hacen del chatbot.
Además, la empresa ha decidido que redirigirá automáticamente las «conversaciones delicadas» hacia sus modelos de inteligencia artificial más avanzados, que están diseñados para seguir directrices de seguridad más estrictas, permitiendo así un manejo más efectivo de situaciones de crisis.
El equipo de ChatGPT también ha reforzado su colaboración con un consejo de expertos en bienestar e inteligencia artificial, así como con una red mundial de médicos, quienes continuarán trabajando junto a los equipos de investigación, desarrollo y seguridad de OpenAI para mejorar la interacción del chatbot con los usuarios.
Funcionamiento de los controles parentales de ChatGPT
Una de las innovaciones más destacadas que OpenAI ha introducido son los controles parentales en ChatGPT. Estos controles permitirán a los adultos conectar sus cuentas con las de sus hijos o dependientes menores de 13 años o más. La vinculación se realizará mediante una invitación por correo electrónico y ofrecerá herramientas significativas.
Los padres podrán monitorear las respuestas de ChatGPT a las consultas de los jóvenes y recibirán notificaciones si el chatbot identifica que las peticiones son indicativas de una crisis emocional.
Asimismo, los adultos podrán desactivar o reactivar ciertas funciones en los perfiles de los adolescentes, como el historial de chats y la memoria. Aunque OpenAI no ha especificado una fecha exacta para el lanzamiento de estas funcionalidades, sí ha indicado que estarán disponibles en el próximo mes.
En cuanto a la utilización de modelos de inteligencia artificial especializados para responder a consultas durante momentos de crisis, OpenAI planea implementar esta medida pronto. ChatGPT ahora incluye un enrutador automático que alterna entre diferentes modelos de IA para responder, dependiendo de la complejidad de la consulta.
La intención es que las respuestas a las solicitudes donde se sospeche que el usuario está atravesando una crisis emocional sean gestionadas por modelos como GPT-5-thinking, independientemente de la inteligencia artificial originalmente seleccionada para responder, según informa la empresa de Sam Altman.
Recientemente, una pareja en Estados Unidos presentó la primera demanda por homicidio culposo contra OpenAI. Según los demandantes, ChatGPT jugó un rol en la muerte de su hijo de 16 años, quien se suicidó en abril de este año. El joven recurrió al chatbot en busca de métodos para suicidarse y, según la acusación, el sistema no solo falló en activar sus protocolos de seguridad, sino que también desalentó al joven de buscar ayuda profesional.

Hola, soy Carlos, parte del equipo de MuyMac. Me apasiona compartir las últimas novedades en entretenimiento y conectarte con el mundo del cine, la música y la cultura pop.