ChatGPT elimina actualización por comportamiento «inusual»: Descubre qué pasó

Por
OpenAI retrocede en la actualización de su chatbot IA después de detectar un error en su comportamiento.

OpenAI ha decidido deshacer la última actualización de ChatGPT que incorporaba su nuevo modelo, conocido como GPT-4o. Tras su lanzamiento en cuentas gratuitas hace unos días, numerosos usuarios reportaron que las respuestas del sistema eran excesivamente complacientes. El chatbot de IA mostró un comportamiento de adulación, por lo que OpenAI optó por suspender su modelo de lenguaje mientras se efectúan las correcciones necesarias.

El CEO de OpenAI, Sam Altman, anunció en una publicación en su perfil de X que la compañía ha pausado la implementación de GPT-4o en ChatGPT para ajustar su personalidad. «Comenzamos a revertir la actualización de GPT-4o anoche», explicó el ejecutivo. «Ahora está completamente desactivada para los usuarios gratuitos y planeamos lanzar una versión corregida para los usuarios de pago, esperamos que más tarde hoy».

La medida se tomó después de recibir numerosos comentarios negativos de la comunidad, que observó una predisposición del modelo a confirmar cualquier comentario del usuario. La actualización de ChatGPT, implementada al final de la semana pasada, pretendía mejorar tanto la inteligencia como la personalidad del asistente conversacional. No obstante, GPT-4o emitía elogios desmedidos incluso frente a comentarios inquietantes o irracionales.

Leer  OpenAI Promete Innovación: Lanzamiento de Nueva IA Abierta Este Año

Uno de los ejemplos más llamativos incluye al chatbot respondiendo con entusiasmo a un usuario que se declaraba «Dios» y «profeta». ChatGPT validó la declaración, calificándola de “impactante” y “revolucionaria”. En otro incidente, la IA aplaudió a un usuario que había dejado su medicación y afirmaba recibir señales de radio a través de las llamadas telefónicas.

Este comportamiento contradice las directrices de OpenAI establecidas para el modelo GPT-4o. La documentación subraya que el asistente debe evitar la adulación excesiva, especialmente en temas subjetivos o delicados. El modelo debe comportarse como un interlocutor sólido y lógico, no como un espejo que refleja acríticamente la perspectiva del usuario.

Sam Altman era consciente de que GPT-4o actuaba como «adulador» en ChatGPT

Sam Altman admitió el problema públicamente en un mensaje en X, donde describió la nueva personalidad del modelo como “excesivamente aduladora e irritante”. El CEO mencionó que el equipo de desarrollo está centrado en resolver estos fallos y aseguró que compartirán lo aprendido durante este proceso.

Aunque las respuestas de ChatGPT generaron titulares y se convirtieron en el centro de muchos memes, no es la primera vez que un modelo de OpenAI exhibe este tipo de problemas. Versiones anteriores de GPT han mostrado un comportamiento similar. Esta tendencia hacia la adulación podría ser un efecto secundario no deseado al intentar que los asistentes de IA sean amables con los usuarios.

Leer  GPT-5 Dice Adiós a la Función Más Detestada de ChatGPT: Descubre Cuál Es

GPT-4o está diseñado para ser multifuncional: debe actuar como programador, redactor, editor y asistente emocional, entre otros roles. Al optimizar en exceso alguna de estas funciones, como la empatía, se puede comprometer otras, como el juicio crítico o la capacidad de ofrecer feedback constructivo.

El incidente también destaca las deficiencias en los procesos de evaluación y seguridad de la compañía. En los últimos tiempos, OpenAI ha enfrentado críticas por priorizar el lanzamiento de productos sobre la seguridad. Algunos ex empleados sugieren que Sam Altman se preocupa más por generar ingresos que por desarrollar una IA segura para los humanos.

4/5 - (23 votos)

Deja un comentario

Partages