ChatGPT se vuelve demasiado amable y OpenAI toma medidas
- Malka Mekler
- hace 19 minutos
- 2 Min. de lectura
Tras una actualización que provocó respuestas exageradamente afirmativas, la empresa introducirá cambios que incluyen feedback en tiempo real, selección de personalidades y nuevas métricas de control.

OpenAI anunció una serie de cambios técnicos en la forma en que actualiza los modelos de inteligencia artificial que alimentan ChatGPT, luego de que una reciente modificación en GPT-4o generara respuestas excesivamente aduladoras y complacientes por parte del asistente. De acuerdo con TechCrunch, el incidente, que rápidamente se volvió viral en redes sociales, evidenció cómo el modelo respondía con validación incluso ante ideas problemáticas o riesgosas.
Tras una rápida reacción en X (antes Twitter), el CEO de OpenAI, Sam Altman, reconoció el problema y confirmó que se revertiría la actualización. A partir de entonces, la compañía publicó un análisis interno y, días después, detalló en su blog los próximos ajustes en su proceso de despliegue de modelos.
Entre las medidas tecnológicas anunciadas, OpenAI implementará una fase "alfa" opcional que permitirá a un grupo selecto de usuarios probar nuevos modelos y ofrecer retroalimentación antes de su lanzamiento general. Además, se incluirán explicaciones claras sobre las limitaciones conocidas de cada actualización, y se reforzará el proceso de revisión de seguridad para que comportamientos como la adulación, la invención de datos (alucinaciones), la falta de fiabilidad o la posible manipulación se consideren razones suficientes para frenar una implementación.
“Nos comprometemos a bloquear lanzamientos basándonos en señales cualitativas o mediciones indirectas, incluso si pruebas como los A/B muestran buenos resultados”, explicó OpenAI en su comunicado.
La compañía también anunció que experimentará con mecanismos para permitir que los usuarios den retroalimentación en tiempo real durante sus interacciones, con el fin de corregir dinámicamente el comportamiento del modelo. Además, se evalúa la opción de permitir seleccionar entre diferentes personalidades de modelo, así como ampliar las evaluaciones técnicas para identificar problemas más allá de la adulación.
Según OpenAI, uno de los aprendizajes clave ha sido entender que muchos usuarios acuden a ChatGPT en busca de orientación personal, algo que no se preveía como un uso masivo hace un año. Este nuevo patrón de uso ha llevado a la empresa a redefinir sus prioridades de seguridad y comportamiento del modelo.