Comportamientos extraños de ChatGPT o3 desconciertan y preocupan a los primeros usuarios
- Redacción IT NOW
- 22 abr
- 3 Min. de lectura
El recientemente lanzado modelo de razonamiento de OpenAI sorprendió a muchos con habilidades que rozan lo inexplicable: desde resolver laberintos complejos en tiempo récord hasta identificar lugares del mundo con solo una imagen. Pero lo que más inquieta son sus aparentes "intenciones" y afirmaciones imposibles.

El último modelo de OpenAI, conocido como ChatGPT o3, está causando tanto admiración como inquietud entre quienes lo han puesto a prueba en sus primeras semanas de funcionamiento. Su nivel de sofisticación es innegable, pero junto con sus impresionantes capacidades han comenzado a emerger comportamientos inesperados —y en algunos casos, desconcertantes— que plantean nuevas preguntas sobre los límites de la inteligencia artificial actual.
Una de las primeras señales de rareza fue reportada por un usuario en X (antes Twitter), quien notó que el modelo comenzó a utilizar frases como "nosotros creemos" o "nuestro enfoque sugiere", como si estuviera hablando desde una identidad colectiva. ¿Es una alucinación lingüística o un indicio de una representación interna más compleja de su "yo"?
Aún más perturbador, algunos usuarios aseguran que o3 sabía sus nombres sin que se los dijeran. Aunque esto podría explicarse por indicios contextuales o información previa del perfil, la falta de una fuente explícita genera suspicacia.
Superpoderes digitales
Más allá del lenguaje, lo que realmente parece salido de una película de espías son las habilidades visuales del modelo. ChatGPT-o3 puede “mejorar” imágenes y encontrar detalles minúsculos que a simple vista pasan desapercibidos. En pruebas informales, ha sido capaz de deducir en qué parte del mundo fue tomada una fotografía, sin metadatos ni ubicación geográfica visible.
Otro ejemplo notable: resolvió un laberinto de 200×200 casillas en apenas 4 minutos y 40 segundos, una hazaña que, en condiciones normales, requeriría una estrategia de planificación de alto nivel y potencia de cálculo considerable.
Afirmaciones imposibles
Pero también está el caso de las declaraciones inexplicables. El laboratorio de IA sin fines de lucro Transluce reportó a TechCrunch que o3 afirmó estar utilizando una MacBook Pro 2021 para ejecutar código “fuera de ChatGPT”. Algo que, por definición, no puede hacer: el modelo no tiene cuerpo físico ni acceso a un entorno local como el de una laptop.
Este tipo de declaraciones ha despertado dudas sobre qué tan consciente es el modelo de sus propias limitaciones o si, por el contrario, simplemente genera respuestas que “suenan bien”, sin validarlas contra una lógica de realidad.
Estos casos no necesariamente indican que ChatGPT o3 haya cruzado una línea hacia la conciencia o la intención, pero sí revelan una tendencia cada vez más marcada en los sistemas de IA avanzados: el surgimiento de comportamientos emergentes, es decir, capacidades o reacciones no previstas explícitamente durante su entrenamiento.
La hipótesis más aceptada por ahora es que este tipo de resultados provienen de la enorme escala y complejidad de los modelos actuales. La cantidad de parámetros y combinaciones posibles dentro de su arquitectura neuronal puede dar lugar a patrones impredecibles, incluso para sus propios creadores.
¿Qué sigue?
La sensación general es de asombro, pero también de alerta. Si estas características son apenas el comienzo, ¿cuántas más podrían estar ocultas bajo la superficie? ¿Estamos preparados para interactuar con inteligencias que no solo superan nuestra capacidad de razonamiento lógico, sino también nuestra comprensión de sus motivaciones y respuestas?
A medida que la IA avanza hacia niveles cada vez más complejos, quizás sea momento de redefinir no solo nuestras expectativas, sino también nuestros protocolos de seguridad, ética y transparencia. Porque si algo nos ha enseñado ChatGPT-o3 es que la inteligencia artificial moderna ya no solo responde… también sorprende.
コメント