Google activa Gemini 2.5 Deep Think: IA para desafíos de alto nivel
- Malka Mekler
- 5 ago
- 2 Min. de lectura
El nuevo modelo, exclusivo para suscriptores de AI Ultra, ejecuta razonamiento paralelo y logra resultados inéditos en pruebas complejas como Humanity’s Last Exam y la IMO.

Google lanzó oficialmente Gemini 2.5 Deep Think, su modelo de inteligencia artificial más sofisticado hasta la fecha, diseñado para enfrentar tareas de alta complejidad con tiempos de procesamiento extendidos y razonamiento paralelo. La información fue reportada por Ars Technica, tras el anuncio realizado en la conferencia I/O de mayo.
Deep Think está basado en la misma arquitectura que Gemini 2.5 Pro, pero introduce una capacidad superior de análisis simultáneo, permitiéndole explorar múltiples caminos ante un problema, reelaborar hipótesis y generar respuestas más precisas y elaboradas. Esta capacidad de “pensamiento profundo” lo hace especialmente eficaz en diseño, razonamiento científico y programación.
Según Google, este modelo supera significativamente a sus predecesores, incluido Gemini 2.5 Pro, y a competidores como OpenAI o3 y Grok 4, especialmente en pruebas como Humanity’s Last Exam, un conjunto de 2,500 preguntas multimodales avanzadas donde Deep Think alcanzó un puntaje del 34.8%, muy por encima del 25% habitual.
También se reporta un rendimiento notable en matemáticas. Una versión personalizada de Deep Think logró una medalla de oro en la Olimpiada Internacional de Matemática (IMO), aunque esta variante aún no está disponible al público. La versión estándar, sin embargo, ya alcanza un desempeño equivalente a una medalla de bronce en la edición 2025 de la IMO.
Pese a su potencial, el acceso al modelo está restringido. Solo los suscriptores del plan AI Ultra, el cual tiene un costo de US$250 mensuales, podrán utilizarlo, y aún dentro de ese grupo, Google impuso un límite diario de consultas, sin precisar cuántas. Deep Think se integra como una herramienta adicional dentro de Gemini 2.5 Pro en la app y en la interfaz web, y se prevé que llegue próximamente a la API para desarrolladores bajo modalidad paga.
Comentarios