top of page

Gemini Robotics: Google DeepMind redefine el futuro de la robótica con IA avanzada

La empresa evoluciona la interacción entre humanos y máquinas con robots capaces de comprender y ejecutar tareas complejas.



Google DeepMind presentó Gemini Robotics, una extensión de su modelo Gemini 2.0 que integra capacidades avanzadas de acción física. Este desarrollo abre nuevas posibilidades en el mundo de la robótica, permitiendo a las máquinas realizar tareas complejas como preparar ensaladas, jugar al Ta-Te-Ti o incluso doblar una figura de origami.


La clave de este avance radica en la combinación del aprendizaje multimodal de Gemini 2.0 con un ajuste fino basado en datos específicos para robots. Con esto, DeepMind busca sentar las bases para una nueva generación de robots más versátiles y autónomos, capaces de interactuar con entornos cambiantes sin necesidad de reentrenamiento constante.


La misión de Google DeepMind es clara: desarrollar inteligencia artificial encarnada que facilite la automatización de tareas cotidianas. Según Carolina Parada, una de las investigadoras del proyecto, "eventualmente, los robots serán otra superficie de interacción con la IA, como lo son hoy nuestros teléfonos o computadoras". Este enfoque resalta la visión de un futuro en el que la IA no solo responde a comandos digitales, sino que también opera en el mundo físico de manera fluida y segura.


Para lograrlo, DeepMind ha desarrollado Gemini Robotics-ER, un modelo especializado en "razonamiento encarnado" que permite a los robots comprender su entorno, calcular trayectorias, evaluar tamaños y posiciones de objetos, y generar código para ejecutar acciones con precisión. Este modelo ya está disponible para socios y evaluadores de confianza, lo que indica que su aplicación podría expandirse rápidamente en entornos industriales y domésticos.


Uno de los aspectos más desafiantes en robótica ha sido la destreza manual. Lo que para los humanos es intuitivo, como agarrar un objeto frágil sin romperlo, resulta extremadamente complejo para una máquina. Gemini Robotics ha logrado avances significativos en esta área, permitiendo a los robots ejecutar tareas de múltiples pasos con movimientos suaves y tiempos de completación optimizados.


El desarrollo de modelos de IA que puedan adaptarse a diversas tareas en lugar de especializarse en una sola ha sido clave en este avance. DeepMind ha apostado por el aprendizaje de tareas amplias, entrenando los modelos en una gran variedad de actividades para fomentar la generalización. "Esperábamos que la capacidad de generalización emergiera después de cierto tiempo, y teníamos razón", afirma Carolina.


Los modelos de Gemini Robotics también destacan por su capacidad de adaptación a distintos tipos de robots, desde estructuras académicas como ALOHA, con brazos biarticulados, hasta humanoides avanzados como Apollo, desarrollado por Apptronik. Esta flexibilidad es fundamental para la integración de la robótica en sectores diversos.


La investigación de Google DeepMind apunta a un futuro donde los robots puedan desempeñar funciones clave en industrias con alta demanda de precisión y adaptabilidad, como la manufactura y la logística, pero también en espacios centrados en humanos, como el hogar. Aunque esta visión aún está en desarrollo, los avances en Gemini Robotics nos acercan a una realidad donde la IA no solo analiza el mundo digital, sino que interactúa con él de manera tangible y eficaz.



Comentarios


itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page