El humanoide puede responder a tareas basadas en comandos verbales tras ser equipado con modelos de OpenAI que le proporcionan inteligencia visual y lingüística de alto nivel. Vea la demostración.
El mes pasado, la startup de robótica FigureAI anunció una asociación con OpenAI para desarrollar un modelo de inteligencia artificial diseñado específicamente para robots, y los resultados preliminares compartidos ayer han sorprendido a la comunidad de IA.
En una demostración compartida por la compañía, el humanoide llamado Figure 01 realizó una variedad de tareas basadas enteramente en comandos verbales:
- El robot puede ver y describir lo que tiene delante
- Entrega una manzana al humano cuando se le pide algo para comer
- Explica por qué entregó la manzana al humano, mientras clasifica la basura en una canasta
- El robot también coloca platos en un estante cuando se le pregunta dónde debe ubicarlos. El Figure 01 muestra un manejo delicado al mover objetos y habla de manera natural cuando se le hace una pregunta.
Figure afirma que las acciones de los robots no fueron preplanificadas. En cambio, son el resultado de su capacidad para aprender nuevos movimientos y habilidades con el tiempo. Sin embargo, tiene un retraso en su accionar y algunos silencios incómodos mientras intenta encontrar una respuesta.
El progreso en robótica está experimentando una aceleración notable gracias a los recientes avances en inteligencia artificial. Otros como Tesla y Hanson Robotics están trabajando en sus propias versiones de la tecnología.
¿Cuándo veremos una versión comercialmente disponible de estos robots?
Comments