Las nuevas gafas permiten navegar en RA con gestos y comandos de voz, integrándose de forma natural con el entorno.
Snap dio un nuevo paso en la evolución de la Realidad Aumentada (RA) con la presentación de la quinta generación de sus Spectacles. Estas gafas transparentes, diseñadas para ofrecer una experiencia de RA inmersiva, se destacan por su independencia, ya que no requieren un dispositivo adicional para funcionar. Con el respaldo de Snap OS, el sistema operativo que impulsa las gafas, las Spectacles se presentan como una herramienta avanzada que combina interacción intuitiva y tecnología de punta.
Las gafas integran hardware desarrollado a lo largo de una década, logrando reducir considerablemente su peso en comparación con otros dispositivos de RA. A tan solo 226 gramos, ofrecen un diseño compacto que incorpora cuatro cámaras para un seguimiento preciso de las manos, habilitando una interacción fluida a través del Snap Spatial Engine. Este motor permite que las gafas proyecten imágenes en tiempo real sobre el entorno, con una latencia mínima, mejorando la integración entre el mundo físico y el digital.
La tecnología de proyección se basa en microproyectores de cristal líquido sobre silicio (LCoS), que generan imágenes nítidas y precisas a través de guías de ondas diseñadas para optimizar la visualización sin ajustes adicionales. El resultado es una experiencia inmersiva con un campo de visión diagonal de 46 grados y una resolución de 37 píxeles por grado. Además, las gafas ajustan automáticamente su nivel de tintado según las condiciones de luz, proporcionando una experiencia visual fluida tanto en interiores como en exteriores.
En cuanto a la arquitectura interna, las Spectacles están equipadas con un sistema de doble procesador Snapdragon, lo que permite distribuir eficientemente la carga de trabajo. Este diseño optimiza la duración de la batería, ofreciendo hasta 45 minutos de uso continuo, mientras que las cámaras de vapor de titanio mejoran la gestión térmica del dispositivo.
Por su parte, Snap OS, el sistema operativo de las mismas, está diseñado para ofrecer una navegación fluida mediante gestos y comandos de voz. Con una latencia de solo 13 milisegundos, las Lenses se renderizan con alta precisión, integrando elementos digitales en el entorno físico en tiempo real. Esta infraestructura permite no solo la creación de experiencias inmersivas individuales, sino también la posibilidad de compartirlas con amigos a través del modo espectador o la integración con dispositivos móviles mediante una app dedicada.
Snap ha desarrollado herramientas como el Lens Studio 5.0 y el Spectacles Interaction Kit para simplificar la creación de contenido de RA. Estas plataformas permiten a los desarrolladores crear Lenses complejas sin necesidad de desarrollar sistemas desde cero, facilitando el uso de modelos personalizados de aprendizaje automático (ML) y herramientas de desarrollo en equipo. La asociación con OpenAI añade una capa adicional de contexto a las experiencias, integrando modelos de inteligencia artificial que potencian la interacción con los elementos visuales y auditivos del entorno.
Además, Snap ha forjado alianzas con empresas como LEGO Group, Niantic e ILM Immersive, impulsando el desarrollo de juegos y experiencias en Realidad Aumentada que aprovechan al máximo las capacidades de las Spectacles. Esto posiciona al dispositivo como una plataforma ideal para la creación de contenido innovador, respaldada por una suscripción para desarrolladores que incluye acceso a las gafas y soporte técnico.
Comments