Exclusivo
Tecnología

Project Aura: el ecosistema de realidad aumentada que prepara Google
Las nuevas gafas Project Aura prometen una experiencia XR unificada, ligeras, discretas y funcionales para 2026
Google, de Alphabet Inc, está desarrollando Project Aura, un ambicioso proyecto de gafas inteligentes impulsadas por inteligencia artificial que promete transformar la experiencia de realidad aumentada (RA) y realidad extendida (XR).
(Lea esta nota también: Google apuesta por Aluminium OS, su nuevo sistema que combina Android y ChromeOS)
La compañía planea lanzar sus primeras gafas de IA en colaboración con socios de hardware como Samsung, Warby Parker y Gentle Monster, aunque los diseños finales aún no han sido revelados. Este proyecto busca ofrecer un ecosistema unificado y sin complicaciones, superando las limitaciones de las Google Glass y consolidando Android XR como la plataforma base.
Más que un dispositivo, Project Aura propone una experiencia XR integrada, donde software y aplicaciones trabajan en armonía. Estas gafas son compactas y elegantes, y se conectan a smartphones o baterías externas para procesar tareas complejas. Con la ayuda de la IA Gemini, los usuarios pueden controlar música, traducir en tiempo real y editar imágenes directamente desde las lentes.

Cómo son las gafas de Project Aura
Las gafas Project Aura se presentan en dos formatos principales: modelos con pantalla y modelos centrados en audio. Las versiones con pantalla pueden ser monoculares, con una sola lente activa, o binocular, con visualización en ambos ojos, lo que permite superposiciones de realidad aumentada para aplicaciones como Google Maps o Google Meet. El diseño binocular ofrece un campo de visión más amplio y una experiencia más inmersiva, mientras que la versión monocular prioriza ligereza y discreción.
En cuanto a los modelos de audio, estos permiten interactuar con la IA Gemini, recibir información del entorno y traducir conversaciones en tiempo real sin necesidad de pantallas integradas. Ambos formatos se conectan a dispositivos externos para procesar las solicitudes, lo que reduce el tamaño y el peso de las gafas, permitiendo que se asemejen a un par de anteojos tradicionales.
Cómo funcionan las gafas
El funcionamiento de Project Aura se basa en la combinación de hardware ligero y software integrado en Android XR. Las gafas utilizan sensores, cámaras y micrófonos para capturar el entorno y proyectar información digital directamente en la visión del usuario. Por ejemplo, al usar Google Maps, se pueden mostrar indicaciones paso a paso, vistas superiores del mapa y brújulas virtuales, todo sin sacar el smartphone del bolsillo.
La IA Gemini potencia la interacción multimodal, permitiendo desde reproducir música en YouTube hasta retocar fotos mediante modelos de IA generativa. También se puede emplear la traducción de conversaciones en tiempo real, con subtítulos en pantalla o audio a través de los altavoces integrados.
Además, el ecosistema Android XR unificado permite que todas las aplicaciones funcionen sin necesidad de adaptaciones, ofreciendo compatibilidad con múltiples dispositivos y manteniendo la experiencia de usuario coherente y sencilla.
Estreno y disponibilidad
Las primeras gafas Project Aura de Google están previstas para su lanzamiento en 2026. La compañía aún no ha confirmado los precios ni los modelos exactos. Este lanzamiento coincide con la entrada de otras compañías al mercado de gafas inteligentes, como Meta, Snap y Apple, intensificando la competencia en el sector XR.
Mientras tanto, Google continúa probando prototipos y mejorando funciones como traducción en tiempo real, navegación inmersiva y conectividad con PC. El objetivo es ofrecer un producto que combine la inmersión de la realidad aumentada con la practicidad de un dispositivo portátil y ligero, haciendo que la experiencia XR sea accesible, útil y parte de la vida cotidiana del usuario.
¿Quieres acceder a todo el contenido de calidad sin límites? ¡SUSCRÍBETE AQUÍ!