Google acelera con Android XR: nuevas gafas de IA, visores Galaxy XR y proyecto Aura en el centro del ecosistema

Cusbooneysiintii ugu dambeysay: 09/12/2025

  • Google refuerza Android XR con funciones como PC Connect, modo viaje y avatares realistas para Galaxy XR.
  • En 2026 llegarán dos tipos de gafas de IA con Android XR: sin pantalla y con pantalla integrada, en colaboración con Samsung, Gentle Monster y Warby Parker.
  • XREAL prepara las gafas con cable Proyecto Aura, unas XR ligeras con campo de visión de 70 grados y enfoque en productividad y entretenimiento.
  • Google abre Developer Preview 3 del SDK de Android XR para que los desarrolladores adapten fácilmente sus apps de Android al entorno espacial.

Gafas con Android XR

Google ha decidido pisar el acelerador con Android XR y las nuevas gafas con inteligencia artificial, trazando una hoja de ruta que combina visores de realidad mixta, gafas ligeras y herramientas para desarrolladores en un mismo ecosistema. Tras años de experimentos discretos en realidad aumentada, la compañía vuelve a escena con propuestas más maduras y pensadas para el uso cotidiano.

En los últimos meses, la firma ha detallado nuevas funciones para el visor Galaxy XR de Samsung, ha mostrado avances de las primeras gafas con IA basadas en Android XR y ha dado un adelanto de Proyecto Aura, unas gafas XR con cable desarrolladas junto a XREAL. Todo ello se integra alrededor de Gemini, el modelo de IA de Google, que pasa a ser el núcleo de la experiencia.

Android XR se consolida: más funciones para el visor Galaxy XR

Durante el evento “The Android Show: XR Edition”, celebrado el 8 de diciembre desde Mountain View y seguido con atención en Europa, Google confirmó que Android XR ya está operativo en el visor Galaxy XR y que la plataforma suma más de 60 juegos y experiencias en Google Play. El objetivo pasa por convertir este sistema en una capa común que una visores, gafas inteligentes y otros wearables espaciales.

Mid ka mid ah novelties weyn waa PC Connect, codsi ogolaanaya conectar un ordenador con Windows al Galaxy XR y mostrar el escritorio dentro del entorno inmersivo como si fuese otra ventana más. De esta forma, el usuario puede trabajar con su PC, mover ventanas, usar aplicaciones de oficina o jugar, pero con pantallas virtuales flotando en el espacio frente a él.

Waxa kale oo ay ku jirtaa habka safarka, una opción pensada para quienes utilizan el visor en movimiento, por ejemplo en tren, avión o coche (siempre como pasajero). Esta función estabiliza el contenido en pantalla para que las ventanas no “se escapen” al mover la cabeza o por las sacudidas del vehículo, reduciendo la sensación de mareo y haciendo más cómodo ver películas, trabajar o navegar por Internet en trayectos largos.

Otra pieza relevante es Your Likeness, una herramienta que genera un avatar tridimensional del rostro del usuario a partir de un escaneo realizado con el móvil. Este modelo digital replica en tiempo real expresiones faciales, gestos de la cabeza e incluso el movimiento de la boca durante videollamadas en Google Meet y otras plataformas compatibles, ofreciendo una presencia más natural que los avatares caricaturescos clásicos.

PC Connect y el modo viaje ya están disponibles para los propietarios del Galaxy XR, mientras que Your Likeness se encuentra en fase beta. Para los próximos meses, Google también ha adelantado System Autospatialization, una función prevista para 2026 que convertirá automáticamente ventanas 2D en experiencias 3D inmersivas, permitiendo que vídeos o juegos se transformen en escenas espaciales en tiempo real sin que el usuario tenga que hacer nada.

Waxyaabaha gaarka ah - Riix Halkan  Hagaha dhameystiran ee u haajiridda xogtaada Fitbit akoon Google

Dos familias de gafas con IA: con y sin pantalla

modelos Android XR con pantalla y sin pantalla

Más allá de los visores, Google ha confirmado que lanzará sus primeras gafas con IA basadas en Android XR en 2026, en colaboración con socios como Samsung, Gentle Monster y Warby Parker. La estrategia se apoya en dos líneas de producto con enfoques distintos pero complementarios: unas gafas sin pantalla centradas en el audio y la cámaraiyo otras con pantalla integrada para realidad aumentada ligera.

El primer tipo de dispositivo son gafas con IA sin pantalla, pensadas para quienes quieren asistencia inteligente sin cambiar su forma de mirar el mundo. Estas monturas incorporan micrófonos, altavoces y cámaras, waxayna ku tiirsan yihiin Gemini para responder a órdenes de voz, analizar lo que hay alrededor o ejecutar tareas rápidas. Entre sus usos previstos están capturar fotos sin sacar el móvil, recibir indicaciones habladas, pedir recomendaciones sobre un producto o hacer preguntas sobre un lugar concreto.

El segundo modelo suma un paso más y añade una pantalla integrada en la lente, capaz de mostrar información directamente en el campo de visión del usuario. Esta versión permite ver indicaciones de Google Maps, subtítulos de traducción en tiempo real, notificaciones o recordatorios superpuestos sobre el mundo real. La idea es ofrecer una experiencia de realidad aumentada ligera, sin llegar al peso ni al volumen de un visor de realidad mixta, pero con suficiente información visual para que resulte útil.

Durante demostraciones internas, algunos probadores han podido utilizar prototipos monoculares —con una sola pantalla en la lente derecha— y versiones binoculares, con pantalla para cada ojo. En ambos casos es posible ver interfaces flotantes, videollamadas en ventanas virtuales y mapas interactivos que se ajustan a la dirección de la mirada, aprovechando la tecnología microLED que Google ha venido desarrollando tras la compra de Raxium.

En estos prototipos se ha puesto a prueba, por ejemplo, la reproducción de música con controles en pantalla, aragtida videollamadas con la imagen de la otra persona flotando en la vista, ama traducción en tiempo real con subtítulos superpuestos. Incluso se ha utilizado el modelo Nano Banana Pro de Google para editar fotografías tomadas con las propias gafas y ver el resultado en cuestión de segundos, sin necesidad de sacar el teléfono del bolsillo.

Integración con Android, Wear OS y el ecosistema Better Together

Una de las bazas que Google quiere explotar con estas gafas Android XR es la integración con el ecosistema Android y Wear OS. La compañía insiste en que cualquier desarrollador que ya programe para Android tiene mucho terreno ganado: las aplicaciones móviles pueden proyectarse desde el teléfono a las gafas, ofreciendo notificaciones enriquecidas, controles multimedia y widgets espaciales sin requerir grandes cambios iniciales.

En las demostraciones previas al lanzamiento, se ha visto cómo las fotos capturadas con las gafas sin pantalla se pueden previsualizar en un reloj con Wear OS mediante una notificación automática, lo que refuerza la idea de un ecosistema conectado “Better Together”. Además, se han mostrado gestos de mano y movimientos de cabeza para controlar la interfaz de Android XR, reduciendo la dependencia de mandos físicos.

En el terreno de la navegación, Android XR aprovecha la experiencia de Live View de Google Maps, pero trasladada a las gafas. El usuario ve solo una pequeña tarjeta con la siguiente dirección cuando mira al frente, mientras que al inclinar la cabeza hacia abajo se despliega un mapa más amplio con una brújula que indica hacia dónde se está mirando. Según quienes lo han probado, las transiciones son fluidas y la sensación recuerda a la guía de un videojuego, pero integrada en el entorno real.

Waxyaabaha gaarka ah - Riix Halkan  Sidee salaanta Alexa loo habeyn karaa?

Google también está animando a terceros, como servicios de transporte, a aprovechar estas capacidades. Un ejemplo mostrado fue la integración con aplicaciones de transporte tipo Uber, donde el usuario puede seguir paso a paso el recorrido hacia el punto de recogida en un aeropuerto viendo instrucciones y referencias visuales directamente en su campo de visión.

De cara a 2026, la compañía tiene previsto entregar kits de desarrollo de gafas monoculares Android XR a programadores seleccionados, mientras que todos podrán experimentar con un emulador de paso óptico Android Studio. La interfaz de usuario se ha diseñado para que la complejidad sea similar a un widget de inicio, algo que encaja mejor con usos rápidos y contextuales que con aplicaciones de escritorio tradicionales.

Proyecto Aura: gafas XR con cable y campo de visión ampliado

Xreal Google AR Mashruuca Aura-3

En paralelo al desarrollo de las gafas de IA ligeras, Google colabora con XREAL en Proyecto Aura, ciddiyaha gafas XR con cable impulsadas por Android XR que buscan situarse entre un visor voluminoso y unas gafas de uso diario. Este dispositivo apuesta por un naqshad fudud, pero se apoya en una batería externa y en la conexión a ordenadores para aumentar su potencia.

Proyecto Aura ofrece un campo de visión de unos 70 grados iyo adeegsashada tecnologías de transparencia óptica que permiten superponer contenido digital directamente sobre el entorno real. Con ello, el usuario puede distribuir varias ventanas de trabajo o entretenimiento en el espacio físico, sin bloquear lo que ocurre a su alrededor, algo especialmente útil para tareas de productividad o para seguir instrucciones mientras se realizan otras actividades.

Un uso práctico sería seguir una receta de cocina en una ventana flotante situada sobre la encimera mientras se preparan los ingredientes reales, o consultar documentación técnica mientras se trabaja con las manos libres. El dispositivo se alimenta desde una batería externa o directamente desde un ordenador, que además puede proyectar su escritorio al entorno de realidad mixta, convirtiendo las gafas en una especie de monitor espacial.

En lo que respecta al control, Proyecto Aura adopta un sistema de seguimiento de manos similar al del Galaxy XR, aunque con menos cámaras, lo que facilita que los usuarios se adapten rápidamente si ya han probado otros dispositivos XR. Google ha adelantado que ofrecerá más detalles sobre su lanzamiento a lo largo de 2026, fecha en la que se espera que empiece a llegar al mercado.

Esta categoría de gafas con cable refuerza la idea de que Android XR no se limita a un solo tipo de dispositivo. La misma base de software pretende abarcar desde visores inmersivos hasta gafas ligeras, pasando por soluciones híbridas como Aura, de forma que el usuario pueda elegir en cada momento el nivel de inmersión y comodidad que necesita.

Alianzas con Samsung, Gentle Monster y Warby Parker

Google Android XR Gentle Monster

Para evitar repetir los errores de Google Glass, la compañía ha apostado por colaborar con marcas especializadas en óptica y moda. Samsung se encarga de gran parte del hardware y la electrónica, mientras que Gentle Monster y Warby Parker aportan su experiencia en diseño de monturas que puedan pasar por gafas convencionales y resultar cómodas durante muchas horas.

Waxyaabaha gaarka ah - Riix Halkan  Sida loo damiyo ok googleka LG

Durante The Android Show | XR Edition, Warby Parker confirmó que trabaja con Google en unas gafas ligeras habilitadas para IA, con lanzamiento previsto en 2026. Aunque todavía no se han dado detalles de precios ni canales de distribución, la empresa habla de monturas pensadas para el uso diario, alejadas del aspecto experimental que tuvieron los primeros intentos de Google hace una década.

En este contexto, Android XR y Gemini proporcionan la capa tecnológica, mientras que los socios se centran en conseguir monturas discretas, con buen ajuste y peso contenido. La apuesta está clara: las gafas deben verse y sentirse como cualquier otro modelo comercial, pero con capacidades de IA y realidad aumentada integradas que añadan valor sin llamar demasiado la atención.

Estas alianzas colocan a Google en tartan toos ah oo lala yeesho Meta y sus Ray-Ban Meta Glasses, así como con los avances de Apple en computación espacial. Sin embargo, la estrategia de la compañía pasa por plataformas abiertas y colaboración industrial, intentando arrastrar a desarrolladores y fabricantes tradicionales de gafas al ecosistema Android XR.

Herramientas y SDK: Android XR se abre a los desarrolladores

Android XR Show

Para que todas estas piezas encajen, Google ha lanzado Developer Preview 3 del SDK de Android XR, que abre oficialmente las API y herramientas necesarias para crear aplicaciones espaciales destinadas tanto a visores como a gafas XR. La interfaz sigue las líneas de Qalabka 3 y las directrices de diseño que Google denomina internamente Glimmer, adaptadas a elementos flotantes, tarjetas y paneles 3D.

El mensaje para el sector es claro: quien ya desarrolla para Android está, en gran parte, preparado para dar el salto a Android XR. A través del SDK y los emuladores, los programadores pueden empezar a portar sus aplicaciones móviles, añadir capas de realidad aumentada, integrar controles por gestos o personalizar la forma en que las notificaciones aparecen en el espacio.

Google insiste en que no quiere saturar al usuario con interfaces complejas. Por eso, muchos elementos de Android XR se plantean como tarjetas ligeras, controles flotantes y widgets contextuales que aparecen cuando son necesarios y desaparecen cuando no aportan información relevante. De este modo, se intenta evitar la sensación de “pantalla permanente” delante de los ojos y se potencia una relación más natural con el entorno.

Shirkadda ayaa si cad u sheegtay Android XR es una plataforma abierta, y que fabricantes de hardware, estudios de videojuegos, empresas de productividad y servicios en la nube tendrán margen para experimentar. Desde Europa, se espera que este enfoque ayude a que nuevas aplicaciones empresariales, educativas y de comunicación adopten la realidad mixta sin tener que desarrollar soluciones desde cero.

El movimiento de Google con Android XR y las nuevas gafas de IA apunta a un escenario en el que la realidad mixta y la asistencia inteligente se repartan entre diferentes formatos de dispositivo: visores inmersivos como el Galaxy XR para experiencias inmersivas, gafas ligeras para el día a día, y modelos con cable como Proyecto Aura para quienes priorizan productividad y calidad de imagen. Si la compañía consigue cuadrar el círculo de diseño, privacidad y utilidad, es probable que en los próximos años estas gafas dejen de verse como un experimento y pasen a ser un complemento tecnológico tan habitual como hoy lo es el smartphone.

Koontaroolayaasha iyo agabka X
Maqaalka laxiriira:
Koontaroolayaasha XR iyo Agabka: Maxaa Mudan In La Iibsado iyo Waxa la Boodo