- Google förbättrar Android XR med funktioner som PC Connect, reseläge och realistiska avatarer för Galaxy XR.
- År 2026 kommer två typer av AI-glasögon med Android XR: en utan skärm och en med integrerad skärm, i samarbete med Samsung, Gentle Monster och Warby Parker.
- XREAL förbereder de trådbundna glasögonen Project Aura, lätta XR-glasögon med 70 graders synfält och fokus på produktivitet och underhållning.
- Google lanserar Developer Preview 3 av Android XR SDK så att utvecklare enkelt kan anpassa sina Android-appar till rymdmiljön.
Google har beslutat att gasa på med Android XR och de nya glasögonen Med artificiell intelligens utformar de en färdplan som kombinerar mixed reality-headset, bärbara glasögon och utvecklarverktyg i ett enda ekosystem. Efter åratal av lågmälda experiment inom förstärkt verklighet är företaget tillbaka på scenen med mer mogna erbjudanden designade för vardagsbruk.
Under de senaste månaderna har företaget i detalj Nya funktioner för Samsungs Galaxy XR-kikare, har visat framsteg inom första AI-glasögon baserade på Android XR och har gett en förhandsvisning av Projekt AuraDet här är trådbundna XR-glasögon som utvecklats i samarbete med XREAL. Allt detta är integrerat kring Gemini, Googles AI-modell, som blir kärnan i upplevelsen.
Android XR tar form: fler funktioner för Galaxy XR-headsetet

Under evenemanget "Android Show: XR-utgåva”, som hölls den 8 december från Mountain View och följdes noga i Europa, bekräftade Google att Android XR är nu i drift på Galaxy XR-kikare Plattformen har också över 60 spel och upplevelser på Google Play. Målet är att omvandla detta system till ett gemensamt lager som förenar headset, smarta glasögon och andra enheter. användbara rumslig.
En av de stora nyheterna är PC -anslutning, en applikation som tillåter Anslut en Windows-dator till Galaxy XR och visa skrivbordet i den uppslukande miljön som om det bara vore ett annat fönster. På så sätt kan användaren arbeta på sin dator, flytta fönster, använda Office-program eller spela spel, men med virtuella skärmar som svävar i rymden framför honom.
Den innehåller också reselägeDet här alternativet är utformat för dem som använder skärmen när de rör sig, till exempel på ett tåg, flygplan eller bil (alltid som passagerare). Den här funktionen stabiliserar innehållet på skärmen så att fönstren inte "släpps ut" när du rör huvudet eller på grund av fordonsstötar, vilket minskar känslan av yrsel och gör det bekvämare att titta på film, arbeta eller surfa på internet på långa resor.
En annan relevant del är Din likhetett verktyg som genererar en tredimensionell avatar av användarens ansikte Denna digitala modell skapas från en skanning utförd med en mobiltelefon och replikeras i realtid. Ansiktsuttryck, huvudgester och till och med munrörelser under videosamtal på Google Meet och andra kompatibla plattformar, vilket ger en mer naturlig närvaro än klassiska tecknade avatarer.
PC Connect och reseläge är nu tillgängliga tillgänglig för Galaxy XR-ägareMedan Your Likeness för närvarande är i beta, har Google också meddelat att det kommer att släppas under de kommande månaderna. Systemautospatialisering, en funktion planerad för 2026 som Den kommer automatiskt att konvertera 2D-fönster till uppslukande 3D-upplevelser.gör det möjligt att omvandla videor eller spel till rymdscener i realtid utan att användaren behöver göra någonting.
Två familjer av AI-drivna glasögon: med och utan skärm

Utöver headseten har Google bekräftat det Den kommer att lansera sina första AI-drivna glasögon baserade på Android XR år 2026.I samarbete med partners som Samsung, Gentle Monster och Warby Parker baseras strategin på två produktlinjer med distinkta men kompletterande tillvägagångssätt: Skärmlösa glasögon fokuserade på ljud och kameraOch andra med integrerad skärm för lätt augmented reality.
Den första typen av apparater är AI-glasögon utan skärmUtformad för de som vill ha smart hjälp utan att ändra sitt perspektiv på världen. Dessa bågar innehåller mikrofoner, högtalare och kameror, och de förlitar sig på tvillingarna för att svara på röstkommandon, analysera omgivningen eller utföra snabba uppgifter. Dess avsedda användningsområden inkluderar: ta foton utan att ta fram telefonen, få talade anvisningar, be om produktrekommendationer eller ställa frågor om en specifik plats.
Den andra modellen tar det ett steg längre och lägger till en skärm integrerad i linsen, som kan visa information direkt i användarens synfält. Den här versionen låter dig se Vägbeskrivningar i Google Maps, översättning i realtid med undertexter, aviseringar eller påminnelser överlagrad den verkliga världen. Tanken är att erbjuda en lätt augmented reality-upplevelse. utan att nå vikten eller volymen hos en mixed reality-tittaremen med tillräckligt med visuell information för att göra den användbar.
Under interna demonstrationer har vissa testare kunnat använda monokulära prototyper —med en enda skärm på höger lins—och kikare versionermed en skärm för varje öga. I båda fallen är det möjligt att se flytande gränssnitt, videosamtal i virtuella fönster och interaktiva kartor som anpassar sig efter blickens riktning och drar nytta av microLED-tekniken som Google har utvecklat efter köpet av Raxium.
Dessa prototyper har använts för att testa, till exempel Musikuppspelning med kontroller på skärmen, visualiseringen av videosamtal med den andra personens bild flytande i sikte, eller realtidsöversättning med överlagrade undertexterGoogles Nano Banana Pro-modell har till och med använts för att redigera foton tagna med själva glasögonen och se resultatet på några sekunder, utan att behöva ta upp telefonen ur fickan.
Integration med Android, Wear OS och Better Together-ekosystemet
En av fördelarna som Google vill utnyttja med dessa Android XR-glasögon är integration med Android och Wear OS ekosystemFöretaget insisterar på att alla utvecklare som redan programmerar för Android har en betydande fördel: Mobilapplikationer kan projiceras från telefonen till glasögonen, som erbjuder omfattande aviseringar, mediekontroller och rumsliga widgetar utan att kräva större initiala ändringar.
I demonstrationer före lansering har man sett hur Foton tagna med skärmlösa glasögon kan förhandsgranskas på en Wear OS-klocka genom en automatisk avisering, vilket förstärker idén om ett uppkopplat ekosystem, ”Bättre tillsammans”. Dessutom har det visats handgester och huvudrörelser för att styra Android XR-gränssnittet, vilket minskar beroendet av fysiska kontroller.
Inom navigationsområdet utnyttjar Android XR Google Maps Live View-upplevelsemen överförs till glasögonen. Användaren ser bara ett litet kort med nästa adress när han tittar rakt fram, medan när man lutar huvudet nedåt En större karta vecklas ut med en kompass som anger riktningen du är vänd mot. Enligt de som har provat det, övergångarna är smidiga och känslan påminner om en videospelsguide, men integrerad i den verkliga miljön.
Google uppmuntrar även tredje parter, såsom transporttjänster, att dra nytta av dessa funktioner. Ett exempel som visades var integration med transportapplikationer som Uberdär användaren steg för steg kan följa vägen till upphämtningsplatsen på en flygplats och se instruktioner och visuella referenser direkt i sitt synfält.
Med blicken framåt mot 2026 planerar företaget leverera utvecklingssatser för Android XR monokulära glasögon utvalda programmerare, medan alla kommer att kunna experimentera med un optisk passemulator i Android StudioAnvändargränssnittet har utformats för att ha en komplexitet som liknar en widget för startskärmen, något som passar bättre med snabba och kontextuella användningsområden än med traditionella skrivbordsapplikationer.
Project Aura: XR-glasögon med kabel och utökat synfält

Vid sidan av utvecklingen av lätta AI-glasögon samarbetar Google med XREAL om Projekt Aura, nagel Trådbundna XR-glasögon drivna av Android XR som strävar efter att positionera sig mellan ett klumpigt headset och vardagliga glasögon. Den här enheten fokuserar på en lättviktsdesignDen är dock beroende av ett externt batteri och en anslutning till datorer för att öka sin effekt.
Projekt Aura erbjuder ett synfält på cirka 70 grader och användningar optiska transparenstekniker vilket gör att digitalt innehåll kan läggas direkt ovanpå den verkliga miljön. Med detta kan användaren Distribuera flera arbets- eller underhållningsfönster i det fysiska rummet, utan att blockera det som händer runt omkring dig, något som är särskilt användbart för produktivitetsuppgifter eller för att följa instruktioner medan du utför andra aktiviteter.
En praktisk användning skulle vara följ ett matlagningsrecept i ett flytande fönster placeras på köksbänken medan de faktiska ingredienserna tillagas, eller Konsultera den tekniska dokumentationen medan du arbetar handsfree. Enheten drivs av ett externt batteri eller direkt från en datorsom också kan projicera ditt skrivbord i mixed reality-miljön och förvandla glasögonen till en slags rumslig bildskärm.
När det gäller kontroll antar Project Aura ett handspårningssystem liknande det hos Galaxy XRÄven om den har färre kameror gör detta det lättare för användare att anpassa sig snabbt om de redan har provat andra XR-enheter. Google har meddelat att de kommer att erbjuda Mer information om lanseringen under 2026, det datum då den förväntas börja komma ut på marknaden.
Denna kategori av trådbundna glasögon förstärker idén att Android XR inte är begränsat till en enda typ av enhet. Samma mjukvarubas syftar till att omfatta Från uppslukande headset till lätta skyddsglasögon, inklusive hybridlösningar som Aura, så att användaren när som helst kan välja den nivå av nedsänkning och komfort de behöver.
Partnerskap med Samsung, Gentle Monster och Warby Parker

För att undvika att upprepa Google Glass misstag har företaget valt att samarbeta med varumärken som specialiserar sig på optik och modeSamsung hanterar mycket av hårdvaran och elektroniken, medan Gentle Monster och Warby Parker bidrar med sin expertis inom sadeldesign som kan räknas som vanliga glasögon och vara bekväma i många timmar.
Under The Android Show | XR Edition bekräftade Warby Parker det Han arbetar med Google på lätta, AI-aktiverade glasögon.med en planerad lansering 2026. Även om detaljer om prissättning och distributionskanaler ännu inte har släppts, talar företaget om bågar designade för vardagsbruk, långt ifrån den experimentella aspekt som Googles första försök hade för ett decennium sedan.
I detta sammanhang tillhandahåller Android XR och Gemini det teknologiska lagret, medan partnerna fokuserar på att uppnå Diskreta fästen, med bra passform och hanterbar viktMålet är tydligt: glasögonen ska se ut och kännas som vilken annan kommersiell modell som helst, men med integrerad AI och förstärkt verklighet som ger mervärde utan att vara för flashiga.
Dessa allianser positionerar Google i direkt konkurrens med Meta och hans Ray-Ban Meta-glasögonsåväl som med Apples framsteg inom spatial databehandling. Företagets strategi innebär dock öppna plattformar och industriellt samarbeteförsöker få in traditionella glasögonutvecklare och tillverkare i Android XR-ekosystemet.
Verktyg och SDK:er: Android XR öppnar upp för utvecklare

För att få alla dessa delar att passa ihop har Google lanserat Förhandsvisning av utvecklare för Android XR SDK 3vilket officiellt öppnar upp de API:er och verktyg som behövs för att skapa rymdapplikationer för både tittare och XR-glasögon. Gränssnittet följer designen av material 3 och designriktlinjerna som Google internt kallar Glimmer, anpassade till flytande element, kort och 3D-paneler.
Budskapet till sektorn är tydligt: De som redan utvecklar för Android är i stor utsträckning redo att ta steget till Android XRGenom SDK och emulatorer kan programmerare börja porta sina mobilapplikationer, lägga till lager av förstärkt verklighet, integrera gestkontroller eller anpassa hur aviseringar visas i rymden.
Google insisterar på att de inte vill överbelasta användarna med komplexa gränssnitt. Det är därför många delar av Android XR är utformade för att vara enkla. lättviktskort, flytande kontroller och kontextuella widgetar De dyker upp när det behövs och försvinner när de inte längre ger relevant information. På så sätt Målet är att undvika känslan av en "permanent skärm" framför ögonen. och främjar en mer naturlig relation med omgivningen.
Företaget har gjort det klart att Android XR är en öppen plattformOch att hårdvarutillverkare, videospelsstudior, produktivitetsföretag och molntjänster kommer att ha utrymme att experimentera. Från Europa hoppas man att denna metod kommer att bidra till att nya affärs-, utbildnings- och kommunikationsapplikationer använda mixed reality utan att behöva utveckla lösningar från grunden.
Googles drag med Android XR och de nya AI-glasögonen pekar på ett scenario där Mixed reality och intelligent assistans är spridda över olika enhetsformat: uppslukande tittare Som Galaxy XR för uppslukande upplevelser, lätta glasögon för vardagsbruk och trådbundna modeller som Project Aura för de som prioriterar produktivitet och bildkvalitet. Om företaget lyckas få ihop cirkeln mellan design, integritet och användbarhet är det troligt att dessa glasögon under de kommande åren kommer att sluta ses som ett experiment och bli ett tekniskt tillbehör lika vanligt som smarttelefonen är idag.
Jag är en teknikentusiast som har gjort sina "nördar"-intressen till ett yrke. Jag har tillbringat mer än 10 år av mitt liv med att använda den senaste tekniken och mixtrat med alla typer av program av ren nyfikenhet. Nu har jag specialiserat mig på datateknik och tv-spel. Detta beror på att jag i mer än 5 år har arbetat med att skriva för olika webbplatser om teknik och videospel, skapa artiklar som försöker ge dig den information du behöver på ett språk som är begripligt för alla.
Om du har några frågor sträcker sig min kunskap från allt som rör operativsystemet Windows samt Android för mobiltelefoner. Och mitt engagemang är för dig, jag är alltid villig att spendera några minuter och hjälpa dig att lösa alla frågor du kan ha i den här internetvärlden.
