Direkteoversettelse kan peke på fremtiden til Apple Glasses

click fraud protection
  • Nye tilgjengelighetsfunksjoner inkluderer Live Caption generert i sanntid, for enhver video eller samtale.
  • Hvis denne funksjonen ikke er laget for Apples ryktede AR-briller, spiser vi den virtuelle emoji-hatten vår.
  • Apple har en historie med å prøve fremtidige produktfunksjoner inne i nåværende enheter.
To personer ser på en smarttelefon i bymiljø.

nazar_ab / Getty Images

Apples nye direktetekster legg til sanntids undertekster til hva som helst, inkludert personen som står foran deg.

Akkurat som Googles konsept AR Glasses, annonsert denne uken. Apples Live Captions kan ta innkommende lyd og transkribere den umiddelbart. Forskjellen er at Apples versjon vil sendes "senere i år", noe som sannsynligvis betyr at den vil være i høstens iOS 16-utgivelse. Men den virkelige nyheten her er at dette er Apples mest åpenbare stikk til nå når det gjelder å prøve fremtidige Apple Glasses-funksjoner i umiddelbar syn.

«Som en som har to foreldre som begge har problemer med å høre, er dette til stor hjelp», skriver Apple-sentrisk journalist Dan Moren

på hans personlig Six Colors-blogg. «Jeg er nysgjerrig på å se hvor godt funksjonen faktisk fungerer og hvordan den håndterer en stor FaceTime-samtale med mange deltakere; Apple sier at de vil tilskrive dialog til spesifikke høyttalere."

Fingerferdighet

Live Captions, som vi kommer til om et sekund, er langt fra den første AR-brillefunksjonen som Apple har prøvd. Det mest åpenbare er inkluderingen av LIDAR-kameraer i iPhones og iPads. Disse skannerne bidrar til å lage et nøyaktig 3D-kart over verden utenfor og lar iPhone legge 3D-modeller over på den virkelige verdenen som vises gjennom kameraet.

"Jeg er ikke sikker på at vi kan stole bedre på Apples live-oversettelse enn Googles nye AR-briller, men jeg tror vi kan stole på at konkurransen vil bidra til å avle de beste resultatene."

Så langt har denne teknologien blitt brukt til å la deg forhåndsvise nye Apple-datamaskiner på ditt eget skrivebord, spille AR Lego-spill, test ut IKEA møbler i stuen din, og så videre. LIDAR-maskinvare er så absurd overflødig i iPhones at den bare må være der slik at Apple kan finpusse maskinvaren og programvaren for en ekte AR-applikasjon: Apple Glasses.

Det er ikke bare visuell AR heller. AirPods har lagt til pene AR-funksjoner i mange år nå. Det siste, Spatial Audio, lurer hjernen vår til å tro at lyder kommer fra alle rundt oss og er en fin måte å se filmer eller lytte til avslappende lydlandskap. Det er en flott funksjon, men den vil bli enda bedre når den fungerer med Apples forventede fremtidige brilleprodukt. Å kunne plassere lyder i et 3D-rom for å matche AR-objektene vil virkelig selge illusjonen.

Eller hva med Live Text, iOS 15-teknologien som gjenkjenner og leser tekst i bilder, og live, gjennom iPhone-kameraet? Det er en annen funksjon som er ideell for å lese skilt, menyer og annen tekst gjennom AR-briller.

Direkteteksting

Live Captions tar tale fra en FaceTime-samtale, videokonferanseapper, streaming av video og så videre. Telefonen din tar lyden og transkriberer den på farten, og gir undertekster, som vist i denne videoen.

Det er flott, men det som er enda bedre er at ingenting forlater iPhone-en din. Bildetekstene, sier Apple, genereres på enheten i stedet for å bli sendt til en server. Dette er ikke bare mer privat, det er også mye raskere.

"Jeg er ikke sikker på at vi kan stole på Apples direkteoversettelse bedre enn Googles nye AR-briller, men jeg tror vi kan stole på at konkurransen vil bidra til å avle de beste resultatene," Kristen Bolig, grunnlegger av SecurityNerd, fortalte Lifewire via e-post. "Nå som konkurransen er offentlig og problemene med denne typen teknologi (personvern, nøyaktighet, etc..) er velkjente, både selskaper vil ikke bare være i et kappløp om å skape det beste produktet først, men også om å lage det produktet som best løser disse problemer."

Vi forventer også en slags innebygd automatisk oversettelse som du kan få akkurat nå ved å bruke tredjepartsapper Navi for å oversette automatisk FaceTime-samtalene dine, eller kanskje en måte å lagre disse transkripsjonene under intervjuer for enklere tilgang senere.

Vi har lenge hatt utmerkede tilgjengelighetsfunksjoner fra Apple, som lar oss tilpasse iOS-enhetene våre i en nesten absurd grad. Fra å justere skjermen for å gjøre farger og tekst lettere å se, til å kontrollere hele brukergrensesnittet med eksterne enheter, for å få telefonen til å varsle deg når noen ringer på døren, eller en varebil kommer utenfor.

Nå får vi alle fordelene av Apples økte forskning på utvidet virkelighetsteknologi. Vi bryr oss kanskje ikke om IKEA eller LEGO, og vil heller ikke en gang kjøpe et par av Apples sagnomsuste AR-brilleenhet, men det betyr ikke at vi ikke alle kan nyte fruktene av denne forskningen.