Liveöversättning kan peka på framtiden för Apple Glasses

click fraud protection
  • Nya tillgänglighetsfunktioner inkluderar Live Captions genererade i realtid, för alla videor eller konversationer.
  • Om den här funktionen inte är gjord för Apples ryktade AR-glasögon, äter vi vår virtuella emoji-hatt.
  • Apple har en historia av att testa framtida produktfunktioner inuti nuvarande enheter.
Två personer tittar på en smartphone i en stadsmiljö.

nazar_ab / Getty Images

Apples nya Live Captions lägg till undertexter i realtid till vad som helst, inklusive personen som står framför dig.

Precis som Googles koncept AR Glasses, tillkännagav denna vecka. Apples Live Captions kan ta inkommande ljud och transkribera det direkt. Skillnaden är att Apples version kommer att skickas "senare i år", vilket förmodligen betyder att den kommer att finnas i höstens iOS 16-release. Men den verkliga nyheten här är att detta är Apples mest uppenbara stick hittills när det gäller att testa framtida Apple Glasses-funktioner i klarsynt.

"Som någon som har två föräldrar som båda har svårt att höra, kommer detta att vara till stor hjälp", skriver Apple-centrerad journalist

Dan Moren på hans personlig Six Colors-blogg. "Jag är nyfiken på att se hur bra funktionen faktiskt fungerar och hur den hanterar ett stort FaceTime-samtal med många deltagare; Apple säger att det kommer att tillskriva dialog till specifika talare."

Fingerfärdighet

Live Captions, som vi kommer till om en sekund, är långt ifrån den första AR-glasögonfunktionen som Apple har testat. Det mest uppenbara är införandet av LIDAR-kameror i iPhones och iPads. Dessa skannrar hjälper till att skapa en korrekt 3D-karta över världen utanför och låter iPhone lägga 3D-modeller över den verkliga världen som visas genom kameran.

"Jag är inte säker på att vi kan lita på Apples liveöversättning bättre än Googles nya AR-glasögon, men jag tror att vi kan lita på att konkurrensen kommer att hjälpa till att skapa de bästa resultaten."

Hittills har den här tekniken använts för att låta dig förhandsgranska nya Apple-datorer på ditt eget skrivbord, spela AR Lego-spel, testa IKEA möbler i ditt vardagsrum, och så vidare. LIDAR-hårdvara är så absurt överflödig i iPhones att den bara måste finnas där så att Apple kan finslipa hårdvaran och mjukvaran för en riktig AR-applikation: Apple Glasses.

Det är inte bara visuell AR heller. AirPods har lagt till snygga AR-funktioner i flera år nu. Det senaste, Spatial Audio, lurar våra hjärnor att tro att ljud kommer från alla omkring oss och är ett utmärkt sätt att titta på filmer eller lyssna på avkopplande ljudlandskap. Det är en fantastisk funktion, men den kommer att bli ännu bättre när den fungerar med Apples förväntade framtida glasögonprodukt. Att kunna placera ljud i ett 3D-utrymme för att matcha AR-objekten kommer verkligen att sälja illusionen.

Eller vad sägs om Live Text, iOS 15-tekniken som känner igen och läser text i foton, och live, genom iPhones kamera? Det är en annan funktion som är idealisk för att läsa skyltar, menyer och annan text genom AR-glasögon.

Live bildtexter

Live Captions tar tal från ett FaceTime-samtal, appar för videokonferenser, strömmande video och så vidare. Din telefon tar ljudet och transkriberar det i farten och ger undertexter, som du kan se i den här videon.

Det är bra, men det som är ännu bättre är att ingenting någonsin lämnar din iPhone. Texterna, säger Apple, genereras på enheten istället för att skickas till en server. Det här är inte bara mer privat, det är också mycket snabbare.

"Jag är inte säker på att vi kan lita på Apples liveöversättning bättre än Googles nya AR-glasögon, men jag tror att vi kan lita på att tävlingen kommer att hjälpa till att skapa de bästa resultaten." Kristen Bolig, grundare av SecurityNerd, berättade för Lifewire via e-post. "Nu när tävlingen är offentlig och problemen med den här typen av teknik (sekretess, noggrannhet, etc..) är välkända, både företag kommer inte bara att vara i en kapplöpning om att skapa den bästa produkten först utan också att skapa den produkt som bäst löser dessa problem."

Vi förväntar oss också någon form av inbyggd automatisk översättning som du kan få just nu med en tredjepartsapp Navi för att automatiskt översätta dina FaceTime-konversationer, eller kanske ett sätt att spara dessa transkriptioner under intervjuer för enklare åtkomst senare.

Vi har länge haft utmärkta tillgänglighetsfunktioner från Apple, som låter oss anpassa våra iOS-enheter i en nästan absurd utsträckning. Från att justera skärmen för att göra färger och text lättare att se, till att styra hela användargränssnittet med externa enheter, till att telefonen meddelar dig när någon ringer på dörren eller en leveransbil kommer utanför.

Nu får vi alla fördelarna med Apples ökade forskning om augmented reality-teknik. Vi kanske inte bryr oss om IKEA eller LEGO, och inte ens vill köpa ett par av Apples mytomspunna AR-glasögon, men det betyder inte att vi inte alla kan njuta av frukterna av den forskningen.