Live vertaling kan wijzen op de toekomst van Apple-brillen

click fraud protection
  • Nieuwe toegankelijkheidsfuncties zijn onder meer Live Captions die in realtime worden gegenereerd, voor elke video of elk gesprek.
  • Als deze functie niet is gemaakt voor de geruchten AR-bril van Apple, eten we onze virtuele emoji-hoed op.
  • Apple heeft een geschiedenis van het testen van toekomstige productfuncties op huidige apparaten.
Twee mensen kijken naar een smartphone in een stadsomgeving.

nazar_ab / Getty Images

Appels nieuwe live ondertiteling voeg realtime ondertitels toe aan alles, inclusief de persoon die voor je staat.

Net zoals Google's concept AR Glasses, deze week aangekondigd. De Live Captions van Apple kunnen inkomende audio opnemen en direct transcriberen. Het verschil is dat de versie van Apple "later dit jaar" zal verschijnen, wat waarschijnlijk betekent dat deze in de iOS 16-release van dit najaar zal zijn. Maar het echte nieuws hier is dat dit Apple's meest voor de hand liggende poging is om toekomstige functies van Apple Glasses in het volle zicht uit te proberen.

"Als iemand met twee ouders die allebei moeite hebben met horen, is dit een grote hulp", schrijft Apple-gecentreerde journalist

Dan Moren op zijn persoonlijke Six Colors-blog. "Ik ben benieuwd hoe goed de functie werkt en hoe het een groot FaceTime-gesprek met veel deelnemers afhandelt; Apple zegt dat het dialogen aan specifieke sprekers zal toeschrijven."

Vingervlugheid

Live Captions, waar we zo op terugkomen, is verre van de eerste AR-brilfunctie die Apple heeft uitgeprobeerd. Het meest voor de hand liggende is de opname van LIDAR-camera's in iPhones en iPads. Deze scanners helpen bij het maken van een nauwkeurige 3D-kaart van de buitenwereld en stellen de iPhone in staat om 3D-modellen over de echte wereld te leggen die door de camera wordt weergegeven.

"Ik weet niet zeker of we de live vertaling van Apple beter kunnen vertrouwen dan de nieuwe AR-bril van Google, maar ik denk dat we erop kunnen vertrouwen dat de concurrentie zal helpen om de beste resultaten te behalen."

Tot nu toe is deze technologie gebruikt om je nieuwe Apple-computers op je eigen bureau te laten bekijken, AR Lego-games te spelen, IKEA meubels uitproberen in je woonkamer, enzovoort. LIDAR-hardware is zo absurd overbodig in iPhones dat het er alleen maar mag zijn zodat Apple de hardware en software kan aanscherpen voor een echte AR-toepassing: Apple Glasses.

Het is ook niet alleen visuele AR. AirPods voegen al jaren handige AR-functies toe. De nieuwste, Spatial Audio, laat onze hersenen denken dat geluiden overal om ons heen komen en is een geweldige manier om films of luister naar ontspannende soundscapes. Het is een geweldige functie, maar het zal nog beter zijn als het werkt met het verwachte toekomstige brilproduct van Apple. In staat zijn om geluiden in een 3D-ruimte te plaatsen die bij de AR-objecten passen, zal de illusie echt verkopen.

Of wat dacht je van? Live Text, de iOS 15-technologie die tekst in foto's herkent en leest, en live, via de camera van de iPhone? Dat is nog een functie die ideaal is voor het lezen van borden, menu's en andere tekst via een AR-bril.

Live bijschriften

Live Captions neemt spraak over van een FaceTime-oproep, videoconferentie-apps, streaming video, enzovoort. Je telefoon neemt de audio op en transcribeert deze on-the-fly, met ondertitels, zoals te zien is in deze video.

Dat is geweldig, maar wat nog beter is, is dat niets ooit je iPhone verlaat. De bijschriften, zegt Apple, worden op het apparaat gegenereerd in plaats van naar een server te worden gestuurd. Dit is niet alleen persoonlijker, het is ook een stuk sneller.

"Ik weet niet zeker of we de live vertaling van Apple beter kunnen vertrouwen dan de nieuwe AR-bril van Google, maar ik denk dat we erop kunnen vertrouwen dat de concurrentie zal helpen om de beste resultaten te behalen," Kristen Bolig, oprichter van SecurityNerd, vertelde Lifewire via e-mail. "Nu de wedstrijd openbaar is en de problemen met dit soort technologie (privacy, nauwkeurigheid, enz.) bedrijven zullen niet alleen in een race zijn om eerst het beste product te maken, maar ook om het product te maken dat deze het beste oplost problemen."

We verwachten ook een soort ingebouwde automatische vertaling zoals je die nu kunt krijgen met een app van derden Navi om automatisch te vertalen uw FaceTime-gesprekken, of misschien een manier om deze transcripties tijdens interviews op te slaan, zodat u ze later gemakkelijker kunt openen.

We hebben lang genoten van uitstekende toegankelijkheidsfuncties van Apple, waardoor we onze iOS-apparaten in een bijna absurde mate konden aanpassen. Van het aanpassen van het scherm om kleuren en tekst beter zichtbaar te maken tot het bedienen van de volledige gebruikersinterface met externe apparaten, tot het laten weten van de telefoon als er iemand aanbelt of als er een bestelbus arriveert buiten.

Nu profiteren we allemaal van de voordelen van Apple's toegenomen onderzoek naar augmented reality-technologie. We geven misschien niet om IKEA of LEGO, en we willen zelfs nooit een paar legendarische AR-brillen van Apple kopen, maar dat betekent niet dat we niet allemaal kunnen genieten van de vruchten van dat onderzoek.