Tłumaczenie na żywo może wskazywać na przyszłość okularów Apple
- Nowe funkcje ułatwień dostępu obejmują napisy na żywo generowane w czasie rzeczywistym dla dowolnego wideo lub rozmowy.
- Jeśli ta funkcja nie jest przeznaczona dla rzekomych okularów AR firmy Apple, zjemy nasz wirtualny kapelusz emoji.
- Apple ma historię testowania przyszłych funkcji produktów w obecnych urządzeniach.
Jabłka nowe napisy na żywo dodawaj napisy w czasie rzeczywistym do wszystkiego, w tym osoby stojącej przed tobą.
Podobnie jak koncepcja Google AR Glasses, ogłoszona w tym tygodniu. Napisy na żywo firmy Apple umożliwiają natychmiastową transkrypcję przychodzącego dźwięku. Różnica polega na tym, że wersja Apple pojawi się „pod koniec tego roku”, co prawdopodobnie oznacza, że pojawi się w jesiennym wydaniu iOS 16. Ale prawdziwą wiadomością jest to, że jest to najbardziej oczywisty cios Apple w testowaniu przyszłych funkcji Apple Glasses na widoku.
„Jako ktoś, kto ma dwoje rodziców, którzy oboje mają problemy ze słyszeniem, jest to duża pomoc” – pisze dziennikarz skupiony na Apple.
Kuglarstwo
Napisy na żywo, do których przejdziemy za sekundę, są dalekie od pierwszej funkcji okularów AR, którą wypróbował Apple. Najbardziej oczywistym jest włączenie kamer LIDAR do iPhone'ów i iPadów. Skanery te pomagają tworzyć dokładną mapę 3D świata na zewnątrz i pozwalają iPhone'owi na nakładanie modeli 3D na rzeczywisty świat pokazywany przez kamerę.
„Nie jestem pewien, czy możemy ufać tłumaczeniu na żywo firmy Apple lepiej niż nowym okularom AR Google, ale myślę, że możemy ufać, że konkurencja pomoże uzyskać najlepsze wyniki”.
Do tej pory ta technologia była używana do podglądania nowych komputerów Apple na własnym biurku, grania w gry AR Lego, przetestuj meble IKEA w twoim salonie, i tak dalej. Sprzęt LIDAR jest tak absurdalnie zbędny w iPhone'ach, że musi tam być tylko po to, by Apple mógł udoskonalić sprzęt i oprogramowanie dla prawdziwej aplikacji AR: Apple Glasses.
To nie tylko wizualne AR. AirPods od lat dodaje fajne funkcje AR. Najnowszy, Spatial Audio, nakłania nasze mózgi do myślenia, że dźwięki dobiegają z otoczenia i jest świetnym sposobem na oglądanie filmów lub słuchaj relaksujących pejzaży dźwiękowych. To świetna funkcja, ale będzie jeszcze lepsza, gdy będzie działać z oczekiwanym przez Apple produktem przyszłych okularów. Możliwość umieszczenia dźwięków w przestrzeni 3D w celu dopasowania do obiektów AR naprawdę sprzeda iluzję.
A może? Tekst na żywo, technologia iOS 15 który rozpoznaje i czyta tekst na zdjęciach i na żywo przez aparat iPhone'a? To kolejna funkcja, która idealnie nadaje się do czytania znaków, menu i innego tekstu przez okulary AR.
Napisy na żywo
Napisy na żywo odbierają mowę z połączeń FaceTime, aplikacji do obsługi wideokonferencji, strumieniowego przesyłania wideo i tak dalej. Twój telefon pobiera dźwięk i dokonuje jego transkrypcji w locie, udostępniając napisy, jak widać na tym filmie.
To świetnie, ale jeszcze lepsze jest to, że nic nigdy nie opuszcza Twojego iPhone'a. Jak twierdzi Apple, podpisy są generowane na urządzeniu, a nie wysyłane na serwer. Jest to nie tylko bardziej prywatne, ale także znacznie szybsze.
„Nie jestem pewien, czy możemy ufać tłumaczeniu na żywo Apple lepiej niż nowym okularom AR Google, ale myślę, że możemy ufać, że konkurencja pomoże uzyskać najlepsze wyniki” Kristen Bolig, założyciel SecurityNerd, powiedział Lifewire przez e-mail. „Teraz, gdy konkurs jest publiczny, a problemy z tego rodzaju technologią (prywatność, dokładność itp.) są dobrze znane, zarówno firmy będą nie tylko ścigać się, aby najpierw stworzyć najlepszy produkt, ale także stworzyć produkt, który najlepiej je rozwiąże problemy."
Spodziewalibyśmy się również pewnego rodzaju wbudowanego automatycznego tłumaczenia, które można teraz uzyskać za pomocą aplikacji innej firmy Przejdź do automatycznego tłumaczenia Twoje rozmowy FaceTime, a może sposób na zapisanie tych transkrypcji podczas wywiadów w celu późniejszego łatwiejszego dostępu.
Od dawna cieszymy się doskonałymi funkcjami ułatwień dostępu oferowanymi przez Apple, które pozwalają nam dostosowywać nasze urządzenia z systemem iOS w niemal absurdalny sposób. Od dostosowywania wyświetlacza, aby kolory i tekst były lepiej widoczne, po kontrolowanie całego interfejsu użytkownika za pomocą urządzenia zewnętrzne, aby telefon powiadamiał Cię, gdy ktoś zadzwoni do drzwi lub przyjedzie samochód dostawczy na zewnątrz.
Teraz wszyscy czerpiemy korzyści z wzmożonych badań Apple nad technologią rzeczywistości rozszerzonej. Możemy nie dbać o IKEA ani LEGO, ani nawet nie chcieć kupić pary legendarnych okularów AR firmy Apple, ale to nie znaczy, że nie wszyscy możemy cieszyć się owocami tych badań.