Terjemahan Langsung Dapat Menunjukkan Masa Depan Kacamata Apple

click fraud protection
  • Fitur aksesibilitas baru mencakup Teks Otomatis yang dibuat secara waktu nyata, untuk video atau percakapan apa pun.
  • Jika fitur ini tidak dibuat untuk kacamata AR Apple yang dikabarkan, kami akan memakan topi emoji virtual kami.
  • Apple memiliki riwayat uji coba fitur produk masa depan di dalam perangkat saat ini.
Dua orang melihat smartphone dalam pengaturan kota.

nazar_ab / Getty Images

Apel Teks Langsung baru tambahkan subtitle real-time untuk apa pun, termasuk orang yang berdiri di depan Anda.

Sama seperti konsep Kacamata AR Google, yang diumumkan minggu ini. Teks Otomatis Apple dapat mengambil audio yang masuk dan mentranskripsikannya secara instan. Perbedaannya adalah bahwa versi Apple akan dikirimkan "akhir tahun ini," yang mungkin berarti akan ada di rilis iOS 16 musim gugur ini. Tetapi berita sebenarnya di sini adalah bahwa ini adalah tikaman Apple yang paling jelas dalam uji coba fitur Apple Glasses di masa depan di depan mata.

"Sebagai seseorang yang memiliki dua orang tua yang sama-sama mengalami kesulitan mendengar, ini akan sangat membantu," tulis jurnalis Apple-centric

Dan Moren pada miliknya blog Enam Warna pribadi. "Saya ingin tahu seberapa baik fitur ini bekerja dan bagaimana menangani panggilan FaceTime yang besar dengan banyak peserta; Apple mengatakan akan menghubungkan dialog ke speaker tertentu."

Sulap

Teks Langsung, yang akan kita bahas sebentar lagi, jauh dari fitur kacamata AR pertama yang telah diuji coba oleh Apple. Yang paling jelas adalah penyertaan kamera LIDAR di iPhone dan iPad. Pemindai ini membantu membuat peta dunia luar 3D yang akurat dan memungkinkan iPhone untuk melapisi model 3D ke dunia nyata yang ditunjukkan melalui kamera.

"Saya tidak yakin kami dapat mempercayai terjemahan langsung Apple lebih baik daripada kacamata AR baru Google, tetapi saya pikir kami dapat percaya bahwa kompetisi akan membantu menghasilkan hasil terbaik."

Sejauh ini, teknologi ini telah digunakan untuk memungkinkan Anda melihat pratinjau komputer Apple baru di meja Anda sendiri, memainkan game AR Lego, menguji furnitur IKEA di ruang tamu Anda, dan seterusnya. Perangkat keras LIDAR sangat berlebihan di iPhone sehingga hanya boleh ada di sana agar Apple dapat mengasah perangkat keras dan perangkat lunak untuk aplikasi AR nyata: Apple Glasses.

Ini juga bukan hanya AR visual. AirPods telah menambahkan fitur AR yang rapi selama bertahun-tahun sekarang. Audio Spasial terbaru, menipu otak kita untuk berpikir bahwa suara datang dari sekitar kita dan merupakan cara yang bagus untuk menonton film atau dengarkan soundscapes yang menenangkan. Ini adalah fitur yang hebat, tetapi akan lebih baik lagi jika bekerja dengan produk kacamata masa depan yang diharapkan dari Apple. Mampu menempatkan suara dalam ruang 3D agar sesuai dengan objek AR akan benar-benar menjual ilusi.

Atau bagaimana? Teks Langsung, teknologi iOS 15 yang mengenali dan membaca teks dalam foto, dan langsung, melalui kamera iPhone? Itu fitur lain yang ideal untuk membaca tanda, menu, dan teks lainnya melalui kacamata AR.

Teks Langsung

Teks Otomatis mengambil ucapan dari panggilan FaceTime, aplikasi konferensi video, streaming video, dan sebagainya. Ponsel Anda mengambil audio dan menyalinnya dengan cepat, memberikan subtitle, seperti yang terlihat dalam video ini.

Itu bagus, tetapi yang lebih baik adalah tidak ada yang pernah meninggalkan iPhone Anda. Teks, kata Apple, dibuat di perangkat alih-alih dikirim ke server. Ini tidak hanya lebih pribadi, tetapi juga jauh lebih cepat.

"Saya tidak yakin kami dapat mempercayai terjemahan langsung Apple lebih baik daripada kacamata AR baru Google, tetapi saya pikir kami dapat percaya bahwa kompetisi akan membantu menghasilkan hasil terbaik," Kristen Bolig, pendiri SecurityNerd, mengatakan kepada Lifewire melalui email. “Sekarang kompetisi ini bersifat publik dan masalah dengan teknologi semacam ini (privasi, akurasi, dll.) sudah diketahui dengan baik, baik perusahaan tidak hanya akan berlomba untuk menciptakan produk terbaik terlebih dahulu, tetapi juga menciptakan produk yang terbaik untuk memecahkan masalah ini masalah."

Kami juga mengharapkan semacam terjemahan otomatis bawaan seperti yang bisa Anda dapatkan sekarang menggunakan aplikasi pihak ketiga Navi untuk menerjemahkan otomatis percakapan FaceTime Anda, atau mungkin cara untuk menyimpan transkripsi ini selama wawancara untuk akses yang lebih mudah nanti.

Kami telah lama menikmati fitur aksesibilitas luar biasa dari Apple, memungkinkan kami menyesuaikan perangkat iOS kami hingga tingkat yang hampir tidak masuk akal. Dari mengubah tampilan untuk membuat warna dan teks lebih mudah dilihat, hingga mengontrol seluruh antarmuka pengguna dengan perangkat eksternal, agar telepon memberi tahu Anda ketika seseorang membunyikan bel pintu, atau van pengiriman tiba di luar.

Sekarang, kita semua mendapatkan manfaat dari penelitian Apple yang meningkat tentang teknologi augmented reality. Kami mungkin tidak peduli dengan IKEA atau LEGO, atau bahkan ingin membeli sepasang perangkat kacamata AR buatan Apple, tetapi itu tidak berarti kami tidak dapat menikmati semua hasil penelitian itu.