La traducción en vivo puede apuntar al futuro de las gafas de Apple
- Las nuevas funciones de accesibilidad incluyen subtítulos en vivo generados en tiempo real, para cualquier video o conversación.
- Si esta característica no está hecha para las gafas AR de Apple, nos comeremos nuestro sombrero de emoji virtual.
- Apple tiene un historial de probar funciones de productos futuros dentro de los dispositivos actuales.
de manzana nuevos subtítulos en vivo agregue subtítulos en tiempo real a cualquier cosa, incluida la persona que está frente a usted.
Al igual que el concepto AR Glasses de Google, anunciado esta semana. Live Captions de Apple puede tomar el audio entrante y transcribirlo al instante. La diferencia es que la versión de Apple se enviará "más adelante este año", lo que probablemente significa que estará en el lanzamiento de iOS 16 de este otoño. Pero la verdadera noticia aquí es que esta es la puñalada más obvia de Apple hasta ahora para probar las futuras funciones de Apple Glasses a simple vista.
"Como alguien que tiene dos padres que tienen problemas de audición, esto puede ser de gran ayuda", escribe un periodista centrado en Apple.
Juego de manos
Los subtítulos en vivo, a los que llegaremos en un segundo, están lejos de ser la primera función de gafas AR que Apple ha probado. La más obvia es la inclusión de cámaras LIDAR en iPhones y iPads. Estos escáneres ayudan a crear un mapa 3D preciso del mundo exterior y permiten que el iPhone superponga modelos 3D en el mundo real que se muestra a través de la cámara.
"No estoy seguro de que podamos confiar en la traducción en vivo de Apple mejor que en las nuevas gafas AR de Google, pero creo que podemos confiar en que la competencia ayudará a generar los mejores resultados".
Hasta ahora, esta tecnología se ha utilizado para permitirle obtener una vista previa de las nuevas computadoras Apple en su propio escritorio, jugar juegos AR Lego, prueba los muebles de IKEA en tu sala de estar, y así. El hardware LIDAR es tan absurdamente redundante en los iPhones que solo debe estar allí para que Apple pueda perfeccionar el hardware y el software para una aplicación AR real: Apple Glasses.
No es solo AR visual, tampoco. Los AirPods han estado agregando funciones de realidad aumentada ordenadas durante años. El último, Spatial Audio, engaña a nuestro cerebro para que piense que los sonidos provienen de todo lo que nos rodea y es una excelente manera de ver películas o escuchar paisajes sonoros relajantes. Es una gran característica, pero será aún mejor cuando funcione con el esperado futuro producto de gafas de Apple. Ser capaz de colocar sonidos en un espacio 3D para que coincida con los objetos AR realmente venderá la ilusión.
o que tal Live Text, la tecnología de iOS 15 que reconoce y lee texto en fotos, y en vivo, a través de la cámara del iPhone? Esa es otra característica que es ideal para leer letreros, menús y otros textos a través de lentes AR.
Subtítulos en vivo
Live Captions toma el habla de una llamada FaceTime, aplicaciones de videoconferencia, transmisión de video, etc. Su teléfono toma el audio y lo transcribe sobre la marcha, proporcionando subtítulos, como se ve en este video.
Eso es genial, pero lo que es aún mejor es que nada sale de tu iPhone. Los subtítulos, dice Apple, se generan en el dispositivo en lugar de enviarse a un servidor. Esto no solo es más privado, también es mucho más rápido.
"No estoy seguro de que podamos confiar en la traducción en vivo de Apple mejor que en las nuevas gafas AR de Google, pero creo que podemos confiar en que la competencia ayudará a generar los mejores resultados". kristen bolig, fundador de SecurityNerd, le dijo a Lifewire por correo electrónico. "Ahora que la competencia es pública y los problemas con este tipo de tecnología (privacidad, precisión, etc.) son bien conocidos, ambos las empresas no solo estarán en una carrera para crear primero el mejor producto, sino también para crear el producto que mejor resuelva estos problemas."
También esperaríamos algún tipo de traducción automática integrada como la que puede obtener ahora usando una aplicación de terceros Navi para traducir automáticamente sus conversaciones de FaceTime, o tal vez una forma de guardar estas transcripciones durante las entrevistas para un acceso más fácil más adelante.
Durante mucho tiempo hemos disfrutado de las excelentes funciones de accesibilidad de Apple, que nos permiten personalizar nuestros dispositivos iOS hasta un punto casi absurdo. Desde ajustar la pantalla para que los colores y el texto sean más fáciles de ver, hasta controlar toda la interfaz de usuario con dispositivos externos, hasta que el teléfono le notifique cuando alguien toca el timbre o llega una furgoneta de reparto fuera.
Ahora, todos estamos obteniendo los beneficios de la mayor investigación de Apple en tecnología de realidad aumentada. Es posible que no nos interesen IKEA o LEGO, ni siquiera queramos comprar un par de las legendarias gafas AR de Apple, pero eso no significa que no podamos disfrutar de los frutos de esa investigación.