Tradução ao vivo pode apontar para o futuro dos óculos da Apple

click fraud protection
  • Novos recursos de acessibilidade incluem legendas ao vivo geradas em tempo real, para qualquer vídeo ou conversa.
  • Se esse recurso não for feito para os supostos óculos AR da Apple, comeremos nosso chapéu de emoji virtual.
  • A Apple tem um histórico de testar recursos futuros de produtos dentro dos dispositivos atuais.
Duas pessoas olhando para um smartphone em um cenário de cidade.

nazar_ab / Getty Images

da Apple novas legendas ao vivo adicione legendas em tempo real a qualquer coisa, incluindo a pessoa que está na sua frente.

Assim como o conceito AR Glasses do Google, anunciado esta semana. As Live Captions da Apple podem pegar o áudio recebido e transcrevê-lo instantaneamente. A diferença é que a versão da Apple será lançada “ainda este ano”, o que provavelmente significa que será no lançamento do iOS 16 deste outono. Mas a verdadeira notícia aqui é que esta é a tentativa mais óbvia da Apple de testar os futuros recursos do Apple Glasses à vista de todos.

"Como alguém que tem dois pais que têm dificuldade em ouvir, isso pode ser uma grande ajuda", escreve o jornalista centrado na Apple

Dan Moren em seu blog pessoal Seis Cores. "Estou curioso para ver como o recurso realmente funciona e como ele lida com uma grande chamada do FaceTime com muitos participantes; A Apple diz que atribuirá diálogos a alto-falantes específicos."

Prestidigitação

Live Captions, que chegaremos em um segundo, está longe de ser o primeiro recurso de óculos AR que a Apple testou. A mais óbvia é a inclusão de câmeras LIDAR em iPhones e iPads. Esses scanners ajudam a criar um mapa 3D preciso do mundo externo e permitem que o iPhone sobreponha modelos 3D ao mundo real mostrado pela câmera.

“Não tenho certeza se podemos confiar na tradução ao vivo da Apple melhor do que nos novos óculos AR do Google, mas acho que podemos confiar que a competição ajudará a gerar os melhores resultados”.

Até agora, essa tecnologia tem sido usada para permitir que você visualize novos computadores da Apple em sua própria mesa, jogue jogos AR Lego, testar móveis IKEA na sua sala, e assim por diante. O hardware LIDAR é tão absurdamente redundante nos iPhones que só deve estar lá para que a Apple possa aprimorar o hardware e o software para um aplicativo real de AR: o Apple Glasses.

Também não é apenas AR visual. Os AirPods adicionam recursos AR puros há anos. O mais recente, Spatial Audio, engana nossos cérebros para pensar que os sons estão vindo de todos os lugares e é uma ótima maneira de assistir a filmes ou ouvir paisagens sonoras relaxantes. É um ótimo recurso, mas será ainda melhor quando funcionar com o futuro produto de óculos esperado da Apple. Ser capaz de colocar sons em um espaço 3D para combinar com os objetos AR realmente venderá a ilusão.

Ou que tal Texto ao vivo, a tecnologia iOS 15 que reconhece e lê texto em fotos, e ao vivo, pela câmera do iPhone? Esse é outro recurso ideal para ler sinais, menus e outros textos por meio de óculos AR.

Legendas ao vivo

As legendas ao vivo captam a fala de uma chamada do FaceTime, aplicativos de videoconferência, streaming de vídeo e assim por diante. Seu telefone pega o áudio e o transcreve na hora, fornecendo legendas, como pode ser visto neste vídeo.

Isso é ótimo, mas o que é ainda melhor é que nada sai do seu iPhone. As legendas, diz a Apple, são geradas no dispositivo em vez de serem enviadas para um servidor. Isso não é apenas mais privado, mas também muito mais rápido.

“Não tenho certeza se podemos confiar na tradução ao vivo da Apple melhor do que nos novos óculos de realidade aumentada do Google, mas acho que podemos confiar que a competição ajudará a gerar os melhores resultados”. Kristen Bolig, fundador da SecurityNerd, disse à Lifewire por e-mail. "Agora que a competição é pública e os problemas com esse tipo de tecnologia (privacidade, precisão, etc.) empresas não estarão apenas em uma corrida para criar primeiro o melhor produto, mas também para criar o produto que melhor resolva esses problemas. problemas."

Também esperamos algum tipo de tradução automática integrada, como você pode obter agora usando o aplicativo de terceiros Navi para tradução automática suas conversas do FaceTime, ou talvez uma maneira de salvar essas transcrições durante as entrevistas para facilitar o acesso mais tarde.

Há muito tempo desfrutamos de excelentes recursos de acessibilidade da Apple, permitindo personalizar nossos dispositivos iOS de forma quase absurda. Desde ajustar a tela para tornar as cores e o texto mais fáceis de ver, até controlar toda a interface do usuário com dispositivos externos, para que o telefone o notifique quando alguém toca a campainha ou uma van de entrega chega fora.

Agora, todos estamos recebendo os benefícios do aumento da pesquisa da Apple em tecnologia de realidade aumentada. Podemos não nos importar com IKEA ou LEGO, nem mesmo querer comprar um par de óculos AR da Apple, mas isso não significa que não podemos desfrutar dos frutos dessa pesquisa.