ライブ翻訳はアップルグラスの未来を指し示すかもしれない

click fraud protection
  • 新しいユーザー補助機能には、ビデオや会話用にリアルタイムで生成されたライブキャプションが含まれます。
  • この機能がAppleの噂のARメガネ用に作られていない場合は、仮想絵文字の帽子を食べます。
  • Appleには、現在のデバイス内で将来の製品機能を試してきた歴史があります。
都会でスマホを見ている二人。

nazar_ab/ゲッティイメージズ

りんご 新しいライブキャプション 目の前に立っている人を含め、あらゆるものにリアルタイムの字幕を追加します。

GoogleのコンセプトであるARメガネと同じように、今週発表されました。 AppleのLiveCaptionsは、入ってくるオーディオを受け取り、それを即座に書き写すことができます。 違いは、Appleのバージョンは「今年後半」に出荷されるということです。これはおそらく、この秋のiOS16リリースに含まれることを意味します。 しかし、ここでの本当のニュースは、これがAppleの最も明白な刺し傷であり、将来のAppleGlassesの機能を一目で試してみるということです。

「両親が2人いて、どちらも難聴であるため、これは大きな助けになります」とApple中心のジャーナリストは書いています。 ダン・モレン 彼に 個人的なSixColorsブログ. 「この機能が実際にどれだけうまく機能し、多くの参加者との大規模なFaceTime通話をどのように処理するかを知りたいです。 Appleは、ダイアログを特定の話者に帰するだろうと言っている。」

手先の早業

すぐにわかるライブキャプションは、Appleが試した最初のARメガネ機能とはほど遠いものです。 最も明白なのは、iPhoneとiPadにLIDARカメラが含まれていることです。 これらのスキャナーは、外の世界の正確な3Dマップを作成するのに役立ち、iPhoneがカメラを通して表示される現実の世界に3Dモデルをオーバーレイできるようにします。

「Appleのライブ翻訳がGoogleの新しいARメガネよりも信頼できるかどうかはわかりませんが、競争が最良の結果を生み出すのに役立つと信じることができます。」

これまでのところ、この技術は、新しいAppleコンピューターを自分の机でプレビューしたり、ARレゴゲームをプレイしたりするために使用されてきました。 IKEAの家具を試してみてください あなたの居間で、 等々. LIDARハードウェアはiPhoneで非常に冗長であるため、Appleが実際のARアプリケーションであるApple Glassesのハードウェアとソフトウェアを磨くことができるように、そこにのみ存在する必要があります。

視覚的なARだけではありません。 AirPodsは何年もの間きちんとしたAR機能を追加してきました。 最新のSpatialAudioは、私たちの脳をだまして、音が私たちの周りから来ていると思い込ませ、映画を見たり、映画を見たりするのに最適な方法です。 リラックスできるサウンドスケープを聞く. これは素晴らしい機能ですが、Appleが期待する将来のメガネ製品と連携するとさらに優れたものになります。 ARオブジェクトに一致するように3D空間にサウンドを配置できることは、実際に幻想を売り込むでしょう。

またはどうですか ライブテキスト、iOS15テクノロジー 写真のテキストを認識して読み取り、iPhoneのカメラを介してライブで表示しますか? これは、ARメガネを介して看板、メニュー、その他のテキストを読むのに理想的なもう1つの機能です。

ライブキャプション

Live Captionsは、FaceTime通話、ビデオ会議アプリ、ストリーミングビデオなどから音声を受け取ります。 このビデオで見られるように、お使いの携帯電話は音声を受け取り、その場でそれを転写し、字幕を提供します。

それは素晴らしいことですが、さらに良いのは、iPhoneから何も残らないことです。 Appleによると、キャプションはサーバーに送信されるのではなく、デバイス上で生成されます。 これはよりプライベートであるだけでなく、はるかに高速です。

「アップルのライブ翻訳がグーグルの新しいARメガネよりも信頼できるかどうかはわかりませんが、競争が最高の結果を生み出すのに役立つと信じることができます」 Kristen Bolig、SecurityNerdの創設者は、Lifewireに電子メールで語った。 「現在、競争は公開されており、この種のテクノロジーの問題(プライバシー、正確性など)はよく知られています。 企業は、最初に最高の製品を作成するだけでなく、これらを最もよく解決する製品を作成するための競争に参加します。 問題。」

また、サードパーティのアプリを使用して今すぐ入手できるような、ある種の組み込みの自動翻訳も期待されます 自動翻訳するナビ FaceTimeでの会話、またはインタビュー中にこれらの文字起こしを保存して後で簡単にアクセスできるようにする方法。

私たちは長い間Appleの優れたアクセシビリティ機能を楽しんできたので、iOSデバイスをほとんどばかげた程度にカスタマイズすることができました。 色やテキストを見やすくするための表示の調整から、ユーザーインターフェイス全体の制御まで 外部デバイス、誰かがドアベルを鳴らしたとき、または配達用バンが到着したときに電話に通知させるため 外側。

今、私たちは皆、拡張現実技術に関するアップルの研究の増加の恩恵を受けています。 私たちはIKEAやLEGOを気にしないかもしれませんし、Appleの伝説的なARメガネデバイスを購入したくないかもしれませんが、それは私たち全員がその研究の成果を楽しむことができないという意味ではありません。