アップルは、新しい児童虐待対策に関する懸念に対処します
Appleは、新しい児童虐待対策に関連するプロセスの詳細を説明しています。
ハイテク巨人は先週、以下を使用する新しいポリシーを発表しました 潜在的な児童虐待の画像を見つけるテクノロジー iCloudとメッセージで。 ザ・ヴァージ Appleがリリースしたと報告している FAQページ 最近では、テクノロジーがどのように使用されているか、そして人々が新しい対策について懸念を表明した後のプライバシーの側面がどのように見えるかを説明しています。
Appleは、その技術は特に児童の性的虐待資料(CSAM)の検出に限定されており、監視ツールに変えることはできないと述べた。
「この分野での重要な課題の1つは、ユーザーのプライバシーを保護しながら子供を保護することです」とAppleは新しいFAQページに書いています。
「この新しいテクノロジーにより、Appleは、アカウントが既知のCSAMのコレクションを保存しているiCloudPhotosに保存されている既知のCSAM写真について学習します。 Appleは、デバイスにのみ保存されている他のデータについては何も学習しません。」
このテクノロジーは、iCloudにバックアップされる前に画像をスキャンすることで機能します。 次に、画像がCSAMの基準に一致する場合、Appleは暗号化バウチャーのデータを受け取ります。
などのグループ 電子フロンティア財団は彼らの懸念を表明した 先週の技術について、技術は「データベースを作成するために再利用される可能性がある」と述べた そのようなことを禁止する目的で企業が貢献し、アクセスできる「テロリスト」コンテンツ コンテンツ。"
「この分野での重要な課題の1つは、ユーザーのプライバシーを保護しながら子供を保護することです。」
ただし、Appleの詳細なFAQページでは、技術者が保存されているすべての写真をスキャンするわけではないことを説明することで、これらの懸念のいくつかに対処しています。 デバイス上で、メッセージのエンドツーエンド暗号化を破ることはなく、無実の人々に法律に誤ってフラグを立てることはありません 執行。
Vergeは、AppleのFAQは、メッセージのスキャンに使用されているテクノロジーに関して提起された懸念や、スキャンがCSAMのみに焦点を当てていることを会社がどのように保証しているかについては言及していないと述べています。