Appleは児童虐待防止技術を遅らせる
批評家やユーザーからの多くの反発を受けて、Appleは児童虐待対策を延期している。
8月に、ハイテク巨人は最初に使用する新しいポリシーを発表しました 潜在的な児童虐待の画像を見つけるテクノロジー iCloudとMessagesで、しかし懸念がそれに続いた。 専門家は、Appleがユーザーのプライバシーを約束したとしても、 テクノロジーは最終的にすべてのAppleユーザーを危険にさらすでしょう.
金曜日に、 Appleは、テクノロジーの展開を遅らせると述べた 全体として改善を行い、ユーザーのプライバシーを完全に確保します。
「顧客、擁護団体、研究者などからのフィードバックに基づいて、今後数か月にわたってさらに時間をかけて これらの非常に重要な児童安全機能をリリースする前に、情報を収集して改善を行う」と述べた。 Webサイト。
児童の性的虐待の素材検出テクノロジーは、今年後半にiOS 15のロールアウトで利用可能になる予定でしたが、この機能がいつデビューするか、またはデビューするかどうかは現在不明です。
新しいテクノロジーは2つの方法で機能します。1つは、iCloudにバックアップする前に画像をスキャンすることです。 その画像がCSAMの基準に一致する場合、Appleはそのデータを受け取ります。 テクノロジーの他の部分では、機械学習を使用して、メッセージを通じて子供が受け取る性的に露骨な画像を識別してぼかします。
しかし、新しいポリシーが発表された後、プライバシー擁護派やグループは、Appleは本質的に悪意のある人物が悪用する可能性のある裏口を開いていると述べた。
に これらの懸念に対処する、AppleはCSAMテクノロジーを発表した直後にFAQページをリリースしました。 Appleは、この技術はデバイスに保存されているすべての写真をスキャンしたり、メッセージのエンドツーエンド暗号化を破ったり、罪のない人々に法執行機関に誤ってフラグを立てたりすることはないと説明した。