Apple, 새로운 아동 학대 방지 조치에 대한 우려 해결
Apple은 새로운 아동 학대 방지 조치와 관련된 프로세스를 더 자세히 설명하고 있습니다.
기술 대기업은 지난 주에 다음을 사용하는 새로운 정책을 발표했습니다. 잠재적 아동 학대 이미지를 찾아내는 기술 iCloud 및 메시지에서. 더 버지 애플이 출시했다고 보도 자주 묻는 질문 페이지 최근에는 사람들이 새로운 조치에 대해 우려를 표명한 후 기술이 사용되는 방식과 개인 정보 보호 측면이 어떻게 보이는지 설명합니다.

게티 이미지 / 나카오 유리코
Apple은 자사 기술이 아동 성적 학대 자료(CSAM)를 감지하는 데 특별히 제한되어 있으며 감시 도구로 전환될 수 없다고 말했습니다.
Apple은 새로운 FAQ 페이지에 "이 분야의 중요한 과제 중 하나는 어린이를 보호하는 동시에 사용자의 개인 정보를 보호하는 것입니다."라고 썼습니다.
"이 새로운 기술을 통해 Apple은 알려진 CSAM의 컬렉션을 계정이 저장하고 있는 iCloud 사진에 저장된 알려진 CSAM 사진에 대해 학습하게 됩니다. Apple은 기기에만 저장된 다른 데이터에 대해 아무것도 배우지 않을 것입니다."
이 기술은 iCloud에 백업하기 전에 이미지를 스캔하여 작동합니다. 그런 다음 이미지가 CSAM의 기준과 일치하면 Apple은 암호화 바우처 데이터를 수신합니다.
다음과 같은 그룹 Electronic Frontier Foundation은 우려를 표명했습니다. 지난 주 기술에 대해 "기술이 "데이터베이스를 만들기 위해 용도가 변경될 수 있습니다. 기업이 기여할 수 있는 '테러리스트' 콘텐츠 및 이를 금지할 목적으로 액세스 콘텐츠."
"이 공간에서 중요한 과제 중 하나는 어린이를 보호하는 동시에 사용자의 개인 정보를 보호하는 것입니다."
그러나 Apple의 자세한 FAQ 페이지는 기술이 저장된 모든 사진을 스캔하지 않는다는 것을 배치하여 이러한 우려 중 일부를 해결합니다. 장치에서 메시지의 종단 간 암호화를 중단하지 않으며 무고한 사람을 법적으로 잘못 신고하지 않습니다. 시행.
Verge는 Apple의 FAQ가 메시지를 스캔하는 데 사용되는 기술과 회사가 스캔이 CSAM에만 초점을 맞추도록 하는 방법에 대해 제기된 우려를 다루지 않는다는 점에 주목합니다.