Por qué la tecnología de escaneo de imágenes de Apple no es en absoluto privada
Conclusiones clave
- La nueva política de Apple contra el material de abuso sexual infantil ha causado controversia entre los usuarios y los expertos en privacidad.
- La tecnología funciona escaneando imágenes en iCloud para CSAM y usando el aprendizaje automático para identificar fotos explícitas en Mensajes.
- Los expertos dicen que no importa cuán privada Apple diga que su tecnología de escaneo es, en última instancia, permite que se abra una puerta trasera donde cualquier cosa podría suceder.
Apple presentó recientemente un nueva tecnología para detectar material de abuso sexual infantil (CSAM), pero está recibiendo más críticas que elogios de la comunidad de privacidad.
Aunque Apple ha sido aclamada anteriormente como una de las únicas empresas de Big Tech que realmente se preocupan por la privacidad del usuario, la nueva tecnología de escaneo CSAM presentada la semana pasada está poniendo un gran problema en eso. Los expertos dicen que aunque Apple promete privacidad al usuario, la tecnología finalmente pondrá en riesgo a todos los usuarios de Apple.
“Apple está dando un paso por una pendiente muy resbaladiza; han desarrollado una herramienta que está en riesgo de ser utilizada por el gobierno y por mal uso por parte de los malos ", dijo Farah Sattar, fundadora e investigadora de seguridad de DCRYPTD, dijo a Lifewire en una entrevista por correo electrónico.
El plan de Apple no es privado
La nueva tecnología funciona de dos maneras: primero, escaneando una imagen antes de que se haga una copia de seguridad en iCloud; si una imagen coincide con los criterios de CSAM, Apple recibe los datos del comprobante criptográfico. La otra parte utiliza el aprendizaje automático en el dispositivo para identificar y difuminar las imágenes sexualmente explícitas que los niños reciben a través de Mensajes.
“Apple está dando un paso por una pendiente muy resbaladiza; han desarrollado una herramienta que corre el riesgo de ser utilizada por el gobierno por las puertas traseras y el uso indebido por parte de los malos actores ".
Los expertos están preocupados por la función de Mensajes, ya que efectivamente terminaría con el cifrado de extremo a extremo (E2EE) que Apple ha defendido.
"La introducción de Apple del escaneo del lado del cliente es una invasión de la privacidad ya que esto efectivamente rompe E2EE", dijo Sattar.
"El propósito de E2EE es hacer que un mensaje sea ilegible para cualquier parte, excepto el remitente y el destinatario, pero el escaneo del lado del cliente permitirá que terceros accedan al contenido en caso de que coincida. Esto sienta el precedente de que sus datos son E2EE... hasta que no lo es ".
Mientras que Apple dijo en una publicación reciente Página de preguntas frecuentes abordar las preocupaciones de la gente sobre su nueva política que no cambiará las garantías de privacidad de Mensajes y no obtendrá acceso a las comunicaciones, las organizaciones aún desconfían de las promesas de Apple.
"Dado que la detección de una" imagen sexualmente explícita "se utilizará el aprendizaje automático en el dispositivo para escanear contenido de los mensajes, Apple ya no podrá llamar honestamente a iMessage "cifrado de extremo a extremo", el Fundación Frontera Electrónica (EFF) escribió en respuesta a la política de Apple.
"Apple y sus defensores pueden argumentar que el escaneo antes o después de que un mensaje sea encriptado o desencriptado mantiene el" extremo a extremo " promesa intacta, pero eso sería una maniobra semántica para encubrir un cambio tectónico en la postura de la empresa hacia una fuerte cifrado ".
Potencial de uso indebido
La principal preocupación de muchos expertos es la existencia de una puerta trasera que, sin importar lo que diga Apple, todavía está abierta a un posible uso indebido.
"Aunque esta política está destinada a ser aplicable solo a usuarios menores de 13 años, esta herramienta también está lista para el uso indebido, ya que no hay garantía de que el usuario sea realmente menor de 13 años. Una iniciativa de este tipo representa un riesgo para los jóvenes LGBTQ + y las personas en relaciones abusivas, ya que puede existir como una forma de acechador ", dijo Sattar.
EFF dijo que la más mínima presión externa (particularmente del gobierno) abriría la puerta al abuso y señaló casos de que ya está sucediendo. Por ejemplo, EFF dijo que las tecnologías creadas inicialmente para escanear y hash CSAM se han reutilizado para crear un base de datos de contenido "terrorista" que las empresas pueden contribuir y acceder para prohibir dicho contenido.
"Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para mirar para tipos adicionales de contenido, o un ajuste de las marcas de configuración para escanear, no solo las cuentas de niños, sino de cualquier persona, "EFF dijo.
Edward Snowden incluso condenó la nueva tecnología de Apple como un "problema de seguridad nacional" y "desastroso", y su organización, Freedom of the Press Foundation, es una de las muchas que han firmado una nueva carta pidiendo a Apple que ponga fin a esta política antes que incluso comienza.
los La carta ha sido firmada por más de 7.400 organizaciones y expertos en seguridad y privacidad, pidiendo a Apple que detenga esta tecnología inmediatamente y emitir una declaración reafirmando el compromiso de la empresa con el cifrado de extremo a extremo y privacidad del usuario.
"El camino actual de Apple amenaza con socavar décadas de trabajo de tecnólogos, académicos y defensores de políticas hacia las fuertes medidas de preservación de la privacidad son la norma en la mayoría de los dispositivos electrónicos de consumo y casos de uso ", dice la carta lee.
El tiempo dirá cómo Apple planea implementar esta tecnología a pesar de la gran controversia que la rodea, pero las afirmaciones de la compañía sobre priorizar la privacidad nunca serán las mismas.