Por que a tecnologia de varredura de imagens da Apple não é de todo particular
Principais vantagens
- A nova política da Apple contra material de abuso sexual infantil tem causado polêmica entre usuários e especialistas em privacidade.
- A tecnologia funciona digitalizando imagens no iCloud para CSAM e usando aprendizado de máquina para identificar fotos explícitas em mensagens.
- Os especialistas dizem que não importa o quão privada a Apple diga que sua tecnologia de varredura é, ela ainda permite que uma porta dos fundos seja aberta onde qualquer coisa pode acontecer.
A Apple lançou recentemente um nova tecnologia para detectar material de abuso sexual infantil (CSAM), mas está recebendo mais críticas do que elogios da comunidade de privacidade.
Embora a Apple tenha sido anteriormente considerada uma das únicas grandes empresas de tecnologia que realmente se preocupam com a privacidade do usuário, a nova tecnologia de escaneamento CSAM introduzida na semana passada está colocando uma grande chave nisso. Os especialistas dizem que, embora a Apple prometa privacidade ao usuário, a tecnologia acabará por colocar todos os usuários da Apple em risco.
“A Apple está descendo uma ladeira muito escorregadia; eles desenvolveram uma ferramenta que corre o risco de ser maltratada pelo governo e usada indevidamente por malfeitores ", disse Farah Sattar, fundador e pesquisador de segurança da DCRYPTD, disse a Lifewire em uma entrevista por e-mail.
O plano da Apple não é privado
A nova tecnologia funciona de duas maneiras: primeiro, digitalizando uma imagem antes de seu backup no iCloud - se uma imagem corresponder aos critérios do CSAM, a Apple recebe os dados do voucher criptográfico. A outra parte usa aprendizado de máquina no dispositivo para identificar e desfocar imagens sexualmente explícitas que as crianças recebem por meio de Mensagens.
“A Apple está descendo uma ladeira muito escorregadia; eles desenvolveram uma ferramenta que está em risco para as portas dos fundos do governo e uso indevido por maus atores. "
Os especialistas estão apreensivos com o recurso Mensagens, já que ele efetivamente encerraria a criptografia ponta a ponta (E2EE) que a Apple defendeu.
"A introdução da Apple de escaneamento do lado do cliente é uma invasão de privacidade, pois efetivamente quebra o E2EE", disse Sattar.
"O objetivo do E2EE é tornar uma mensagem ilegível para qualquer parte, excluindo o remetente e o destinatário, mas a varredura do lado do cliente permitirá que terceiros acessem o conteúdo no caso de uma correspondência. Isso abre o precedente de que seus dados são E2EE... até que não sejam. "
Enquanto a Apple disse em um publicado recentemente Página de FAQ abordando as preocupações das pessoas sobre sua nova política que não mudará as garantias de privacidade das Mensagens e não terá acesso às comunicações, as organizações ainda estão desconfiadas das promessas da Apple.
"Uma vez que a detecção de uma 'imagem sexualmente explícita', usaremos o aprendizado de máquina no dispositivo para escanear o conteúdo das mensagens, a Apple não será mais capaz de chamar honestamente o iMessage de "criptografado de ponta a ponta", o Electronic Frontier Foundation (EFF) escreveu em resposta à política da Apple.
"A Apple e seus proponentes podem argumentar que a varredura antes ou depois de uma mensagem ser criptografada ou descriptografada mantém o promessa intacta, mas isso seria uma manobra semântica para encobrir uma mudança tectônica na postura da empresa em direção a criptografia. "
Potencial para uso indevido
A principal preocupação de muitos especialistas é a existência de uma porta dos fundos que, não importa o que a Apple possa alegar, ainda está aberta a um potencial uso indevido.
"Embora esta política deva ser aplicável apenas a usuários com menos de 13 anos, esta ferramenta também está pronta para uso indevido, pois não há garantia de que o usuário seja realmente menor de 13 anos. Tal iniciativa representa um risco para jovens LGBTQ + e indivíduos em relacionamentos abusivos, pois pode existir como uma forma de stalkerware ", disse Sattar.
A EFF disse que o menor sinal de pressão externa (especialmente do governo) abriria a porta para abusos e apontou casos em que isso já está acontecendo. Por exemplo, a EFF disse que as tecnologias construídas inicialmente para digitalizar e hash CSAM foram reaproveitadas para criar um banco de dados de conteúdo "terrorista" que as empresas podem contribuir e acesso para banir tal conteúdo.
"Tudo o que seria necessário para alargar a porta dos fundos estreita que a Apple está construindo é uma expansão dos parâmetros de aprendizado de máquina para olhar para tipos adicionais de conteúdo, ou um ajuste dos sinalizadores de configuração para verificar, não apenas as contas de crianças, mas de qualquer pessoa, "EFF disse.
Edward Snowden até condenou a nova tecnologia da Apple como uma "questão de segurança nacional" e "desastrosa", e sua organização, a Liberdade de Imprensa Foundation, é um dos muitos que assinaram uma nova carta apelando à Apple para encerrar esta política antes dela até começa.
o carta foi assinada por mais de 7.400 organizações e especialistas em segurança e privacidade, pedindo à Apple que suspenda essa tecnologia imediatamente e emitir uma declaração reafirmando o compromisso da empresa com a criptografia de ponta a ponta e privacidade do usuário.
"O caminho atual da Apple ameaça minar décadas de trabalho de tecnólogos, acadêmicos e defensores de políticas para fortes medidas de preservação da privacidade sendo a norma na maioria dos dispositivos eletrônicos de consumo e casos de uso ", diz a carta lê.
O tempo dirá como a Apple planeja implementar esta tecnologia, apesar da enorme controvérsia em torno dela, mas as afirmações da empresa em priorizar a privacidade certamente nunca serão as mesmas.