Pourquoi la technologie de numérisation d'images d'Apple n'est pas du tout privée

Points clés à retenir

  • La nouvelle politique d'Apple contre le matériel pédopornographique a suscité la controverse parmi les utilisateurs et les experts en confidentialité.
  • La technologie fonctionne en numérisant les images dans iCloud pour CSAM et en utilisant l'apprentissage automatique pour identifier les photos explicites dans les messages.
  • Les experts disent que peu importe à quel point Apple dit que sa technologie de numérisation est, elle permet toujours en fin de compte d'ouvrir une porte dérobée où tout peut arriver.
Vue fish-eye du logo Apple.

James D. Morgan / Getty Images

Apple a récemment introduit un nouvelle technologie pour repérer le matériel pédopornographique (CSAM), mais il reçoit plus de critiques que d'éloges de la part de la communauté de la protection de la vie privée.

Bien qu'Apple ait été précédemment saluée comme l'une des seules grandes entreprises technologiques qui se soucient réellement de la confidentialité des utilisateurs, la nouvelle technologie de numérisation CSAM introduite la semaine dernière y met un frein. Les experts disent que même si Apple promet la confidentialité des utilisateurs, la technologie mettra finalement tous les utilisateurs d'Apple en danger.

« Apple s'engage sur une pente très glissante; ils ont étoffé un outil qui risque d'être détourné par le gouvernement et d'être utilisé à mauvais escient par de mauvais acteurs », Farah Sattar, fondatrice et chercheuse en sécurité de DCRYPTD, a déclaré Lifewire dans une interview par e-mail.

Le plan d'Apple n'est pas privé

La nouvelle technologie fonctionne de deux manières: d'abord, en numérisant une image avant qu'elle ne soit sauvegardée sur iCloud - si une image correspond aux critères de CSAM, Apple reçoit les données du bon cryptographique. L'autre partie utilise l'apprentissage automatique sur l'appareil pour identifier et brouiller les images sexuellement explicites que les enfants reçoivent via les messages.

« Apple s'engage sur une pente très glissante; ils ont étoffé un outil qui risque d'être détourné par le gouvernement et d'être utilisé à mauvais escient par de mauvais acteurs. »

Les experts craignent la fonctionnalité Messages, car elle mettrait effectivement fin au cryptage de bout en bout (E2EE) défendu par Apple.

"L'introduction par Apple de l'analyse côté client est une atteinte à la vie privée car cela brise efficacement E2EE", a déclaré Sattar.

"Le but d'E2EE est de rendre un message illisible pour toute partie à l'exception de l'expéditeur et du destinataire, mais l'analyse côté client permettra à des tiers d'accéder au contenu en cas de correspondance. Cela crée un précédent selon lequel vos données sont E2EE… jusqu'à ce qu'elles ne le soient pas."

Alors qu'Apple a déclaré dans un article récemment publié FAQ répondre aux préoccupations des gens au sujet de sa nouvelle politique que cela ne changera pas les garanties de confidentialité des messages et n'aura pas accès aux communications, les organisations se méfient toujours des promesses d'Apple.

"Étant donné que la détection d'une" image sexuellement explicite "utilisera l'apprentissage automatique sur l'appareil pour analyser le contenu des messages, Apple ne pourra plus honnêtement appeler iMessage "crypté de bout en bout", le Fondation de la frontière électronique (EFF) a écrit en réponse à la politique d'Apple.

"Apple et ses partisans peuvent faire valoir que l'analyse avant ou après qu'un message soit crypté ou décrypté conserve le" bout en bout " promesse intacte, mais ce serait une manœuvre sémantique pour dissimuler un changement tectonique dans la position de l'entreprise vers une forte chiffrement."

Gros plan sur quelqu'un qui lit des messages sur un smartphone.

Westend61 / Getty Images

Potentiel d'abus

La principale inquiétude de nombreux experts est l'existence d'une porte dérobée qui, quoi qu'Apple puisse prétendre, reste ouverte à une utilisation abusive potentielle.

"Bien que cette politique ne soit destinée qu'aux utilisateurs de moins de 13 ans, cet outil est également propice à une mauvaise utilisation car il n'y a aucune garantie que l'utilisateur a réellement moins de 13 ans. Une telle initiative présente un risque pour les jeunes et les personnes LGBTQ+ dans des relations abusives, car elle peut exister sous forme de stalkerware », a déclaré Sattar.

L'EFF a déclaré que la moindre pression extérieure (en particulier de la part du gouvernement) ouvrirait la porte à des abus et a souligné des cas où cela se produisait déjà. Par exemple, l'EFF a déclaré que les technologies conçues initialement pour numériser et hacher CSAM ont été réutilisées pour créer un base de données de contenu "terroriste" que les entreprises peuvent contribuer à et accéder à interdire un tel contenu.

« Tout ce qu'il faudrait pour élargir la porte dérobée étroite qu'Apple est en train de construire, c'est une expansion des paramètres d'apprentissage automatique pour regarder pour des types de contenu supplémentaires, ou un ajustement des indicateurs de configuration à analyser, pas seulement les comptes des enfants, mais ceux de n'importe qui", EFF mentionné.

Edward Snowden même condamné la nouvelle technologie d'Apple comme un « problème de sécurité nationale » et « désastreux », et son organisation, Freedom of the Press Foundation, est l'une des nombreuses à avoir signé une nouvelle lettre appelant Apple à mettre fin à cette politique avant qu'elle commence même.

Les lettre a été signée par plus de 7 400 organisations et experts de la sécurité et de la confidentialité, appelant Apple à mettre fin à cette technologie immédiatement et publier une déclaration réaffirmant l'engagement de l'entreprise envers le chiffrement de bout en bout et confidentialité des utilisateurs.

« La voie actuelle d'Apple menace de saper des décennies de travail des technologues, des universitaires et des défenseurs des politiques en faveur de de solides mesures de préservation de la vie privée étant la norme dans la majorité des appareils électroniques grand public et des cas d'utilisation », la lettre lit.

Le temps nous dira comment Apple prévoit de mettre en œuvre cette technologie malgré la controverse massive qui l'entoure, mais les affirmations de l'entreprise sur la priorité à la confidentialité ne seront certainement plus jamais les mêmes.