De ce tehnologia de scanare a imaginilor de la Apple nu este deloc privată

click fraud protection

Recomandări cheie

  • Noua politică a Apple împotriva materialelor de abuz sexual asupra copiilor a provocat controverse în rândul utilizatorilor și experților în confidențialitate.
  • Tehnologia funcționează prin scanarea imaginilor în iCloud pentru CSAM și folosind învățarea automată pentru a identifica fotografiile explicite în Messages.
  • Experții spun că, indiferent cât de privată ar spune Apple este tehnologia sa de scanare, aceasta permite totuși să se deschidă o ușă din spate acolo unde s-ar putea întâmpla orice.
Vedere ochi de pește a siglei Apple.

James D. Morgan / Getty Images

Apple a introdus recent un noua tehnologie pentru identificarea materialelor de abuz sexual asupra copiilor (CSAM), dar primește mai multe critici decât laude din partea comunității de confidențialitate.

Deși Apple a fost anterior salutat ca fiind una dintre singurele companii Big Tech care le pasă de fapt de confidențialitatea utilizatorului, noua tehnologie de scanare CSAM introdusă săptămâna trecută pune o cheie mare în asta. Experții spun că, deși Apple promite confidențialitatea utilizatorilor, tehnologia îi va pune în pericol pe toți utilizatorii Apple.

„Apple coboară o pantă foarte alunecoasă; au dezvoltat un instrument care riscă pentru ușile din spate guvernamentale și pentru utilizarea abuzivă de către actori răi”, Farah Sattar, fondatorul și cercetătorul de securitate la DCRYPTD, a spus pentru Lifewire într-un interviu prin e-mail.

Planul Apple nu este privat

Noua tehnologie funcționează în două moduri: în primul rând, prin scanarea unei imagini înainte ca aceasta să fie salvată pe iCloud — dacă o imagine corespunde criteriilor CSAM, Apple primește datele voucherului criptografic. Cealaltă parte folosește învățarea automată de pe dispozitiv pentru a identifica și estompa imaginile sexual explicite pe care le primesc copiii prin Mesaje.

„Apple coboară o pantă foarte alunecoasă; au dezvoltat un instrument care riscă pentru ușile din spate guvernamentale și pentru utilizarea abuzivă de către actori răi”.

Experții sunt îngrijorați de funcția Mesaje, deoarece ar pune capăt efectiv criptării end-to-end (E2EE) pe care Apple a susținut-o.

„Introducerea de către Apple a scanării la nivelul clientului este o invazie a confidențialității, deoarece aceasta distruge efectiv E2EE”, a spus Sattar.

„Scopul E2EE este de a face un mesaj necitit pentru orice parte, cu excepția expeditorului și destinatarului, dar scanarea la nivelul clientului va permite terților să acceseze conținutul în cazul unei potriviri. Aceasta creează precedentul că datele dumneavoastră sunt E2EE… până când nu sunt.”

În timp ce Apple a spus într-un recent publicat Pagina de întrebări frecvente abordând preocupările oamenilor cu privire la noua sa politică că nu va schimba garanțiile de confidențialitate ale mesajelor și nu va avea acces la comunicații, organizațiile sunt încă ferite de promisiunile Apple.

„Din moment ce detectarea unei „imagini sexuale explicite” va fi folosită învățarea automată pe dispozitiv pentru a scana conținutul mesajelor, Apple nu va mai putea să numească sincer iMessage „criptat end-to-end”, Electronic Frontier Foundation (EFF) a scris ca răspuns la politica Apple.

„Apple și susținătorii săi ar putea argumenta că scanarea înainte sau după ce un mesaj este criptat sau decriptat păstrează „de la capăt la capăt” promit intactă, dar asta ar fi o manevră semantică pentru a acoperi o schimbare tectonică a poziției companiei către o putere puternică. criptare”.

Prim-plan cu cineva care citește mesaje pe un smartphone.

Westend61 / Getty Images

Potenţial de utilizare greşită

Îngrijorarea principală a multor experți este existența unei uși din spate care, indiferent de ce ar pretinde Apple, este încă deschisă unei potențiale utilizări greșite.

„Deși această politică este menită să fie aplicabilă numai utilizatorilor sub 13 ani, acest instrument este, de asemenea, potrivit pentru utilizare greșită, deoarece nu există nicio garanție că utilizatorul are de fapt sub 13 ani. O astfel de inițiativă prezintă un risc pentru tinerii și persoanele LGBTQ+ aflate în relații abuzive, deoarece poate exista ca o formă de urmărire”, a spus Sattar.

EFF a spus că cea mai mică presiune externă (în special din partea guvernului) ar deschide ușa pentru abuz și a subliniat cazurile în care acestea s-au întâmplat deja. De exemplu, EFF a spus că tehnologiile construite inițial pentru a scana și hash CSAM au fost reutilizate pentru a crea un baza de date cu conținut „terorist”. că companiile pot contribui și pot avea acces la interzicerea unui astfel de conținut.

„Tot ce ar fi nevoie pentru a lărgi ușa îngustă pe care o construiește Apple este o extindere a parametrilor de învățare automată pentru a arăta pentru tipuri suplimentare de conținut sau o modificare a indicatorilor de configurare pentru a scana, nu doar conturile copiilor, ci și ale oricui”, EFF spus.

chiar și Edward Snowden a condamnat noua tehnologie a Apple ca „o problemă de securitate națională” și „dezastruoasă”, și organizația sa, Libertatea Presei Foundation, este unul dintre mulți dintre cei care au semnat o nouă scrisoare prin care cere Apple să pună capăt acestei politici înaintea acesteia chiar începe.

The scrisoarea a fost semnată de peste 7.400 organizații și experți de securitate și confidențialitate, cerând Apple să oprească această tehnologie imediat și emite o declarație prin care reafirmă angajamentul companiei față de criptarea end-to-end și confidențialitatea utilizatorului.

„Calea actuală a Apple amenință să submineze decenii de muncă ale tehnologilor, academicienilor și susținătorilor politicii către Măsuri puternice de păstrare a confidențialității fiind o normă pentru majoritatea dispozitivelor electronice de consum și a cazurilor de utilizare”, se arată în scrisoare. citeste.

Timpul va spune cum intenționează Apple să implementeze această tehnologie, în ciuda controverselor masive care o înconjoară, dar afirmațiile companiei cu privire la prioritizarea confidențialității nu vor fi cu siguranță niciodată aceleași.