Dlaczego technologia skanowania obrazów firmy Apple nie jest w ogóle prywatna?

click fraud protection

Kluczowe dania na wynos

  • Nowa polityka firmy Apple dotycząca materiałów związanych z wykorzystywaniem seksualnym dzieci wzbudziła kontrowersje wśród użytkowników i ekspertów ds. prywatności.
  • Technologia działa poprzez skanowanie obrazów w iCloud na potrzeby CSAM i wykorzystywanie uczenia maszynowego do identyfikowania wyraźnych zdjęć w Wiadomościach.
  • Eksperci twierdzą, że bez względu na to, jak prywatna jest technologia skanowania firmy Apple, nadal ostatecznie umożliwia otwarcie tylnych drzwi, w których wszystko może się zdarzyć.
Widok rybiego oka na logo Apple.

Jakub D. Morgan / Getty Images

Apple niedawno wprowadziło nowa technologia wykrywania materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM), ale spotyka się z większą krytyką niż pochwałami ze strony społeczności zajmującej się prywatnością.

Chociaż Apple był wcześniej okrzyknięty jedną z niewielu firm Big Tech, które naprawdę dbam o prywatność użytkownika, nowa technologia skanowania CSAM wprowadzona w zeszłym tygodniu ma w tym duże znaczenie. Eksperci twierdzą, że chociaż Apple obiecuje prywatność użytkowników, technologia ostatecznie narazi wszystkich użytkowników Apple na ryzyko.

„Apple schodzi po bardzo śliskim zboczu; opracowali narzędzie, które jest zagrożone tylnymi drzwiami rządu i nadużyciem przez złych aktorów ”- Farah Sattar, założycielka i badaczka ds. bezpieczeństwa w DCRYPTD, powiedział Lifewire w e-mailowym wywiadzie.

Plan Apple nie jest prywatny

Nowa technologia działa na dwa sposoby: po pierwsze, skanując obraz przed utworzeniem kopii zapasowej w iCloud — jeśli obraz spełnia kryteria CSAM, Apple otrzymuje dane kuponu kryptograficznego. Druga część wykorzystuje uczenie maszynowe na urządzeniu do identyfikowania i zamazywania obrazów o charakterze jednoznacznie seksualnym, które dzieci otrzymują za pośrednictwem Wiadomości.

„Apple schodzi po bardzo śliskim zboczu; opracowali narzędzie, które jest zagrożone tylnymi drzwiami rządu i nadużyciem przez złych aktorów”.

Eksperci obawiają się funkcji Wiadomości, ponieważ skutecznie zakończyłaby szyfrowanie typu end-to-end (E2EE), którego broni Apple.

„Wprowadzenie przez Apple skanowania po stronie klienta jest naruszeniem prywatności, ponieważ skutecznie łamie E2EE” – powiedział Sattar.

„Celem E2EE jest sprawienie, by wiadomość była nieczytelna dla jakiejkolwiek strony, z wyjątkiem nadawcy i odbiorcy, ale skanowanie po stronie klienta pozwoli stronom trzecim na dostęp do treści w przypadku dopasowania. To ustanawia precedens, że Twoje dane są E2EE… dopóki tak nie jest”.

Podczas gdy Apple powiedział w niedawno opublikowanym Strona FAQ odniesienie się do obaw ludzi związanych z nową polityką że nie zmieni gwarancji prywatności Wiadomości i nie uzyska dostępu do komunikacji, organizacje nadal nieufnie podchodzą do obietnic Apple.

„Ponieważ wykrycie »obrazu o charakterze jednoznacznie seksualnym« będzie wykorzystywało uczenie maszynowe na urządzeniu do skanowania treści wiadomości, Apple nie będzie już mógł uczciwie nazywać iMessage „zaszyfrowanym od końca do końca”, czyli Fundacja Electronic Frontier (EFF) napisał w odpowiedzi na politykę Apple.

„Apple i jego zwolennicy mogą argumentować, że skanowanie przed lub po zaszyfrowaniu lub odszyfrowaniu wiadomości utrzymuje ‘od końca do końca’ obiecuję nienaruszone, ale byłoby to semantyczne manewrowanie, aby ukryć tektoniczną zmianę stanowiska firmy w kierunku silnego szyfrowanie."

Zbliżenie kogoś czytającego wiadomości na smartfonie.

Westend61 / Getty Images

Możliwość nadużycia

Głównym zmartwieniem wielu ekspertów jest istnienie backdoora, który bez względu na to, co twierdzi Apple, nadal jest otwarty na potencjalne nadużycia.

„Chociaż te zasady mają zastosowanie tylko do użytkowników poniżej 13 roku życia, to narzędzie jest również gotowe do niewłaściwego użycia, ponieważ nie ma gwarancji, że użytkownik ma rzeczywiście mniej niż 13 lat. Taka inicjatywa stanowi zagrożenie dla młodzieży LGBTQ+ i osób pozostających w toksycznych związkach, ponieważ może istnieć jako forma stalkerware” – powiedział Sattar.

EFF powiedział, że najmniejsza presja z zewnątrz (zwłaszcza ze strony rządu) otworzy drzwi do nadużyć i wskazała na przykłady, które już się zdarzają. Na przykład, EFF powiedział, że technologie stworzone początkowo do skanowania i haszowania CSAM zostały zmienione w celu stworzenia baza treści „terrorystycznych” że firmy mogą współtworzyć i mieć dostęp do zakazu takich treści.

„Wszystko, czego potrzeba, aby poszerzyć wąskie tylne drzwi, które buduje Apple, to rozszerzenie parametrów uczenia maszynowego, aby wyglądać dla dodatkowych rodzajów treści lub dostrojenia flag konfiguracyjnych do skanowania, nie tylko kont dzieci, ale czyichś”, EFF powiedział.

Nawet Edwarda Snowdena potępił nową technologię Apple jako „kwestia bezpieczeństwa narodowego” i „katastrofalna”, a jego organizacja Wolność prasy Foundation, jest jedną z wielu osób, które podpisały nowy list wzywający Apple do zakończenia tej polityki przed jej wprowadzeniem nawet się zaczyna.

ten list został podpisany przez ponad 7400 organizacje i eksperci ds. bezpieczeństwa i prywatności, wzywające Apple do powstrzymania tej technologii natychmiast i wydać oświadczenie potwierdzające zaangażowanie firmy w szyfrowanie typu end-to-end oraz prywatność użytkownika.

„Obecna ścieżka Apple grozi podkopaniem dziesięcioleci pracy technologów, naukowców i obrońców polityki na rzecz silne środki ochrony prywatności są normą w przypadku większości konsumenckich urządzeń elektronicznych i przypadków użycia”, pismo czyta.

Czas pokaże, w jaki sposób Apple planuje wdrożyć tę technologię pomimo ogromnych kontrowersji, które ją otaczają, ale deklaracje firmy dotyczące priorytetowego traktowania prywatności z pewnością nigdy nie będą takie same.