Varför Apples bildskanningsteknik inte alls är privat

Viktiga takeaways

  • Apples nya policy mot material för sexuella övergrepp mot barn har orsakat kontroverser bland användare och integritetsexperter.
  • Tekniken fungerar genom att skanna bilder i iCloud för CSAM och använda maskininlärning för att identifiera explicita bilder i meddelanden.
  • Experter säger att oavsett hur privat Apple säger att dess skanningsteknik är, tillåter den ändå i slutändan en bakdörr att vara öppen där allt kan hända.
Fisheye-vy av Apple-logotypen.

James D. Morgan / Getty Images

Apple introducerade nyligen en ny teknik för att upptäcka material för sexuella övergrepp mot barn (CSAM), men det får mer kritik än beröm från integritetsgemenskapen.

Även om Apple tidigare har hyllats som ett av de enda Big Tech-företagen som faktiskt bryr sig om användarnas integritet, den nya CSAM-skanningsteknologin som introducerades förra veckan sätter en stor skiftnyckel i det. Experter säger att även om Apple lovar användarnas integritet, kommer tekniken i slutändan att utsätta alla Apple-användare för risker.

"Apple tar sitt steg nerför en mycket hal backe; de har utvecklat ett verktyg som är i riskzonen för regeringens bakdörrar och missbruk av dåliga aktörer," Farah Sattar, grundare och säkerhetsforskare vid

DCRYPTD, sa till Lifewire i en e-postintervju.

Apples plan är inte privat

Den nya tekniken fungerar på två sätt: för det första genom att skanna en bild innan den säkerhetskopieras till iCloud – om en bild matchar kriterierna för CSAM, får Apple data från den kryptografiska verifikationen. Den andra delen använder maskininlärning på enheten för att identifiera och sudda ut sexuellt explicita bilder som barn får via meddelanden.

"Apple tar sitt steg nerför en mycket hal backe; de har utvecklat ett verktyg som är i riskzonen för regeringens bakdörrar och missbruk av dåliga aktörer."

Experter är oroliga för meddelandefunktionen eftersom den effektivt skulle avsluta end-to-end-kryptering (E2EE) som Apple har förespråkat.

"Apples introduktion av skanning på klientsidan är ett intrång i integriteten eftersom detta effektivt bryter E2EE," sa Sattar.

"Syftet med E2EE är att göra ett meddelande oläsligt för någon part exklusive avsändaren och mottagaren, men skanning på klientsidan kommer att tillåta tredje part att komma åt innehåll i händelse av en matchning. Detta skapar prejudikatet att din data är E2EE... tills den inte är det."

Medan Apple sa i en nyligen publicerad FAQ-sida ta itu med människors oro över sin nya policy att det inte kommer att ändra integritetsgarantierna för meddelanden, och inte kommer att få tillgång till kommunikation, är organisationer fortfarande försiktiga med Apples löften.

"Eftersom upptäckten av en "sexuellt explicit bild" kommer att använda maskininlärning på enheten för att skanna innehållet i meddelanden, kommer Apple inte längre att vara ärligt att kalla iMessage "end-to-end-krypterad", Electronic Frontier Foundation (EFF) skrev som svar på Apples policy.

"Apple och dess förespråkare kan hävda att genomsökning före eller efter att ett meddelande är krypterat eller dekrypterat behåller "ände-till-ände" löftet intakt, men det skulle vara semantisk manövrering för att dölja en tektonisk förändring i företagets hållning mot stark kryptering."

Närbild av någon som läser meddelanden på en smartphone.

Westend61 / Getty Images

Potential för missbruk

Den primära oro för många experter är att det finns en bakdörr som, oavsett vad Apple hävdar, fortfarande är öppen för potentiellt missbruk.

"Även om den här policyn endast är tillämplig på användare under 13 år, är det här verktyget också moget för missbruk eftersom det inte finns någon garanti för att användaren faktiskt är under 13 år. Ett sådant initiativ utgör en risk för HBTQ+-ungdomar och individer i våldsamma relationer eftersom det kan existera som en form av stalkerware, säger Sattar.

EFF sa att minsta lilla externa påtryckning (särskilt från regeringen) skulle öppna dörren för missbruk och pekade på fall där det redan har skett. EFF sa till exempel att tekniker som ursprungligen byggdes för att skanna och hasha CSAM har återanvänts för att skapa en databas med "terroristinnehåll". att företag kan bidra till och få tillgång till att förbjuda sådant innehåll.

"Allt som krävs för att vidga den smala bakdörren som Apple bygger är en utökning av maskininlärningsparametrarna att se för ytterligare typer av innehåll, eller en justering av konfigurationsflaggorna för att skanna, inte bara barns, utan allas konton," EFF sa.

Edward Snowden till och med fördömde Apples nya teknik som en "nationell säkerhetsfråga" och "katastroflig", och hans organisation, Pressfrihet Foundation, är en av många som har undertecknat ett nytt brev som uppmanar Apple att avsluta denna policy innan den till och med börjar.

De brevet har undertecknats av fler än 7 400 säkerhets- och integritetsorganisationer och experter, uppmanar Apple att stoppa denna teknik omedelbart och utfärda ett uttalande som bekräftar företagets engagemang för end-to-end-kryptering och användarnas integritet.

"Apples nuvarande väg hotar att undergräva årtionden av arbete av teknologer, akademiker och politiska förespråkare mot Starka integritetsbevarande åtgärder är normen för en majoritet av elektroniska konsumentprodukter och användningsfall", skriver brevet läser.

Tiden kommer att utvisa hur Apple planerar att implementera denna teknik trots den massiva kontroversen kring den, men företagets påståenden om att prioritera integritet kommer med all säkerhet aldrig att bli desamma.