Waarom de beeldscantechnologie van Apple helemaal niet privé is

click fraud protection

Belangrijkste leerpunten

  • Het nieuwe beleid van Apple tegen materiaal over seksueel misbruik van kinderen heeft voor controverse gezorgd onder gebruikers en privacy-experts.
  • De technologie werkt door afbeeldingen in iCloud te scannen voor CSAM en machine learning te gebruiken om expliciete foto's in Berichten te identificeren.
  • Experts zeggen dat hoe privé Apple zijn scantechnologie ook zegt, het uiteindelijk toch toelaat dat er een achterdeur openstaat waar van alles kan gebeuren.
Visoog van het Apple-logo.

Jacobus D. Morgan / Getty-afbeeldingen

Apple heeft onlangs een nieuwe technologie om materiaal van seksueel misbruik van kinderen te herkennen (CSAM), maar het krijgt meer kritiek dan lof van de privacygemeenschap.

Hoewel Apple eerder werd geprezen als een van de weinige Big Tech-bedrijven die geeft echt om de privacy van gebruikers, zet de nieuwe CSAM-scantechnologie die vorige week is geïntroduceerd, daar een grote sleutel in. Experts zeggen dat hoewel Apple gebruikersprivacy belooft, de technologie uiteindelijk alle Apple-gebruikers in gevaar zal brengen.

"Apple zet zijn stap op een zeer gladde helling; ze hebben een instrument ontwikkeld dat gevaar loopt voor achterdeurtjes van de overheid en misbruik door kwaadwillenden," Farah Sattar, de oprichter en veiligheidsonderzoeker bij DCRYPTD, zei Lifewire in een e-mailinterview.

Het abonnement van Apple is niet privé

De nieuwe technologie werkt op twee manieren: ten eerste door een afbeelding te scannen voordat er een back-up van wordt gemaakt naar de iCloud - als een afbeelding voldoet aan de criteria van CSAM, ontvangt Apple de gegevens van de cryptografische voucher. Het andere deel maakt gebruik van machine learning op het apparaat om seksueel expliciete afbeeldingen te identificeren en te vervagen die kinderen via Berichten ontvangen.

"Apple zet zijn stap op een zeer gladde helling; ze hebben een instrument uitgewerkt dat gevaar loopt voor achterdeurtjes van de overheid en misbruik door slechte actoren."

Experts maken zich zorgen over de functie Berichten, omdat het een einde zou maken aan de end-to-end-codering (E2EE) die Apple heeft gepresteerd.

"Apple's introductie van client-side scanning is een inbreuk op de privacy, omdat dit E2EE effectief schendt", aldus Sattar.

"Het doel van E2EE is om een ​​bericht onleesbaar te maken voor elke partij, behalve de afzender en ontvanger, maar scans aan de clientzijde geeft derden toegang tot inhoud in het geval van een overeenkomst. Dit schept het precedent dat uw gegevens E2EE zijn... totdat het dat niet is."

Terwijl Apple zei in een onlangs gepubliceerde pagina met veelgestelde vragen het aanpakken van de zorgen van mensen over het nieuwe beleid dat het de privacygaranties van Berichten niet zal veranderen en geen toegang zal krijgen tot communicatie, zijn organisaties nog steeds op hun hoede voor de beloften van Apple.

"Aangezien de detectie van een 'seksueel expliciete afbeelding' machine learning op het apparaat zal gebruiken om de inhoud van berichten, zal Apple iMessage niet langer eerlijk "end-to-end versleuteld" kunnen noemen, de Electronic Frontier Foundation (EFF) schreef in reactie op het beleid van Apple.

"Apple en zijn voorstanders kunnen beweren dat scannen voor of nadat een bericht is versleuteld of ontsleuteld de 'end-to-end' belofte intact, maar dat zou semantisch manoeuvreren zijn om een ​​tektonische verschuiving in de houding van het bedrijf ten opzichte van sterke encryptie."

Close-up van iemand die berichten leest op een smartphone.

Westend61 / Getty Images

Potentieel voor misbruik

De grootste zorg van veel experts is het bestaan ​​van een achterdeur die, wat Apple ook beweert, nog steeds vatbaar is voor mogelijk misbruik.

"Hoewel dit beleid bedoeld is om alleen van toepassing te zijn op gebruikers onder de 13 jaar, is deze tool ook rijp voor misbruik omdat er geen garantie is dat de gebruiker daadwerkelijk jonger is dan 13 jaar. Een dergelijk initiatief vormt een risico voor LGBTQ+-jongeren en individuen in gewelddadige relaties, aangezien het kan bestaan ​​als een vorm van stalkerware", zei Sattar.

EFF zei dat het geringste beetje externe druk (vooral van de overheid) de deur zou openen voor misbruik en wees op gevallen waarin dit al gebeurt. EFF zei bijvoorbeeld dat technologieën die oorspronkelijk zijn gebouwd om CSAM te scannen en te hashen, een nieuwe bestemming hebben gekregen om een database met "terroristische" inhoud dat bedrijven kunnen bijdragen aan en toegang krijgen om dergelijke inhoud te verbieden.

"Het enige dat nodig is om de smalle achterdeur die Apple aan het bouwen is te verbreden, is een uitbreiding van de machine learning-parameters om te kijken voor extra soorten inhoud, of een aanpassing van de configuratievlaggen om te scannen, niet alleen accounts van kinderen, maar van iedereen," EFF zei.

Edward Snowden zelfs veroordeelde Apple's nieuwe technologie als een "nationale veiligheidskwestie" en "rampzalig", en zijn organisatie, Freedom of the Press Foundation, is een van de velen die een nieuwe brief hebben ondertekend waarin Apple wordt opgeroepen dit beleid eerder te beëindigen begint zelfs.

De brief is ondertekend door meer dan 7.400 beveiligings- en privacyorganisaties en experts, die Apple oproepen om deze technologie te stoppen onmiddellijk en een verklaring afgeven waarin het bedrijf zich inzet voor end-to-end encryptie en privacy van de gebruiker.

"Het huidige pad van Apple dreigt decennia van werk van technologen, academici en beleidsadvocaten te ondermijnen strenge privacybeschermende maatregelen zijn de norm voor de meeste elektronische apparaten en gebruiksscenario's van consumenten", aldus de brief leest.

De tijd zal leren hoe Apple van plan is deze technologie te implementeren ondanks de enorme controverse eromheen, maar de beweringen van het bedrijf over het prioriteren van privacy zullen zeker nooit hetzelfde zijn.