Warum Apples Technologie zum Scannen von Bildern überhaupt nicht privat ist
Die zentralen Thesen
- Apples neue Richtlinie gegen Material zum sexuellen Missbrauch von Kindern hat unter Benutzern und Datenschutzexperten zu Kontroversen geführt.
- Die Technologie funktioniert, indem sie Bilder in iCloud für CSAM scannt und maschinelles Lernen verwendet, um explizite Fotos in Nachrichten zu identifizieren.
- Experten sagen, egal wie privat Apple seine Scan-Technologie nennt, sie lässt letztendlich immer noch eine Hintertür offen, in der alles passieren könnte.

James D. Morgan / Getty Images
Apple hat kürzlich a. eingeführt neue Technologie zur Erkennung von Material über sexuellen Missbrauch von Kindern (CSAM), aber es wird von der Datenschutz-Community mehr kritisiert als gelobt.
Obwohl Apple zuvor als eines der wenigen Big-Tech-Unternehmen gefeiert wurde, das kümmern sich tatsächlich um die Privatsphäre der Benutzer, die letzte Woche vorgestellte neue CSAM-Scanning-Technologie setzt da einen großen Schraubenschlüssel. Experten sagen, obwohl Apple die Privatsphäre der Benutzer verspricht, wird die Technologie letztendlich alle Apple-Benutzer gefährden.
"Apple geht einen sehr rutschigen Hang hinunter; Sie haben ein Werkzeug entwickelt, das für staatliche Hintertüren und den Missbrauch durch schlechte Akteure gefährdet ist", sagte Farah Sattar, Gründerin und Sicherheitsforscherin bei DCRYPTD, sagte Lifewire in einem E-Mail-Interview.
Apples Plan ist nicht privat
Die neue Technologie funktioniert auf zwei Arten: Erstens, indem ein Bild gescannt wird, bevor es in die iCloud gesichert wird – wenn ein Bild den Kriterien von CSAM entspricht, erhält Apple die Daten des kryptografischen Gutscheins. Der andere Teil verwendet maschinelles Lernen auf dem Gerät, um sexuell eindeutige Bilder zu erkennen und zu verwischen, die Kinder über Nachrichten erhalten.
"Apple geht einen sehr rutschigen Hang hinunter; Sie haben ein Instrument entwickelt, das für staatliche Hintertüren und den Missbrauch durch schlechte Akteure gefährdet ist."
Experten sind besorgt über die Nachrichtenfunktion, da sie die von Apple verfochtene Ende-zu-Ende-Verschlüsselung (E2EE) effektiv beenden würde.
„Apples Einführung des clientseitigen Scannens ist eine Verletzung der Privatsphäre, da dies E2EE effektiv unterbricht“, sagte Sattar.
„Der Zweck von E2EE besteht darin, eine Nachricht für jede Partei außer dem Absender und Empfänger unlesbar zu machen, aber das clientseitige Scannen ermöglicht es Dritten, im Falle einer Übereinstimmung auf Inhalte zuzugreifen. Dies schafft den Präzedenzfall, dass Ihre Daten E2EE sind... bis es nicht mehr ist."
Während Apple in einem kürzlich veröffentlichten FAQ-Seite auf die Bedenken der Menschen bezüglich der neuen Politik einzugehen dass es die Datenschutzgarantien von Nachrichten nicht ändert und keinen Zugriff auf die Kommunikation erhält, sind Unternehmen immer noch misstrauisch gegenüber Apples Versprechen.
„Seit der Erkennung eines ‚sexuell expliziten Bildes‘ wird maschinelles Lernen auf dem Gerät verwendet, um das Bild zu scannen Inhalt von Nachrichten wird Apple iMessage nicht mehr ehrlich als "End-to-End-verschlüsselt" bezeichnen können Electronic Frontier Foundation (EFF) schrieb als Reaktion auf die Richtlinien von Apple.
„Apple und seine Befürworter argumentieren möglicherweise, dass das Scannen vor oder nach dem Verschlüsseln oder Entschlüsseln einer Nachricht das ‚Ende-zu-Ende‘ beibehält. Versprechen intakt, aber das wäre ein semantisches Manöver, um eine tektonische Verschiebung der Haltung des Unternehmens zu einer starken Position zu vertuschen Verschlüsselung."

Westend61 / Getty Images
Missbrauchspotenzial
Die Hauptsorge vieler Experten ist die Existenz einer Hintertür, die, egal was Apple behauptet, immer noch für potenziellen Missbrauch offen ist.
"Obwohl diese Richtlinie nur für Benutzer unter 13 Jahren gelten soll, ist dieses Tool auch reif für Missbrauch, da keine Garantie dafür besteht, dass der Benutzer tatsächlich unter 13 Jahre alt ist. Eine solche Initiative stellt ein Risiko für LGBTQ+-Jugendliche und Personen in missbräuchlichen Beziehungen dar, da sie als eine Form von Stalkerware existieren kann“, sagte Sattar.
EFF sagte, dass der geringste Druck von außen (insbesondere von Seiten der Regierung) die Tür für Missbrauch öffnen würde und wies auf Fälle hin, in denen dies bereits passiert sei. EFF sagte beispielsweise, dass Technologien, die ursprünglich zum Scannen und Hashen von CSAM entwickelt wurden, umfunktioniert wurden, um ein Datenbank mit "terroristischen" Inhalten dass Unternehmen zu solchen Inhalten beitragen und darauf zugreifen können.
"Alles, was es braucht, um die enge Hintertür, die Apple baut, zu erweitern, ist eine Erweiterung der Parameter für maschinelles Lernen, um zu schauen" für zusätzliche Inhaltstypen oder eine Anpassung der Konfigurations-Flags zum Scannen, nicht nur die Konten von Kindern, sondern alle," EFF genannt.
Edward Snowden sogar verurteilte Apples neue Technologie als "nationale Sicherheitsfrage" und "katastrophal" bezeichnet, und seine Organisation Pressefreiheit Foundation, ist eine von vielen, die einen neuen Brief unterzeichnet haben, in dem Apple aufgefordert wird, diese Richtlinie vorzeitig zu beenden sogar beginnt.
Die Brief wurde von mehr als 7.400. unterzeichnet Sicherheits- und Datenschutzorganisationen und Experten, die Apple auffordern, diese Technologie zu stoppen unverzüglich und geben eine Erklärung ab, in der das Unternehmen seine Verpflichtung zur Ende-zu-Ende-Verschlüsselung bekräftigt und Privatsphäre des Benutzers.
„Der derzeitige Weg von Apple droht, die jahrzehntelange Arbeit von Technologen, Akademikern und politischen Befürwortern zu untergraben starke Maßnahmen zum Schutz der Privatsphäre, die bei den meisten Geräten und Anwendungsfällen der Unterhaltungselektronik die Norm sind", heißt es in dem Schreiben liest.
Die Zeit wird zeigen, wie Apple diese Technologie trotz der massiven Kontroversen implementieren will, aber die Ansprüche des Unternehmens, den Datenschutz zu priorisieren, werden mit Sicherheit nie mehr dieselben sein.