Interview: Apples Datenschutzbeauftragter erläutert System zur Erkennung von CSAM

| 21:30 Uhr | 0 Kommentare

Letzte Woche kündigte Apple neue Funktionen für iOS 15, iPadOS 15 und macOS Monterey an, die auf die Sicherheit von Kindern zugeschnitten sind. Hierbei handelt es sich um eine Reihe von Funktionen, die Kinder vor sexuell eindeutigen Bildern bewahren und eine Verbreitung von Material über sexuellen Kindesmissbrauch (CSAM, Child Sexual Abuse Material) eindämmen sollen. Auch wenn die Absichten zweifellos gut sind, haben einige Nutzer Datenschutzbedenken. Nachdem Apple vor kurzem mit einem FAQ-Dokument versucht hat die Bedenken auszuräumen, widmet sich nun der Datenschutzbeauftragte des Unternehmens dem Thema.

Fotocredit: Apple

Gleichgewicht zwischen starker Kindersicherheit und dem Schutz der Privatsphäre

Apples Ankündigung des erweiterten Schutzes für Kinder (Expanded Protections for Children) hat merklich Wellen geschlagen. Während eine neue Nachrichten-Schutzfunktion, die Kinder vor sexuell eindeutiger Bilder bewahren soll, noch relativ entspannt aufgenommen wird, sorgt derzeit eine weitere Funktion für Diskussionen. So will Apple auch die iCloud-Fotobibliotheken auf kinderpornografische Inhalte (CSAM) untersuchen.

Obwohl das Unternehmen versicherte, dass man hierbei großen Wert auf den Datenschutz legt, sprechen sich einige Datenschützer gegen die Maßnahme aus. Nun versucht Apples Datenschutzbeauftragter, Erik Neuenschwander, in einem Interview mit TechCrunch die Wogen zu glätten und geht bei der Gelegenheit näher auf die eingesetzte Technologie ein.

Zunächst stellte Neuenschwander klar, dass Apple „jetzt über die Technologie verfügt, die ein Gleichgewicht zwischen starker Kindersicherheit und dem Schutz der Privatsphäre der Nutzer herstellen kann“. Gefragt, ob Apple versuche, Regierungen und Behörden auf der ganzen Welt zu zeigen, dass es möglich sei, nach illegalen Inhalten zu suchen und gleichzeitig die Privatsphäre der Nutzer zu schützen, erklärte Neuenschwander:

„Wir sind motiviert durch die Notwendigkeit, mehr für die Sicherheit von Kindern im gesamten digitalen Ökosystem zu tun, und ich denke, alle drei unserer Funktionen sind sehr positive Schritte in diese Richtung. Gleichzeitig werden wir die Privatsphäre für alle, die nicht an der illegalen Aktivität beteiligt sind, ungestört lassen.“

Funktionsweise der CSAM-Erkennung

Wie Neuenschwander nochmals bestätigte, ist das System auf den Datenschutz bedacht. Bei der CSAM-Erkennung wird ein Hash-Abgleich mit einer Datenbank bekannter CSAM-Bilder durchgeführt. Die Hash-Technologie analysiert ein Bild und wandelt es in eine eindeutige Nummer um, die für dieses Bild spezifisch ist. Die Werte werden anschließend mit der Datenbank verglichen. So lassen sich die gesuchten Bilder erkennen, ohne dass sie auf spezielle Merkmale untersucht werden müssen. Dies passiert lokal auf den Geräten der Nutzer. Wird eine bestimmte Anzahl von Übereinstimmungen festgestellt, erfolgt eine Prüfung durch einen Mitarbeiter.

Das System wird ausschließlich für das Aufspüren von CSAM eingesetzt

Ein Brennpunkt in den Diskussionen rund um Apples CSAM-Erkennung, ist die Frage, ob Regierungen das Scan-System ausnutzen könnten, um nach anderen Arten von Inhalten in den Bibliotheken der Nutzer zu suchen. Apple hatte diesbezüglich bereits versichert, dass das System nur für die CSAM-Erkennungsfunktion eingesetzt wird. Wie Neuenschwander bestätigte, wird Apple von diesem Kurs nicht abweichen. So war Apple schon früher mit Forderungen konfrontiert, staatlich verordnete Änderungen zu entwickeln und zu implementieren, die die Privatsphäre der Nutzer beeinträchtigt hätten – doch Apple hat diese Forderungen standhaft abgelehnt.

Außerdem befürchten Nutzer, dass Apples Ende-zu-Ende-Verschlüsselung durch die neuen Schutzfunktionen unterbrochen werden könnte. Diese Befürchtung kann Neuenschwander ebenfalls ausräumen:

„Daran ändert sich nicht ein Quäntchen. Das Gerät ist immer noch verschlüsselt, wir haben immer noch nicht den Schlüssel, und das System ist darauf ausgelegt, mit den Daten auf dem Gerät zu arbeiten … Die Alternative, die Daten des Nutzers auf einem Server zu verarbeiten und auszuwerten, ist anfälliger für Änderungen und schützt die Privatsphäre des Nutzers weniger gut … Es sind diese Art von Systemen, die meiner Meinung nach im Hinblick auf den Datenschutz beunruhigend sind.“

Kategorie: Apple

Tags: , , ,

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert