Apple spricht über die abgesagte CSAM-Erkennung für iCloud-Fotos

| 11:59 Uhr | 0 Kommentare

Im August 2021 kündigte Apple die Einführung neuer Kinder-Schutzmaßnahmen für iOS 15, iPadOS 15 und macOS Monterey an. Für Diskussionen sorgte eine Funktion, die Bilder von sexuellem Kindesmissbrauch (CSAM) ausfindig machen sollte. Hierbei wäre ein Abgleich lokaler Bilder mit einer Datenbank auf Hashbasis erfolgt, falls die Bilder in die Cloud geladen werden. Nachdem Apple Ende 2022 angekündigt hatte, seine CSAM-Algorithmuspläne nicht mehr weiterzuverfolgen, gibt das Unternehmen nun erneut eine Erklärung für diese Entscheidung.

Bedenken hinsichtlich Datenschutz und Datensicherheit

Apples ursprüngliche Ankündigung des erweiterten Schutzes für Kinder (Expanded Protections for Children) hatte merklich Wellen geschlagen. Während eine neue Nachrichten-Schutzfunktion, die Kinder vor sexuell eindeutiger Bilder bewahren soll, noch relativ entspannt aufgenommen wurde, sorgte die CSAM-Erkennung für Diskussionen.

Das Unternehmen versuchte zunächst, einige Missverständnisse auszuräumen und die Nutzer zu beruhigen, indem man detaillierte Informationen, FAQs, Interviews mit Führungskräften und vieles mehr veröffentlichte. Trotz der Bemühungen von Apple blieb die Kontroverse bestehen. Apple fuhr schließlich mit der Einführung der Kommunikations-Sicherheitsfunktion für Nachrichten fort, die mit der Veröffentlichung von iOS 15.2 in ausgewählten Ländern in Betrieb genommen wurde. Die Einführung der CSAM-Erkennung wurde nach der Flut von Kritik zunächst verschoben und schließlich komplett abgesagt.

Während die Absage bei Datenschützer allgemein gut aufgenommen wurde, gab es jedoch Kinderschutzorganisationen, die ihre Enttäuschung ausgedrückt hatten. In dieser Woche teilte nun eine neue Kinderschutzgruppe namens Heat Initiative Apple mit, dass sie eine Kampagne organisiert, um das Unternehmen aufzufordern, Material über sexuellen Kindesmissbrauch in iCloud „zu erkennen, zu melden und zu entfernen“ und den Nutzern mehr Möglichkeiten zu bieten, CSAM an das Unternehmen zu melden.

Jetzt hat Apple laut Wired auf die Anfrage von Heat Initiative reagiert und die Gründe für den Verzicht auf die Entwicklung der iCloud-Scanfunktion für CSAM dargelegt. So will sich das Unternehmen stattdessen auf eine Reihe von Tools und Ressourcen für Nutzer konzentrieren, die unter dem Namen „Communication Safety Features“ bekannt sind. Dabei will Apple den Nutzern mehr Werkzeuge zur Verfügung stellen, um solche Inhalte an das Unternehmen zu melden.

In dem Schreiben erklärt Erik Neuenschwander, Apples Direktor für Datenschutz und Kindersicherheit, dass sich das Unternehmen weiterhin der Bekämpfung des CSAM-Materials verschrieben hat, jedoch zu dem Schluss gekommen sei, dass die Entwicklung eines CSAM-Scan-Mechanismus nicht unter Wahrung der Privatsphäre fortgesetzt werden könne.

„Das Scannen der privat gespeicherten iCloud-Daten jedes Nutzers würde neue Angriffspunkte für Datendiebe schaffen, die sie finden und ausnutzen könnten“, führt er aus. Neuenschwander erwähnt auch, dass dies möglicherweise zu unbeabsichtigten Folgen führen würde, wie Massenüberwachung und der Wunsch, andere verschlüsselte Nachrichtensysteme nach Inhaltstypen zu durchsuchen.

Den vollständigen Austausch zwischen der Heat Initiative und Apple könnt ihr bei Wired einsehen.

Kategorie: Apple

Tags:

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

iPhone 15 (Pro) bestellen

iPhone 15 (Pro) bei der Telekom
iPhone 15 (Pro) bei Vodafone
iPhone 15 (Pro) bei o2

JETZT: iPhone 15 bestellen