Apples CSAM-Erkennung für iCloud-Fotos wird nicht erscheinen

| 23:30 Uhr | 0 Kommentare

Apple hat heute nicht nur eine Ende-zu-Ende-Verschlüsselung für iCloud-Fotos, Notizen und Backups angekündigt, sondern auch seine umstrittenen Pläne zur Erkennung von CSAM (Child Sexual Abuse Material) in iCloud-Fotos aufgegeben.

CSAM-Erkennung für iCloud-Fotos wird nicht mehr kommen

Im August 2021 kündigte Apple die Einführung neuer Kinder-Schutzmaßnahmen für iOS 15, iPadOS 15 und macOS Monterey an. Für Diskussionen sorgte eine Funktion, die Bilder von sexuellem Kindesmissbrauch (CSAM) ausfindig machen sollte. Hierbei wäre ein Abgleich lokaler Bilder mit einer Datenbank auf Hashbasis erfolgt, falls die Bilder in die Cloud geladen werden. Nachdem Apple angekündigt hatte, seine CSAM-Algorithmuspläne zu verschieben, wird die Funktion nun komplett abgesagt.

Apples ursprüngliche Ankündigung des erweiterten Schutzes für Kinder (Expanded Protections for Children) hatte merklich Wellen geschlagen. Während eine neue Nachrichten-Schutzfunktion, die Kinder vor sexuell eindeutiger Bilder bewahren soll, noch relativ entspannt aufgenommen wurde, sorgte die beschriebene CSAM-Erkennung für Diskussionen.

Apple versuchte zunächst, einige Missverständnisse auszuräumen und die Nutzer zu beruhigen, indem das Unternehmen detaillierte Informationen, FAQs, Interviews mit Führungskräften und vieles mehr veröffentlichte. Trotz der Bemühungen von Apple blieb die Kontroverse bestehen. Apple fuhr schließlich mit der Einführung der Kommunikations-Sicherheitsfunktion für Nachrichten fort, die mit der Veröffentlichung von iOS 15.2 in ausgewählten Ländern in Betrieb genommen wurde. Die Einführung der CSAM-Erkennung wurde nach der Flut von Kritik, wie bereits erwähnt, verschoben.

Apple sagte damals, die Entscheidung zur Verzögerung basiere „auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen.“ Das Unternehmen wolle sich „in den kommenden Monaten mehr Zeit nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen“, bevor die Kindersicherheitsfunktionen veröffentlicht werden. Die Aussage stammte von der Kindersicherheitsseite von Apple, aber sie ist mittlerweile verschwunden, genauso wie das Vorhaben, die Funktion einzuführen.

Hier die Erklärung von Apple (via Wired):

„Nach ausführlichen Konsultationen mit Experten, um Feedback zu den von uns im letzten Jahr vorgeschlagenen Initiativen zum Schutz von Kindern einzuholen, vertiefen wir unsere Investitionen in die Kommunikations-Sicherheitsfunktion, die wir erstmals im Dezember 2021 zur Verfügung gestellt haben. Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud-Fotos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchsuchen. Wir werden weiterhin mit Regierungen, Kinderschützern und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet für Kinder und uns alle sicherer zu machen.“

Apple will das Problem an der Wurzel packen – bei der Erstellung und Verbreitung. Das Unternehmen hofft, die Nutzer aufklären zu können und zu verhindern, dass die Inhalte überhaupt erst erstellt und versendet werden.

Kategorie: Apple

Tags: ,

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert