Erkennung von CSAM: Apple entfernt Ankündigung der Funktion

| 18:22 Uhr | 0 Kommentare

Im August kündigte Apple die Einführung neuer Kinder-Schutzmaßnahmen für iOS 15, iPadOS 15 und macOS Monterey an. Für Diskussionen sorgte eine Funktion, die CSAM (Child Sexual Abuse Material) ausfindig machen sollte. Hierbei wäre ein Abgleich lokaler Bilder mit einer Datenbank auf Hashbasis erfolgt, falls die Bilder in die Cloud geladen werden. Nachdem Apple vor kurzem angekündigt hatte, seine CSAM-Algorithmuspläne zu verschieben, sieht es nun danach aus, dass das Unternehmen die Funktion weiter auf Eis legen will.

Apple entfernt Ankündigung

Wie MacRumors berichtet, hat Apple alle Erwähnungen von CSAM von seiner Webseite für Kindersicherheit entfernt, was darauf hindeutet, dass der Plan, Bilder von sexuellem Kindesmissbrauch auf iPhones und iPads zu erkennen, nach erheblicher Kritik an seinen Methoden in der Schwebe hängen könnte.

Apples Ankündigung des erweiterten Schutzes für Kinder (Expanded Protections for Children) hatte merklich Wellen geschlagen. Während eine neue Nachrichten-Schutzfunktion, die Kinder vor sexuell eindeutiger Bilder bewahren soll, noch relativ entspannt aufgenommen wurde, sorgte die beschriebene CSAM-Erkennung für Diskussionen.

Apple versuchte zunächst, einige Missverständnisse auszuräumen und die Nutzer zu beruhigen, indem das Unternehmen detaillierte Informationen, FAQs, verschiedene neue Dokumente, Interviews mit Führungskräften und vieles mehr veröffentlichte, um die Bedenken zu zerstreuen.

Trotz der Bemühungen von Apple blieb die Kontroverse bestehen. Apple fuhr schließlich mit der Einführung der Kommunikations-Sicherheitsfunktion für Nachrichten fort, die Anfang dieser Woche mit der Veröffentlichung von iOS 15.2 in Betrieb genommen wurde. Apple entschied sich jedoch, die Einführung der CSAM-Erkennung nach der Flut von Kritik zu verschieben, mit der das Unternehmen offensichtlich nicht gerechnet hatte.

Apple sagte, die Entscheidung zur Verzögerung basiere „auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen.“ Das Unternehmen wolle sich „in den kommenden Monaten mehr Zeit nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen“, bevor die Kindersicherheitsfunktionen veröffentlicht werden.

Die obige Aussage stammte von der Kindersicherheitsseite von Apple, aber sie ist jetzt verschwunden, zusammen mit allen Erwähnungen von CSAM, was die Möglichkeit aufwirft, dass Apple den Plan ganz aufgegeben haben könnte.

Kategorie: Apple

Tags: , , ,

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert