Vergangenen Monat kündigte Apple die Einführung neuer Schutzmaßnahmen für die Sicherheit von Kindern an. Unter anderem sah es Apples Plan vor, lokal auf dem iPhone nach kinderpornografischen Inhalten (Child Sexual Abuse Material, CSAM) zu suchen. Nun hat Apple bestätigt, dass man diese Neuerungen zunächst einmal verschiebt.
Apple verschiebt Einführung des lokalen Scans auf Kinderpornografie
Kurz nach der Ankündigung der neuen Schutzmaßnahmen für die Sicherheit von Kindern sah sich Apple massiver Kritik ausgesetzt. Sowohl Bürgerrechtler, Politiker, Wissenschafter etc. gaben ihre Bedenken zu Protokoll und forderten die Verantwortlichen in Cupertino auf, die Einführung zu überdenken.
Nun hat Apple verschiedenen US-Medien gegenüber bestätigt, dass man die Einführung des CSAM-Scans vorübergehend auf Eis legt. Ursprünglich war die Einführung in den USA mit der Freigabe von iOS 15 geplant. Apple formuliert in einem Statement wie folgt
Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Personen zu schützen, die Kommunikationsmittel verwenden, um sie auszubeuten, und die Verbreitung von Material über sexuellen Missbrauch von Kindern zu begrenzen. Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten zusätzliche Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese kritisch wichtigen Funktionen zur Kindersicherheit veröffentlichen.
Der Schutz von Kindern ist in jedem Fall eine sehr wichtige Angelegenheit. In diesem konkreten hat Apple den öffentlichen Druck deutlich zu spüren gekommen und sich der Kritik angenommen. Es ist die richtige Entscheidung, die Einführung zu überdenken.
Sie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen
„Unter anderem sah es Apples Plan vor, lokal auf dem iPhone nach kinderpornografischen Inhalten (Child Sexual Abuse Material, CSAM) zu suchen“
Das ist gelogen, Apple hatte nichts derartiges vor.
„Nun hat Apple verschiedenen US-Medien gegenüber bestätigt, dass man die Einführung des CSAM-Scans vorübergehend auf Eis legt.“
Auch das ist gelogen, Apple hatte nie vor „CSAM-Scans“ einzuführen und kann aus diesem Grund auch nichts derartiges „auf Eis legen“.
Irgendwie schaffen es die Medienschreiberlinge offensichtlich nicht, das Märchen vom CSAM-Scan endlich zu begraben und die Fakten korrekt zu benennen. Möglicherweise sind ihnen die Klicks einfach zu wichtig. Das ist bedauerlich.
Ich habe mir die zugehörige Apple-Webseite https://www.apple.com/child-safety/ gerade mal angeguckt. Dort ist die Rede von „Messages uses on-device machine learning“ sowie „an on-device matching process“ und somit von einem lokalen Scan, oder?
Nope. Es werden keine lokalen Inhalte gescannt, sondern es findet ein Abgleich lokaler Bilder mit einer Datenbank auf Hashbasis statt. Aber nur, wenn diese Bilder in die Cloud geladen werden. Ohne Upload kein Abgleich. Was iMessage betrifft, dort erfolgt die Bilderkennung per KI. Entweder beim Down- oder Upload und ausschließlich bei Accounts mit einer Kindersicherung.
Lokal auf dem iPhone scannen, jaja…. lol, wo habt ihr das her? Quellenangabe bitte, meines Wissens erfolgt der Vergleich von Haswerten in der iCloud – aber nicht auf dem Handy! Quelle bitte!
Guck mal hier https://www.apple.com/child-safety/ Dort ist mehrfach die Rede von „on-device“. Oder habe ich einen Denkfehler?
Nein, hast Du nicht. Entweder handelt es sich bei Schmendrick und Bananarama um irgendwelche Bots, oder sie haben die letzten Monate in irgendeiner Amish Gemeinde gelebt und wissen deshalb nichts von der geplanten OnDevice Scanfunktion.
Du solltest dich besser DummheitDieBegeistert nennen, denn du hast offensichtlich keinen blassen Schimmer vom Thema. Deshalb glaubst du wahrscheinlich auch, dass das wilde projizieren eigener Unzulänglichkeiten auf andere, hier funktionieren könnte. Putzig.
Es gibt da einen sehr schönen Bericht von Edward Snowden über die Funktion, ihre Auswirkungen, den Ablauf und was wirklich dahinter steckt.
Ja klar, Putins Toy Boy weiß echt Bescheid. LOL
Du labberst nur Blödsinn ohne irgendetwas davon mit Quellenangaben belegen zu können…… Bla, bla, bla… Geh und leg dich einfach wieder unter den Stein unter dem du vorhin gelegen hast.