Apple verschiebt Einführung des lokalen Scans auf Kinderpornografie

| 17:05 Uhr | 10 Kommentare

Vergangenen Monat kündigte Apple die Einführung neuer Schutzmaßnahmen für die Sicherheit von Kindern an. Unter anderem sah es Apples Plan vor, lokal auf dem iPhone nach kinderpornografischen Inhalten (Child Sexual Abuse Material, CSAM) zu suchen. Nun hat Apple bestätigt, dass man diese Neuerungen zunächst einmal verschiebt.

Fotocredit: Apple

Apple verschiebt Einführung des lokalen Scans auf Kinderpornografie

Kurz nach der Ankündigung der neuen Schutzmaßnahmen für die Sicherheit von Kindern sah sich Apple massiver Kritik ausgesetzt. Sowohl Bürgerrechtler, Politiker, Wissenschafter etc. gaben ihre Bedenken zu Protokoll und forderten die Verantwortlichen in Cupertino auf, die Einführung zu überdenken.

Nun hat Apple verschiedenen US-Medien gegenüber bestätigt, dass man die Einführung des CSAM-Scans vorübergehend auf Eis legt. Ursprünglich war die Einführung in den USA mit der Freigabe von iOS 15 geplant. Apple formuliert in einem Statement wie folgt

Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Personen zu schützen, die Kommunikationsmittel verwenden, um sie auszubeuten, und die Verbreitung von Material über sexuellen Missbrauch von Kindern zu begrenzen. Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten zusätzliche Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese kritisch wichtigen Funktionen zur Kindersicherheit veröffentlichen.

Der Schutz von Kindern ist in jedem Fall eine sehr wichtige Angelegenheit. In diesem konkreten hat Apple den öffentlichen Druck deutlich zu spüren gekommen und sich der Kritik angenommen. Es ist die richtige Entscheidung, die Einführung zu überdenken.

Kategorie: Apple

Tags:

10 Kommentare

  • Bananarama

    „Unter anderem sah es Apples Plan vor, lokal auf dem iPhone nach kinderpornografischen Inhalten (Child Sexual Abuse Material, CSAM) zu suchen“
    Das ist gelogen, Apple hatte nichts derartiges vor.
    „Nun hat Apple verschiedenen US-Medien gegenüber bestätigt, dass man die Einführung des CSAM-Scans vorübergehend auf Eis legt.“
    Auch das ist gelogen, Apple hatte nie vor „CSAM-Scans“ einzuführen und kann aus diesem Grund auch nichts derartiges „auf Eis legen“.
    Irgendwie schaffen es die Medienschreiberlinge offensichtlich nicht, das Märchen vom CSAM-Scan endlich zu begraben und die Fakten korrekt zu benennen. Möglicherweise sind ihnen die Klicks einfach zu wichtig. Das ist bedauerlich.

    03. Sep 2021 | 19:00 Uhr | Kommentieren
    • Sven77

      Ich habe mir die zugehörige Apple-Webseite https://www.apple.com/child-safety/ gerade mal angeguckt. Dort ist die Rede von „Messages uses on-device machine learning“ sowie „an on-device matching process“ und somit von einem lokalen Scan, oder?

      03. Sep 2021 | 20:50 Uhr | Kommentieren
      • Bananarama

        Nope. Es werden keine lokalen Inhalte gescannt, sondern es findet ein Abgleich lokaler Bilder mit einer Datenbank auf Hashbasis statt. Aber nur, wenn diese Bilder in die Cloud geladen werden. Ohne Upload kein Abgleich. Was iMessage betrifft, dort erfolgt die Bilderkennung per KI. Entweder beim Down- oder Upload und ausschließlich bei Accounts mit einer Kindersicherung.

        04. Sep 2021 | 18:27 Uhr | Kommentieren
  • Schmendrick89

    Lokal auf dem iPhone scannen, jaja…. lol, wo habt ihr das her? Quellenangabe bitte, meines Wissens erfolgt der Vergleich von Haswerten in der iCloud – aber nicht auf dem Handy! Quelle bitte!

    03. Sep 2021 | 20:04 Uhr | Kommentieren
    • Sven77

      Guck mal hier https://www.apple.com/child-safety/ Dort ist mehrfach die Rede von „on-device“. Oder habe ich einen Denkfehler?

      03. Sep 2021 | 20:51 Uhr | Kommentieren
      • TechnikDieBegeistert

        Nein, hast Du nicht. Entweder handelt es sich bei Schmendrick und Bananarama um irgendwelche Bots, oder sie haben die letzten Monate in irgendeiner Amish Gemeinde gelebt und wissen deshalb nichts von der geplanten OnDevice Scanfunktion.

        03. Sep 2021 | 22:03 Uhr | Kommentieren
        • Bananarama

          Du solltest dich besser DummheitDieBegeistert nennen, denn du hast offensichtlich keinen blassen Schimmer vom Thema. Deshalb glaubst du wahrscheinlich auch, dass das wilde projizieren eigener Unzulänglichkeiten auf andere, hier funktionieren könnte. Putzig.

          04. Sep 2021 | 18:32 Uhr | Kommentieren
  • Matze

    Es gibt da einen sehr schönen Bericht von Edward Snowden über die Funktion, ihre Auswirkungen, den Ablauf und was wirklich dahinter steckt.

    03. Sep 2021 | 21:26 Uhr | Kommentieren
    • Bananarama

      Ja klar, Putins Toy Boy weiß echt Bescheid. LOL

      04. Sep 2021 | 18:33 Uhr | Kommentieren
      • Rexona Kytta

        Du labberst nur Blödsinn ohne irgendetwas davon mit Quellenangaben belegen zu können…… Bla, bla, bla… Geh und leg dich einfach wieder unter den Stein unter dem du vorhin gelegen hast.

        25. Aug 2022 | 15:48 Uhr | Kommentieren

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert