Bericht: iPhone prüft angeblich bald Fotos auf Kindesmissbrauch

| 17:00 Uhr | 0 Kommentare

Berichten zufolge wird Apple neue Funktionen zur Identifizierung von illegalem Bildmaterial in Fotobibliotheken ankündigen. Das neue System soll im Kampf gegen Kindesmissbrauch und Kinderpornografie eingesetzt werden.

Hashing-System soll Fotos untersuchen

Der Sicherheitsexperte Matthew Green behauptet, dass Apple in Kürze Foto-Identifikationstools ankündigen wird, mit denen Bilder, die Kindesmissbrauch zeigen, in iOS-Fotobibliotheken erkannt werden können. Green erklärte in einem Tweet, dass er von mehreren Personen die unabhängige Bestätigung erhalten hat, dass Apple morgen ein client-seitiges Tool für CSAM-Scans veröffentlichen wird. Bislang gibt es keine offizielle Ankündigung, dass Apple an einem solchen Verfahren tatsächlich arbeitet.

Wie Green erklärt, könnte Apples System in Zukunft auf dem Client – dem Gerät des Nutzers – ablaufen. Das bedeutet jedoch nicht, das Apple eine direkte Einsicht in die Fotos hat. Stattdessen erklärt der Sicherheitsexperte, dass Apple Fingerprints/Hashes von illegalen Fotos nutzt, um diese dann auf dem iOS-Gerät mit den gespeicherten Fotos der Camera Roll zu vergleichen. Sollte das System eine Übereinstimmung feststellen, würde eine weitere Beurteilung durch einen Menschen erfolgen.

Bevor es an die lokal gespeicherten Bilder geht, soll der Algorithmus laut den Informationen auf solche Bilder angewendet werden, die ohne Ende-zu-Ende-Verschlüsselung in der Cloud gespeichert sind. Green erklärt:

„Apple wird bei der Einführung mit Fotos beginnen, die nicht E2E sind und die die Nutzer bereits in der Cloud gespeichert haben. Es „verletzt“ also nicht die Privatsphäre von irgendjemandem.

Aber man muss sich fragen, warum jemand ein solches System entwickeln würde, wenn das Scannen von E2E-Fotos nicht das Ziel wäre.“

Der Sicherheitsexperte warnt auch, dass die Auswirkungen einer solchen Einführung kompliziert sind. Hash-Algorithmen sind nicht narrensicher und können falsch-positive Ergebnisse liefern. Auch wenn außer Frage steht, dass mit Entschiedenheit gegen Kindesmissbrauch vorgegangen werden sollte, macht sich Green Sorgen, dass ein solches System ausgenutzt werden könnte, wenn beispielsweise eine autoritäre Regierung die Kontrolle über die Datenbank mit den Fingerabdrücken erhalten würde und sie für ihre Zwecke einsetzt.

Obwohl die Möglichkeit der Foto-Identifikationstools derzeit hitzig in den sozialen Medien diskutiert wird, ist das Thema im Grunde gar nicht so neu. Diverse Bilderdienste überprüfen die Inhalte schon länger auf entsprechend illegale Inhalte. Auch Apple gibt bereits seit mindestens 2019 in seiner Datenschutzrichtlinie an, dass „eine Überprüfung hochgeladener Inhalte auf potenziell illegale Inhalte, einschließlich Materials zur sexuellen Ausbeutung von Kindern“, erfolgen kann. Die noch nicht bestätigte Aussicht auf einen lokalen Hash-Vergleich hat das Thema jedoch nun wieder angeheizt.

Kategorie: iPhone

Tags: ,

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert