Berichten zufolge wird Apple neue Funktionen zur Identifizierung von illegalem Bildmaterial in Fotobibliotheken ankündigen. Das neue System soll im Kampf gegen Kindesmissbrauch und Kinderpornografie eingesetzt werden.
Hashing-System soll Fotos untersuchen
Der Sicherheitsexperte Matthew Green behauptet, dass Apple in Kürze Foto-Identifikationstools ankündigen wird, mit denen Bilder, die Kindesmissbrauch zeigen, in iOS-Fotobibliotheken erkannt werden können. Green erklärte in einem Tweet, dass er von mehreren Personen die unabhängige Bestätigung erhalten hat, dass Apple morgen ein client-seitiges Tool für CSAM-Scans veröffentlichen wird. Bislang gibt es keine offizielle Ankündigung, dass Apple an einem solchen Verfahren tatsächlich arbeitet.
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Wie Green erklärt, könnte Apples System in Zukunft auf dem Client – dem Gerät des Nutzers – ablaufen. Das bedeutet jedoch nicht, das Apple eine direkte Einsicht in die Fotos hat. Stattdessen erklärt der Sicherheitsexperte, dass Apple Fingerprints/Hashes von illegalen Fotos nutzt, um diese dann auf dem iOS-Gerät mit den gespeicherten Fotos der Camera Roll zu vergleichen. Sollte das System eine Übereinstimmung feststellen, würde eine weitere Beurteilung durch einen Menschen erfolgen.
Bevor es an die lokal gespeicherten Bilder geht, soll der Algorithmus laut den Informationen auf solche Bilder angewendet werden, die ohne Ende-zu-Ende-Verschlüsselung in der Cloud gespeichert sind. Green erklärt:
„Apple wird bei der Einführung mit Fotos beginnen, die nicht E2E sind und die die Nutzer bereits in der Cloud gespeichert haben. Es „verletzt“ also nicht die Privatsphäre von irgendjemandem.
Aber man muss sich fragen, warum jemand ein solches System entwickeln würde, wenn das Scannen von E2E-Fotos nicht das Ziel wäre.“
The way Apple is doing this launch, they’re going to start with non-E2E photos that people have already shared with the cloud. So it doesn’t “hurt” anyone’s privacy.
But you have to ask why anyone would develop a system like this if scanning E2E photos wasn’t the goal.
— Matthew Green (@matthew_d_green) August 5, 2021
Der Sicherheitsexperte warnt auch, dass die Auswirkungen einer solchen Einführung kompliziert sind. Hash-Algorithmen sind nicht narrensicher und können falsch-positive Ergebnisse liefern. Auch wenn außer Frage steht, dass mit Entschiedenheit gegen Kindesmissbrauch vorgegangen werden sollte, macht sich Green Sorgen, dass ein solches System ausgenutzt werden könnte, wenn beispielsweise eine autoritäre Regierung die Kontrolle über die Datenbank mit den Fingerabdrücken erhalten würde und sie für ihre Zwecke einsetzt.
Obwohl die Möglichkeit der Foto-Identifikationstools derzeit hitzig in den sozialen Medien diskutiert wird, ist das Thema im Grunde gar nicht so neu. Diverse Bilderdienste überprüfen die Inhalte schon länger auf entsprechend illegale Inhalte. Auch Apple gibt bereits seit mindestens 2019 in seiner Datenschutzrichtlinie an, dass „eine Überprüfung hochgeladener Inhalte auf potenziell illegale Inhalte, einschließlich Materials zur sexuellen Ausbeutung von Kindern“, erfolgen kann. Die noch nicht bestätigte Aussicht auf einen lokalen Hash-Vergleich hat das Thema jedoch nun wieder angeheizt.
Sie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen
0 Kommentare