Apples Software-Chef Craig Federighi spricht über die neuen Kindersicherheits-Tools

| 18:33 Uhr | 0 Kommentare

Apples Senior Vice President of Software Engineering, Craig Federighi, hat in einem ausführlichen Interview mit dem Wall Street Journal die umstrittenen geplanten Kinderschutzfunktionen des Unternehmens verteidigt. Dabei gibt es weitere Details zu der Scan-Funktion, die iCloud-Fotobibliotheken auf kinderpornografische Inhalte (CSAM) untersuchen soll.

Fotocredit: Apple

Federighi versteht Verwirrung rund um die neuen Kindersicherheitsfunktionen

Letzte Woche stellte Apple neue Kindersicherheitsfunktionen vor, die im Laufe des Jahres mit Software-Updates für das iPhone, iPad und den Mac eingeführt werden sollen. Zunächst ist ein Release in den USA geplant, weitere Länder können laut Apple folgen. Neben Lob für Apples Fokus auf den Kinderschutz gab es auch Kritik an der Ausführung. Unter anderem sorgte Apples Präsentation der neuen Funktionen für Verwirrung unter den Nutzern.

Federighi räumte in dem Interview ein, dass Apple die Ankündigung der beiden neuen Funktionen in der vergangenen Woche schlecht gehandhabt hat und zeigte Verständnis, dass es im Zusammenhang mit den neuen Schutzfunktionen große Verwirrung gegeben habe. Federighi erklärte mit Bezug auf die neue Kommunikations-Sicherheitsfunktion und den iCloud-Fotos-Scan:

„Es ist wirklich klar, dass viele Botschaften ziemlich durcheinander geraten sind, was das Verständnis der Dinge angeht. Wir hätten uns gewünscht, dass das für alle etwas klarer herausgekommen wäre, weil wir sehr positiv und überzeugt von dem sind, was wir tun.

[…]

Im Nachhinein betrachtet, war die gleichzeitige Einführung dieser beiden Funktionen ein Garant für diese Art von Verwirrung. Dadurch, dass sie gleichzeitig veröffentlicht wurden, haben die Leute sie technisch miteinander verbunden und waren sehr verängstigt: Was passiert mit meinen Nachrichten? Die Antwort ist, dass mit Ihren Nachrichten nichts passiert.“

Zur Übersicht haben wir hier eine kurze Zusammenfassung der neuen Sicherheitsfunktionen, über die wir bereits berichtet haben:

„Erstens kann eine optionale Kommunikations-Sicherheitsfunktion in der Nachrichten-App auf iPhone, iPad und Mac Kinder und ihre Eltern warnen, wenn sie sexuell eindeutige Fotos empfangen oder senden. Wenn die Funktion aktiviert ist, wird die Nachrichten-App laut Apple maschinelles Lernen auf dem Gerät verwenden, um Bildanhänge zu analysieren. Wenn ein Foto als sexuell explizit eingestuft wird, wird das Foto automatisch unscharf dargestellt. Zudem wird das Kind und gegebenenfalls die Eltern gewarnt.

Zweitens wird Apple iCloud-Fotobibliotheken auf kinderpornografische Inhalte (CSAM, Child Sexual Abuse Material) untersuchen. Zur Erkennung wird ein Hash-Abgleich mit einer Datenbank bekannter CSAM-Bilder durchgeführt. Die Hash-Technologie analysiert ein Bild und wandelt es in eine eindeutige Nummer um, die für dieses Bild spezifisch ist. Die Werte werden anschließend mit der Datenbank verglichen. So lassen sich die gesuchten Bilder erkennen, ohne dass sie auf spezielle Merkmale untersucht werden müssen. Der Abgleich erfolgt direkt auf dem iPhone und nicht auf den iCloud-Servern.

Drittens wird Apple die Hinweise in Siri und der Spotlight-Suche geräteübergreifend erweitern und zusätzliche Ressourcen bereitstellen, die Kindern und Eltern dabei helfen, sicher im Internet zu bleiben und Hilfe in unsicheren Situationen zu erhalten. So werden Nutzer, die Siri fragen, wie sie CSAM oder die Ausbeutung von Kindern melden können, auf Ressourcen verwiesen, die ihnen zeigen, wo und wie sie eine Meldung machen können.“

Federighi enthüllte auch eine Reihe neuer Details zu den Sicherheitsvorkehrungen des Systems, wie z.B. die Tatsache, dass ein Nutzer etwa 30 Übereinstimmungen mit CSAM-Inhalten in seiner iCloud-Fotomediathek finden muss, bevor Apple alarmiert wird:

„Nur wenn Sie einen Schwellenwert in der Größenordnung von 30 bekannten kinderpornografischen Bildern erreichen, weiß Apple etwas über Ihr Konto und über diese Bilder, und zu diesem Zeitpunkt weiß Apple nur über diese Bilder Bescheid, nicht über Ihre anderen Bilder. Hier geht es nicht um eine Analyse, ob Sie ein Bild von Ihrem Kind in der Badewanne haben. Oder hatten Sie ein Bild von irgendeiner anderen Art von Pornografie? Hier geht es buchstäblich nur um die exakten Fingerabdrücke bestimmter bekannter kinderpornografischer Bilder.“

Sicherheitsvorkehrungen gegen Missbrauch des Systems

Auf die Frage, ob die Bilddatenbank, die zum Abgleich von CSAM-Inhalten auf den Geräten der Nutzer verwendet wird, durch das Einfügen anderer Materialien, wie z. B. politischer Inhalte in bestimmten Regionen, kompromittiert werden könnte, erklärte Federighi, dass die Datenbank aus bekannten CSAM-Bildern mehrerer Kinderschutzorganisationen aufgebaut ist, von denen mindestens zwei „in verschiedenen Gerichtsbarkeiten“ angesiedelt sind, um einen Missbrauch des Systems zu verhindern. Diese Kinderschutzorganisationen sowie ein unabhängiger Prüfer werden laut Federighi sicherstellen, dass die Bilddatenbank nur aus Inhalten dieser Einrichtungen besteht.

Einige der neuen Informationen, die Federighi mit dem Wall Street Journal geteilt hat, hat Apple auch in einem Support-Dokument festgehalten.

Kategorie: Apple

Tags: , , ,

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert