Apples Senior Vice President of Software Engineering, Craig Federighi, hat in einem ausführlichen Interview mit dem Wall Street Journal die umstrittenen geplanten Kinderschutzfunktionen des Unternehmens verteidigt. Dabei gibt es weitere Details zu der Scan-Funktion, die iCloud-Fotobibliotheken auf kinderpornografische Inhalte (CSAM) untersuchen soll.
Fotocredit: Apple
Federighi
Für kurzem hat Apple die Beta 5 zu macOS Monterey für Entwickler zum Download bereit gestellt. Neue Funktionen wurden in dieser Beta augenscheinlich nicht implementiert, dafür zeigt sich, dass Apple an aktualisierten Icons für iWork arbeitet. Die Icons werden unter anderem für das Zusammenspiel mit anderen Apps (z.B. für Links in iMessage) verwendet.
macOS Monterey Beta 5 enth
macOS Monterey Beta 5 ist da. Nachdem Apple bereits am Montag Abend die Beta 5 zu iOS 15, iPadOS 15 und tvOS 15 veröffentlicht hatte, geht es am heutigen Abend mit einer neuen Beta für den Mac weiter. Auch die Beta 5 zu watchOS 8 steht ab sofort als Download bereit.
Beta 5 ist da: macOS Monterey
Anfang Juni vorgestellt, befindet sich macOS Monterey derzeit mitten in den Beta-P
Letzte Woche stellte Apple neue Kindersicherheitsfunktionen vor, die im Laufe des Jahres mit Software-Updates für das iPhone, iPad und den Mac eingeführt werden sollen. Zunächst ist ein Release in den USA geplant, weitere Länder können laut Apple folgen. Neben Lob für Apples Fokus auf den Kinderschutz gab es auch Kritik an der Ausführung. Insbesondere eine neue Scan-Funktion, d
Letzte Woche kündigte Apple neue Funktionen für iOS 15, iPadOS 15 und macOS Monterey an, die auf die Sicherheit von Kindern zugeschnitten sind. Hierbei handelt es sich um eine Reihe von Funktionen, die Kinder vor sexuell eindeutigen Bildern bewahren und eine Verbreitung von Material über sexuellen Kindesmissbrauch (CSAM, Child Sexual Abuse Material) eindämmen sollen. Auch wenn
Apples Ankündigung des erweiterten Schutzes für Kinder (Expanded Protections for Children) hat merklich Wellen geschlagen. Dabei handelt es sich um eine Reihe von Funktionen, die Kinder vor sexuell eindeutigen Bildern bewahren und eine Verbreitung von Material über sexuellen Kindesmissbrauch (CSAM, Child Sexual Abuse Material) eindämmen sollen. Während einige glauben, dass die
Seit Apple die neuen Schutzfunktionen für die Sicherheit von Kindern vorgestellt hat, gehen die Meinungen auseinander. Während einige glauben, dass die zunächst in den USA eingeführte Schutzmaßnahme eine großartige Sache ist, um Kinder zu schützen, haben andere Datenschutzbedenken. Nun geht Apple mit einem neuen FAQ-Dokument auf die Bedenken ein und erklärt dabei die technische
Apple hat diese Woche eine neue Initiative vorgestellt, die dem Schutz von Kindern dienen soll. Die Initiative „Expanded Protections for Children“ (Erweiterter Schutz für Kinder) besteht aus mehreren Elementen, die jeweils in die wichtigsten Apple-Plattformen integriert werden. Hierbei sorgte eine neue Funktion, die iCloud-Fotobibliotheken auf kinderpornografische I
Gestern hat Apple neue Schutzmaßnahmen für die Sicherheit von Kindern für iOS, iPadOS und macOS angekündigt. Unter anderem wird die Nachrichten-App Kinder vor sexuell anstößigen Fotos schützen. Weiterhin wird es eine auf den Datenschutz bedachte Scan-Funktion geben, die iCloud-Fotos auf kinderpornografische Inhalte untersucht. Nun stellt Apple klar, wann die Schutzfunktionen in
Apple veröffentlichte heute eine Vorschau auf neue Kinder-Schutzfunktionen, die im Laufe des Jahres mit Software-Updates auf iOS 15, iPadOS 15 und macOS Monterey kommen werden. Das Unternehmen teilte mit, dass die Funktionen zunächst nur in den USA verfügbar sein werden und im Laufe der Zeit auf andere Regionen ausgeweitet werden.
Fotocredit: Apple
Sicherheit in der Kommunikati