Video erklärt neue iOS 13 FaceTime Funktion „Augenkorrektur“

| 17:45 Uhr | 0 Kommentare

Nachdem wir euch gerade erst mit der „FaceTime Attention Correction“ eine pfiffige Idee vorgestellt haben, die dafür sorgt, dass euer Gesprächspartner bei FaceTime direkt in die Kamera blickt, erklärt nun MacRumors wie das Feature funktioniert.

Augenkorrektur in FaceTime

In der dritten iOS 13 Entwickler-Beta hat Apple eine Funktion freigeschaltet, die sich „FaceTime Attention Correction“ nennt. Das System korrigiert während eines Video-Anrufs mit FaceTime die Augenposition. Das hilft nicht etwa bei einer Fehlstellung der Augen, sondern kümmert sich um die Tatsache, dass man schnell verführt ist, auf dem Bildschirm zu schauen, anstatt in die Kamera. Mit der neuen Funktion wird in iOS 13 dieses Problem behoben. Hier wird das Bild der Augen angepasst, so dass es den Anschein macht, dass jede Person genau in die Kamera blickt.

Doch wie funktioniert das Ganze? Mit Hilfe der Tiefendaten der True-Depth-Kamera und Apples ARKit wird das Gesicht eines Benutzers abgebildet und die Augen erfasst. Die Position der Augen wird dann in Echtzeit leicht versetzt, so dass es den Anschein macht, dass der Blick gerade in die Kamera gerichtet ist. Den Effekt kann man gut beobachten, wenn man die Augen teilweise verdeckt, was das Video von MacRumors ab Minute 2:30 gut veranschaulicht.

Die „Augenkorrektur“ ist für das iPhone XS, iPhone XS Max, iPhone XR und das 2018er iPad Pro verfügbar. Vorausgesetzt ihr nutzt die dritte Entwickler-Beta von iOS 13. Die neue Funktion kann in den Einstellungen im Abschnitt „FaceTime“ aktiviert werden.

Kategorie: Apple

Tags:

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.