iPhone 13 (Pro): Apple spricht über die Entwicklung des neuen Kamera-Systems [Video]

| 17:45 Uhr | 0 Kommentare

Mit der Einführung des iPhone 13 mini, iPhone 13, iPhone 13 Pro und iPhone 13 Pro Max hat Apple mehrere neue Kamerafunktionen eingeführt und die Qualität erneut steigern können. In einem Interview geben nun einige Apple VPs einen ausführlichen Einblick in die Entwicklung des neuen Kamera-Systems.

Fotocredit: Apple

Das Design von iPhone-Kameras

Mit komplett neuen Sensoren und Objektiven, einem verbesserten A15 Bionic Chip und einem neuen Bildsignalprozessor bietet das iPhone 13 Kamera-Fortschritte wie Makrofotografie/Videografie, Kinomodus, Fotostile, 3fach-Telezoom, bessere Leistung bei schlechten Lichtverhältnissen und vieles mehr. Im Stalman Podcast erklären Kaiann Drance, VP of Worldwide iPhone Product Marketing, zusammen mit VP of Camera Software Engineering Jon McCormack und VP of Camera Hardware Engineering Graham Townsend, wie Apple diese Verbesserungen umsetzen konnte.

Zu Beginn des halbstündigen Video-Podcasts spricht Townsend über die Vorteile, die Apple bei der Entwicklung seiner Kamera-Hardware hat, einschließlich der Tatsache, dass das Hardware-Team bereits in einer frühen Designphase eng mit seinen Software-Kollegen zusammenarbeitet. Wie Townsend erklärt, werden das Objektiv, der Sensor und andere Hardware „speziell entwickelt, um die Firmware und die Softwareverarbeitung“ des Geräts zu ergänzen.

Die Hardware-Verbesserungen glänzen erst richtig in Kombination mit der abgestimmten Software. McCormack zufolge hat das maschinelle Lernen beträchtliche Fortschritte gemacht, vor allem durch die hohe Rechenleistung, die der A15 jetzt bietet. McCormack erklärt:

„Das spricht wirklich für die Rechenleistung des iPhones, und tatsächlich haben wir jetzt so viel Rechenleistung, dass wir die gleichen computergestützten Fototechniken auch in der Videowelt einsetzen können, um computergestützte Videografie zu ermöglichen. […] Wirklich, wir wenden jetzt all die gleiche Magie des maschinellen Lernens, die wir bei Fotos gelernt haben, auf Videos an. Das iPhone kann nun jedes Bild in Echtzeit zerlegen, wir verarbeiten den Himmel, die Haut und das Laub einzeln.“

Hier gibt es den kompletten Video-Podcast:

Sie sehen gerade einen Platzhalterinhalt von Youtube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Kategorie: iPhone

Tags:

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert