ARKit als Basis: Analyst stellt AR-Brille von Apple in Aussicht

| 14:44 Uhr | 1 Kommentar

Anfang des Monats hatte Apple auf der WWDC die ARKit-Entwicklerumgebung für die Erstellung von Augmented Reality-Anwendungen vorgestellt. Nun meldet sich der UBS-Analyst Steven Milunovich zu Wort und stellt eine AR-Brille von Apple in Aussicht.

Microsofts HoloLens

iGlass

Dass Apple etwas Großes mit der erweiterten Realität plant, wissen wir bereits aus der iPhone 8 Gerüchteküche. So soll das Jubiläums-iPhone Sensoren besitzen, die speziell für AR-Anwendungen entworfen wurden. Das ARKit, welches für alle iOS 11 Geräte mit A9 Chip fortschrittliche AR-Apps ermöglichen soll, war der nächste Hinweis auf Apples AR-Ambitionen.

Wie CNBC berichtet, hat Analyst Steven Milunovich bereits den nächsten Schritt von Apple auf dem Radar. So klärte er in einem Schreiben die Investoren über die Möglichkeit eines „iGlass“-Produkts auf.

Eine spezielle Brille würde, wie Microsofts HoloLens, die AR-Welt erweitern und somit neue Anwendungen ermöglichen. Wir erinnern uns, die HoloLens wirft Video-Streams auf Wände, lässt 3D-Modelle in der Luft schweben und hebt Spielwelten aus dem Boden. All dies ist vom Nutzer beeinflussbar. Ganz so groß, wie die Vorabversion von Microsofts HoloLens in unserem Artikelbild, wird Apples Lösung aller Voraussicht jedoch nicht werden.

Es ist nicht das erste Mal, dass wir von einer smarten Brille von Apple hören. So erzählte, kurz vor der diesjährigen WWDC, ein angeblicher Foxconn-Insider von einer Apple-Brille, die zusätzliche Informationen anzeigen soll.

„Made With ARKit“

Weniger spekulativ und dafür mehr handfest, ist die neue Webseite und der Twitter-Account „Made With ARKit“. Hier findet ihr Kurzvideos von Entwicklern, die mit Apples neuer Entwicklerumgebung arbeiten. So bekommen wir beispielsweise in einem Video von Entwickler Mark Dawson eine virtuelle Tour durch Vincent van Goghs Schlafzimmer geboten.

 

Kategorie: iPhone

Tags: ,

1 Kommentare

  • Robert

    Habe die Hololens getestet – kann man voll vergessen denn das Gesichtsfeld ist viel zu klein. Eine herbe Enttäuschung. Wenn z.B. eine Person ca. 3 m vor einem steht (Demo) dann muss sieht man max. den Kopf und die halbe Brust auf einmal.

    Was man sieht ist ok, Auflösung solala, aber Objekt ist stabil im Raum. Ich sage: nochmals zurück an den Start – + 5 Jahre, dann sehen wir weiter.

    Der Ansatz von Google Glas war damals bereits besser. Ich finde es auch besser wenn mir ein Display eingeblendet wird das mit jeder Kopfbewegung mit geht – da sehe ich viel mehr nutzen. Also das AR Gerät als reines Display, berechnet wird als im Smartphone.

    bin gespannt was Apple bringen wird

    21. Jun 2017 | 15:44 Uhr | Kommentieren

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.