Apple Vice President spricht über den A14 Bionic Chip und die Neural Engine

| 21:25 Uhr | 0 Kommentare

Im iPad Air 4 steckt mit dem A14 Bionic der weltweit erste SoC (System-on-a-Chip), der in einem 5-Nanometer-Verfahren hergestellt wird. Dieser Chip wird die Basis für einige neue Produkte von Apple sein, allen voran das iPhone 12 und iPhone 12 Pro. Wie Apple bereits angekündigt hat, wird der neue Chip einen deutlichen Performance-Schub bieten. Erste Benchmarks sind hierbei sehr vielversprechend. Doch Apple hat nicht nur an der bloßen Geschwindigkeit der CPU und GPU geschraubt. Das Hardware-Team hat auch großen Wert auf die Neural Engine des A14 gelegt, die sich vor allem auf das maschinelle Lernen konzentriert.

Fotocredit: Apple

Die Neural Engine

Viele Jahre arbeiteten SoCs größtenteils mit einer Recheneinheit (CPU) und einer Grafikeinheit (GPU). Mit der zunehmenden Relevanz des maschinellen Lernens zog auch eine dritte Recheneinheit in die SoCs von Apple. So vertraut Apples A-Chip-Serie mittlerweile bestimmte Rechenoperationen einer neuronalen Recheneinheit – der Neural Engine – an.

Maschinelles Lernen ist ein Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung. Unser elektronischer Alltag ist mittlerweile voll von Anwendungen, die auf dem maschinellen Lernen basieren. Angefangen bei Siri, über anspruchsvolle Lernalgorithmen, bis hin zu innovativen Energiesparfunktionen, dreht sich bei Apple alles um maschinelles Lernen.

Das Unternehmen hat die eigene Entwicklung in dem Bereich des maschinellen Lernens intensiv vorangetrieben und große Fortschritte erzielt. Apples Vice President für Platform Architecture, Tim Millet, erklärt in einem Interview, was diese Entwicklung möglich macht und in Zukunft noch bewegen wird.

Wie Millet im Interview ausführt, ist der Auftakt des maschinellen Lernens auch der Auftakt einer weitreichenden Rechen-Revolution:

„Uns begeistert das Aufkommen des maschinellen Lernens und wie es eine völlig neue Klasse ermöglicht. Es verschlägt mir den Atem, wenn ich sehe, was Menschen mit dem A14 Bionic Chip anstellen können.“

Die Fortschritte sind beeindruckend: Die Neural Engine im A11-Chip konnte noch 600 Milliarden Rechenoperationen pro Sekunde verarbeiten. Beim A14 Bionic sind es bereits 11 Billionen Berechnungen pro Sekunde.

Das Ende der Fahnenstange ist jedoch noch nicht erreicht, wie Millet bestätigt. Deswegen hat sich Apple eine beeindruckende Roadmap aufgestellt. Das nächste Ziel sind die 3-Nanometer-Chips. Der A14 basiert auf einen 5-Nanometer-Fertigungsprozess. Sage und schreibe 11,8 Milliarden Transistoren finden auf dem Chip Platz, was rund 38 Prozent mehr als beim A13 sind. Je leistungsfähiger die Chips werden, desto aufwendiger können die Rechenoperationen der Neural Engine werden. Hierbei spielt noch ein entscheidender Faktor mit: die Software.

Software

Im Bereich der Software-Entwicklung ist kein Konzern so gut aufgestellt wie Apple, versichert Millet selbstbewusst:

„Wir arbeiten während der gesamten Entwicklung sehr eng mit unserem Software-Team zusammen, um sicherzustellen, dass wir nicht nur ein Stück Technik bauen, das für wenige nützlich ist. Wir wollten sicherstellen, dass Abertausende von iOS-Entwicklern etwas damit anfangen können.“

In der Tat hat Apple schon oft gezeigt, dass man hier ganz vorne mitspielt. Es gibt eine Reihe von neuen Erfahrungen, die Apple durch maschinelles Lernen in seine Software eingebunden hat. Das sind Dinge wie die Sprachübersetzung oder das Diktieren am Gerät oder Apples umfangreiche Funktionen rund um die Gesundheit. Entwickler haben hierbei einen Zugriff auf eine Vielzahl von Schnittstellen, die auf die Neural Engine zugreifen.

Das komplette Interview findet ihr bei den Kollegen von stern und bietet noch einige weitere Einblicke in die Entwicklung des A14 und seine außergewöhnlichen Fähigkeiten.

Kategorie: Apple

Tags: ,

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert