Bloomberg: Apples KI wird vollständig „auf dem Gerät“ arbeiten

| 19:00 Uhr | 0 Kommentare

Wir sind rund zwei Monate von Apples Ankündigung von iOS 18 entfernt. Damit steigert sich nicht nur die Vorfreude, sondern auch die Liste der spekulierten Funktionen für das Update, bei dem Künstliche Intelligenz eine zentrale Rolle spielen soll. Wie ein Großteil von Apples Forschungsmaterial zeigt, investiert das Unternehmen stark in alle Arten von Technologien der künstlichen Intelligenz. Nun widmet sich Bloombergs Mark Gurman dem Thema in seinem „Power On“ Newsletter und erklärt, dass Apple nicht nur an einzelnen KI-Tools, sondern auch an einem eigenen großen Sprachmodell (Large Language Model, kurz LLM) arbeitet, dass vollständig lokal auf dem iPhone ausgeführt werden kann.

Fotocredit: Apple

Apple arbeitet an lokalem LLM-Einsatz für das iPhone

Mark Gurman zufolge ist zu erwarten, dass die neuen iPhone-KI-Funktionen vollständig von einem von Apple entwickelten Offline-Sprachmodell auf dem Gerät unterstützt werden. Damit hätte Apple ein Verkaufsargument, dass bisher die Konkurrenz in der Form nicht bietet. Aufgrund der Ausführung auf dem Gerät kann Apple einen hohen Grad an Datenschutz garantieren. Zudem reagieren On-Device-Modelle in der Regel viel schneller als die Weiterleitung von Anfragen über einen Cloud-Dienst und haben auch den Vorteil, dass sie an Orten ohne oder mit eingeschränkter Konnektivität offline arbeiten können.

Der Nachteil von geräteinternen LLMs ist, dass sie nicht so leistungsfähig sein können wie Modelle, die auf riesigen Serverfarmen laufen, mit Dutzenden von Milliarden von Parametern und ständig aktualisierten Daten dahinter. Apples Ingenieure können jedoch die Vorteile der vertikalen Full-Stack-Integration seiner Plattformen nutzen. In Bezug auf Apple bedeutet Full-Stack-Integration, dass das Unternehmen seine eigenen Chips, Betriebssysteme, Anwendungen und Dienste entwickelt und optimiert, um nahtlos zusammenzuarbeiten. Diese vollständige Kontrolle und Integration ermöglichen es Apple, die Leistung, Sicherheit und das Benutzererlebnis der Geräte zu optimieren.

Apple hat immer noch die Flexibilität, mit anderen Unternehmen zusammenzuarbeiten, um für bestimmte Aufgaben auf externe KI-Lösungen auf Servern zurückzugreifen. Und genau das scheint hinter den Kulissen ebenfalls vorbereitet zu werden. Laut Gurman wird Apple auch optionale Cloud-basierte KI-Funktionen zur Verfügung stellen, die auf Googles Gemini oder einer anderen Drittanbieter-Technologie zurückgreifen. Hierfür hat Apple Berichten zufolge Gespräche mit Unternehmen wie Google und OpenAI über potenzielle generative KI-Partnerschaften geführt. Die Zusammenarbeit könnte Apple-Nutzern mehr Vielfalt bieten und ihnen die Wahl lassen, welche KI-Funktionen sie neben den Standardangeboten der Apple-Systeme nutzen möchten.

Gerüchten zufolge soll iOS 18 neue generative KI-Funktionen für die Spotlight-Suche, Siri, Safari, Kurzbefehle, Apple Music, Nachrichten, Health, Numbers, Pages, Keynote und mehr enthalten. So hat Gurman beispielsweise bereits berichtet, dass die generative KI die Fähigkeit von Siri verbessern wird, komplexere Fragen zu beantworten, und es der Nachrichten-App ermöglicht, Sätze automatisch zu vervollständigen. Die Details der KI-Strategie von Apple werden auf der Worldwide Developers Conference (WWDC) am 10. Juni enthüllt.

Kategorie: iPhone

Tags: ,

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert