Mit den neuesten Entwicklerversionen von iOS 26.1, iPadOS 26.1 und macOS Tahoe 26.1 hat Apple den Grundstein für eine tiefgreifende, systemweite KI-Integration gelegt. So finden sich im Code der Betriebssysteme erste Hinweise auf die Unterstützung von sogenannten „Agentic AI“-Funktionen. Hierbei handelt es sich um KI-Systeme, die ein Ziel verstehen und selbstständig Aktionen planen und ausführen, indem sie gezielt Funktionen innerhalb von Apps ansteuern.

Fotocredit: Apple
Ein Protokoll für alle KIs
Konkret geht es um das „Model Context Protocol“, kurz MCP. Dieser Standard wurde letztes Jahr von der Firma Anthropic eingeführt und hat sich schnell in der Branche durchgesetzt. MCP schafft eine universelle Sprache, mit der KI-Systeme und traditionelle Plattformen miteinander kommunizieren können.
Bisher waren selbst die fortschrittlichsten KI-Modelle oft in ihren eigenen Welten gefangen, isoliert von externen Daten und Diensten. Jede Anbindung an eine neue Datenquelle erforderte eine maßgeschneiderte Lösung, was die Entwicklung vernetzter Systeme kompliziert und langwierig machte. MCP löst dieses Problem, indem es eine einheitliche Schnittstelle bereitstellt. Dabei findet das Protokoll Anklang in der Branche. So haben bereits große Namen wie Google, OpenAI, Notion und Salesforce den Standard übernommen.
Was MCP in der Praxis kann
Durch den universellen Zugangsweg über MCP können KI-Assistenten eigenständig mit Programmen und Datenquellen interagieren, basierend auf einer einfachen Anfrage des Nutzers. Die Möglichkeiten, die sich daraus ergeben, sind beeindruckend.
Im einfachsten Sinne könnte ein KI-Agent beispielsweise auf den Google-Kalender und die Notizen in Notion zugreifen, um euch als persönlicher Assistent zur Seite zu stehen. Das wahre Potenzial wird aber erst bei komplexeren Szenarien deutlich. Stellt euch eine KI vor, die einen in Figma erstellten Design-Entwurf analysiert und daraus selbstständig den Code für eine komplette Webseite schreibt. Denkbar ist auch, dass eine KI ein 3D-Modell in einer Software wie Blender entwerfen und den Druckauftrag direkt an einen 3D-Drucker senden könnte.
Apples Plan
Die Möglichkeiten sind vielfältig, doch was hat Apple damit zu tun? Die neuen Codezeilen in den aktuellen Betaversionen deuten darauf hin, dass Apple die MCP-Unterstützung direkt in die sogenannten „App Intents“ integrieren will. Hierbei handelt es sich um ein Framework, mit dem Entwickler die Funktionen und Inhalte ihrer Apps dem System zur Verfügung stellen können. Dadurch kann Siri Aktionen vorschlagen und ausführen, Apps erscheinen in der Spotlight-Suche und lassen sich über die Kurzbefehle automatisieren.
Indem Apple nun MCP in sein bestehendes System integriert, wird es für Entwickler denkbar einfach, ihre Apps für KI-Assistenten zu öffnen. So müssen sie nicht selbst den gesamten Aufwand betreiben, um den Standard zu implementieren, sondern können auf eine systemweite Lösung zurückgreifen.
In der Praxis bedeutet das, dass Modelle wie ChatGPT oder Claude bald direkt mit Apps auf dem iPhone, iPad und Mac interagieren können. Die KIs könnten hierbei autonom Aktionen ausführen, ohne dass der Nutzer zwischen verschiedenen Anwendungen wechseln muss. Es ist jedoch wichtig, realistisch zu bleiben. Der gefundene Code deutet auf eine sehr frühe Phase der Implementierung hin. Es könnte also noch eine ganze Weile dauern, bis die Funktion offiziell angekündigt wird oder für alle verfügbar ist. Dennoch sind die Anzeichen vielversprechend.
0 Kommentare