Apple enthüllt ReALM: ein neues KI-Modell mit fortschrittlichem Kontextverständnis

| 21:33 Uhr | 1 Kommentar

Apple hat ReALM vorgestellt, ein neues KI-Modell, das sich durch kontextbezogenes Verständnis auszeichnet. ReALM soll die Art und Weise, wie Nutzer mit ihren Geräten interagieren, optimieren, indem es intuitive und kontextbezogene Antworten auf Anfragen ermöglicht. Das System kann aus einer Vielzahl von Quellen interpretieren und diese verarbeiten, darunter Bildschirminhalte, Hintergrundprozesse und laufende Unterhaltungen.

Fotocredit: Apple

Apples KI-Fortschritte

Apples Beschäftigung mit generativer KI ist nicht neu. Beispielsweise hat Apple im vergangenen Herbst eine verbesserte Autokorrektur und Textvorhersage eingeführt. Dennoch hat sich das Unternehmen aus Cupertino bisher über seine KI-Pläne weitgehend bedeckt gehalten, was zu Spekulationen über Apples Fortschritt in dem Bereich geführt hat.

Angesichts der Tatsache, dass Tech-Giganten wie OpenAI und Google bereits große Fortschritte im Bereich der generativen KI gemacht haben, warnten manche Analysten, dass Apple den KI-Zug verpassen könnte. Zuletzt hieß es, dass Apple mit großen Tech-Unternehmen wie Google und OpenAI kooperieren könnte, um KI-Modelle für den Einsatz in iOS zu lizenzieren. Dass Apple für den KI-Einsatz mit Google und anderen Unternehmen in Gesprächen ist, bedeutet nicht, dass das Unternehmen die Pläne für ein eigenes KI-Modell verworfen hat. Das zeigt auch ein neues Whitepaper von Apples Forschungsabteilung.

ReALM versteht und verarbeitet komplexe Kontexte

So hat Apples Forschung im Bereich der künstlichen Intelligenz ReALM hervorgebracht. Nach Angaben des Unternehmens handelt es sich bei ReALM um ein Sprachmodell, das Kontexte unterschiedlicher Art verstehen und erfolgreich verarbeiten kann. Damit können Benutzer nach etwas auf dem Bildschirm fragen und das Sprachmodell kann den Kontext verstehen und die richtige Antwort geben. Das funktioniert auch bei Prozessen, die im Hintergrund laufen, wie beispielsweise Musik oder ein Gespräch, das der Nutzer gerade führt.

Diese Fähigkeit ermöglicht eine intuitive Interaktion zwischen Benutzern und ihren Geräten. Wenn ein Nutzer beispielsweise eine Apotheke anrufen möchte, die auf seinem Bildschirm aufgelistet ist, kann ReALM solche Anfragen genau erkennen und bearbeiten. Dabei kann der Nutzer Referenzen wie „die in der Rainbow Rd.“ oder „die untere“ geben und das System versteht den Kontext.

Mit ReALM ebnet Apple den Weg für intuitive und kontextbewusste digitale Interaktionen und setzt damit neue Maßstäbe für die Leistungsfähigkeit von KI-Modellen. Obwohl das Unternehmen das Potenzial für weitere Verbesserungen anerkennt, positioniert es ReALM als eine überlegene Alternative zu OpenAIs GPT-4, wenn es um die Verarbeitung komplexer Eingaben geht.

KI auf der WWDC

Wie im Apple-Blog beschrieben, unterstreicht das hauseigene System nicht nur Apples Engagement für die Weiterentwicklung der KI-Technologie, sondern gibt auch Hinweise auf spannende neue Funktionen für zukünftige Apple-Geräte.

Aller Voraussicht werden sich Apples Fortschritte im Bereich der künstlichen Intelligenz schon bald auch für Endbenutzer bemerkbar machen. Spätestens zur WWDC 2024 werden wir die großen KI-Neuerungen von iOS 18 zu sehen bekommen.

Man geht davon aus, dass Apple KI in seine verschiedenen Dienste einbauen wird, wie z. B. die Unterstützung der Nutzer beim Schreiben in Pages oder beim Erstellen von Folien in Keynote. Auch Siri wird durch diese Arbeit gestärkt, einschließlich Verbesserungen bei der Art und Weise, wie Siri Fragen beantwortet und wie iMessage Sätze automatisch vervollständigt.

Kategorie: Apple

Tags:

1 Kommentare

  • BEN1980EN

    Ich musste erstmal gucken an welchem Datum dies veröffentlicht wurde. Schade, es wäre so schön gewesen.

    01. Apr 2024 | 22:50 Uhr | Kommentieren

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert