Siris Sprachfähigkeiten: Was steckt hinter dem Sprachtalent?

| 21:11 Uhr | 0 Kommentare

Es geht nicht mehr ohne. Persönliche Sprachassistenten sind fest in die Betriebssysteme integriert. In dem Bereich der Lokalisierung ist Apple unangefochten an der Spitze der digitalen Helfer. Siri unterstützt 24 Sprachen mit über 36 Länderdialekten. Im Gegensatz dazu, kann der Google Assistent nur fünf Sprachen und Amazons Alexa nur zwei.

Reuters hat sich nun genauer angeschaut, was hinter dem Sprachtalent von Siri steckt und lässt sich von Apples Leiter der Sprachabteilung einen Einblick in die harte Arbeit der Sprachschule geben.

Siri wird Erwachsen

Alex Acero, Leiter des Sprach-Teams bei Apple, erklärt in dem Interview, wie die Evolution von Siri vonstatten ging. Zunächst basierte der Dienst noch auf ein Spracherkennungssystem von Nuance. Wir erinnern uns, damals war der Sprachassistent Nina von Nuance bereits ein kleines Highlight.

Mit der Weiterentwicklung von Siri, entwickelte Apple eine eigene Plattform, die besonders das Verständnis und die Lernfähigkeit der Software verbesserte.

Im Bezug auf die unterstützten Sprachen, zeigt sich wie viel Aufwand hinter der Technik steckt. Zunächst werden Menschen, welche die neue Sprache sprechen in ein Studio eingeladen um verschiedene Absätze und Wortlisten zu lesen. Hier ist es wichtig auch verschiedene Dialekte und Akzente einzubeziehen.

Die menschliche Sprache wird aufgezeichnet und transkribiert. Somit wird gesprochener Text in eine für das System verständliche fixierte Form umgewandelt. Diese Roh-Trainingsdaten werden dann in ein algorithmisches Maschinen-Trainingsmodell eingegeben. Hierbei kann sich der Algorithmus im Laufe der Zeit automatisch verbessern, da er mit mehr Daten trainiert wird.

Die Interpretation erfolgt jedoch nicht komplett über das Trainingsprogramm. Je nach Situation, müssen die Techniker die Sprachaufnahmen anpassen, um die Fehlerquote so gering wie möglich zu halten.

Die Beförderung von der Schreibkraft zum persönlichen Assistenten

Die erfassten Daten werden nicht sofort für Siri umgesetzt, zunächst wird eine neue Sprache in der Regel für die Diktat-Funktion eingeführt. Hier ist es Apple möglich weitere anonyme Sprachbeispiele von den Nutzern zu erfassen und zu analysieren.

Die neuen Rohdaten enthalten jedoch oft Störgeräusche und müssen für die Weiterverarbeitung angepasst werden. Apple produziert und sammelt solange Sprachbeispiele und verarbeitet diese, bis das System akkurat reagiert. Erst dann wird die Funktion für Siri in der entsprechenden Sprache freigeschaltet.

Anschließend ist Siris künstliche Intelligenz in der Lage die neue Sprache zu erkennen und entsprechend zu antworten. So entwickelt Apple Siris Sprachfähigkeiten immer weiter. Den letzten Sprachkurs hat Siri gerade erfolgreich absolviert. Ab iOS 10.3 und macOS 10.12.4 erzählen Apple Geräte ebenfalls im Shanghai-Dialekt, auch Shanghaiisch oder Shanghainesisch genannt, den neuesten Witz oder wie das Wetter wird.

Kategorie: iPhone

Tags:

0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert