Die nächste Evolutionsstufe von Siri: Wie Apple die KI menschlicher macht

| 16:33 Uhr | 2 Kommentare

Mit iOS 11 soll sich auch Siri weiterentwickeln. Wired hat sich mit Siri-Manager Alex Acero und Produktmarketing-Vizepräsidenten Greg Joswiak zusammengesetzt und über die Zukunft von Apples digitalen Assistenten gesprochen. Wir erfahren, dass sich das Siri-Team derzeit besonders auf ein natürliches Sprachbild konzentriert. So soll Siri nun weitaus ausdrucksvoller klingen. Weiterhin wird Siri besser auf die Anfragen eingehen, wodurch sie auch in Alltagssituationen nützlicher werden wird.

Siris nächste Evolutionsstufe

In den Anfangsjahren von Siri hatte Apple mit vielen Problemen zu kämpfen. So berichten die beiden Experten von einer Zeit, in der sich die Software aufgrund von Partner-Unternehmen nur langsam weiterentwickelte. Gemeint ist hier wohl das Unternehmen Nuance, welches sich um Siris Sprachfähigkeiten kümmerte.

Nun sind jedoch alle Weichen auf einen schnellen Fortschritt gestellt und so werden wir auch bald eine deutliche Verbesserung von Siri erfahren. Allen voran soll eine bessere Interaktion mit dem Nutzer einen Mehrwert bieten. Die KI entwickelt sich über die bloße Sprachfunktionen hinaus, indem sie die Möglichkeiten des Lernens auf dem Gerät nutzt, um persönlichere Erfahrungen zu ermöglichen und Vorschläge zu unterbreiten.

Ein Sprachtalent

Die Nutzung von Siri ist jedoch nur hilfreich, wenn Siri auch die Spracheingaben versteht, ansonsten gestaltet sich das „Gespräch“ sehr einseitig. Mit der neuen Version soll Siri problemlos 95 Prozent der Spracheingaben verstehen. Weiterhin wird sich das Sprachbild natürlicher anfühlen. Durch die Verwendung der neuesten Techniken des maschinellen Lernens sind die männlichen und weiblichen Stimmen ausdrucksvoller und passen Intonation, Tonhöhe, Betonung und Tempo an.

Hierfür ist es wichtig, das die Lokalisierung bestmöglich umgesetzt wird. Mittlerweile werden 21 Sprachen für 36 Länder unterstützt. Der Aufwand, der hinter dieser Arbeit steckt, ist enorm. Zunächst lesen professionelle Sprecher eine neue Sprache in einem Studio ein. Dabei werden auch Dialekte und Akzente einbezogen. Nachdem der eingesprochene Text in eine für das System verständliche fixierte Form umgewandelt wurde, übernehmen algorithmische Maschinen-Trainingsmodelle die Interpretation. Die Interpretation erfolgt jedoch nicht komplett über das Trainingsprogramm. Je nach Situation, müssen die Techniker die Sprachaufnahmen anpassen, um die Fehlerquote so gering wie möglich zu halten.

Kategorie: Apple

Tags: ,

2 Kommentare

  • Mike

    Es wäre ja schon mal viel wert, wenn die deutsche Siri endlich Musikwünsche verstehen würde, die sich auf englische oder spanische Bands oder Musiktitel beziehen. Sie besteht hier einfach auf die Aussprache in deutsch, was meist nicht zu befriedigenden Ergebnissen führt…

    08. Sep 2017 | 18:57 Uhr | Kommentieren
    • Chris

      Ich muss sagen, mit dem englischen klappt das schon ganz gut.

      09. Sep 2017 | 3:09 Uhr | Kommentieren

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert