Apple trainiert Siri, um Menschen mit atypischer Sprache zu verstehen

Geschrieben von Elizabeth Kartini

Apple trainiert Siri, um Menschen mit atypischer Sprache zu verstehen

Ein virtueller Assistent ist einfach ausgedrückt ein Software-Agent, der auf die Befehle oder Anweisungen eines Menschen reagiert und die entsprechenden Aufgaben ausführt. Es ist nicht mehr erforderlich, Tasten oder Schalter zu verwenden, während ein Gerät bedient und eine bestimmte Aufgabe erledigt wird. Um das Leben leichter zu machen, stehen heute verschiedene Arten von virtuellen Assistenten zur Verfügung. Dieser eine virtuelle Assistent, der sehr beliebt wurde und vielen anderen den Weg ebnete, war Siri.

Siri wurde im Jahr 2011 gestartet und war ein virtueller Assistent, der von Apple entwickelt und gestartet wurde. Siri wurde entwickelt, um sprachbasierte Befehle, Fokusverfolgung, von Gesten abgeleitete Steuerelemente und eine auf natürlicher Sprache basierende Benutzeroberfläche zu verstehen, um auf die vom Benutzer gestellten Fragen zu antworten, Empfehlungen abzugeben und Aufgaben basierend auf den bereitgestellten Anweisungen auszuführen. Je mehr Zeit Siri mit dem Benutzer verbringt und bedient wird, desto schneller passt er sich an die vom Benutzer gegebenen Sprachbefehle an.

Apple hat sich immer bemüht, verschiedene Möglichkeiten zu finden, um von Zeit zu Zeit Verbesserungen an seinen Produkten zu erzielen. Während Siri weiterhin ein beliebter virtueller Assistent ist, ist es der Konkurrenz mehrerer anderer virtueller Assistenten ausgesetzt, die von verschiedenen Unternehmen entwickelt wurden. Umso wichtiger wird es für den globalen Technologieriesen, Siri ständig zu aktualisieren und sicherzustellen, dass es relevant bleibt.

Apple erforscht derzeit die Schritte oder Techniken, die implementiert werden können, damit Siri die Befehle von Menschen mit atypischer Sprache oder von Menschen, die mit einem Stottern besser sprechen, besser versteht. Nach den in Das Wall Street JournalDas interne Team des Unternehmens hat dies bereits seit einiger Zeit eingehend untersucht.

Apple hat bis zu 28,000 Audioclips aus verschiedenen Podcasts zusammengestellt, die Inhalte von Personen enthalten, die stottern. All diese Inhalte würden verwendet, um Siri darin zu schulen, die Anweisungen von Menschen mit atypischer Sprache zu verstehen. Laut einem Sprecher von Apple werden die von Apple bereitgestellten Informationen dazu beitragen, Spracherkennungssysteme für Muster im Zusammenhang mit atypischer Sprache zu erweitern.

Abgesehen von dieser Initiative hat Apple auch eine Hold-to-Talk-Funktion entwickelt, mit der Benutzer die Zeit steuern können, die Siri ihnen zuhören soll. Dadurch wird die Möglichkeit ausgeschlossen, dass Siri Personen mit einem Stottern abschneidet, bevor sie einen Befehl erteilt oder eine Frage gestellt haben. Apple hatte zuvor in iOS 11 eine Type to Siri-Funktion implementiert, mit der Benutzer den virtuellen Assistenten ohne Verwendung ihrer Stimme verwenden können.

Apple plant, ein Forschungspapier zusammenzustellen, das alle Informationen über die Bemühungen enthält, die es unternimmt, um Verbesserungen in Siri hervorzubringen. Das Forschungspapier wird voraussichtlich irgendwann in dieser Woche veröffentlicht.

In der Zwischenzeit suchen Google und Amazon auch nach Möglichkeiten, Google Assistant und Alexa die Art von Schulung anzubieten, mit der sie die verschiedenen Nutzergruppen effektiver verstehen können.

Holen Sie sich mehr solche Sachen
in deinem Posteingang

Abonnieren Sie unsere Mailingliste und erhalten Sie interessante Produkte und Updates für Ihren E-Mail-Posteingang.

Danke fürs Abonnieren.

Etwas ist schief gelaufen.