Grundlagen der Spracherkennung – so funktionieren Alexa, Cortana, Siri & Co

Seit vielen Jahren schien die maschinelle Spracherkennung gerade vor dem Durchbruch zu stehen, doch meist zeigten sich schnell die Grenzen der jeweils aktuellen Technologien. Stehen wir dank Siri, Alexa, Cortana und Co. vor einem Paradigmenwechsel?
Seit einiger Zeit stehen nun endlich genügend Sprachdaten, Rechenleistung und die passenden Algorithmen bereit, um den Einsatz solcher Spracherkennungssysteme, Bots oder Personal Assistants nicht nur praktikabel, sondern sogar erfreulich zu gestalten. Inzwischen buhlen Amazons Alexa, Googles Assistant, Microsofts Cortana und natürlich Apples Siri in der „Battle of the Bots“ um die Gunst der Nutzer.
Spracherkennungssysteme – die Grundlagen
Durch Spracherkennungstechnologien werden Diktate automatisiert, Videos und Audiofiles textdurchsuchbar, Navigationsgeräte, Smartphones und die Websuche leicht steuerbar. In der Session „Smartphones getting smarter: Automatische Spracherkennung auf dem Weg in die Praxis“ stellte Prof. Dr.-Ing. Dorothea Kolossa (Ruhr-Universität Bochum) auf der MobileTech Conference die Grundlagen von Spracherkennungssystemen vor.
Dabei blickt sie auf die aktuellen Methoden der Deep Neural Networks, diskutiert die Anbindung von Spracherkennungs-Apps, Software Development Kits und Hardwarelösungen, beleuchtet die Grenzen der Technologie in Bezug auf Privacy-Fragen und zeigt den aktuellen Stand der Forschung zur robusten Sprachsteuerung auch unter schwierigsten akustischen Bedingungen.
x
X

X
Hinterlasse einen Kommentar