Sprachassistenten auf dem Vormarsch

IoT und Mobile wachsen zusammen: 5 Take-aways der MTC & IoTCon 2018

Ann-Cathrin Klose

© Shutterstock.com / Studio_G (modifiziert)

Sprachassistenten verbreiten sich immer schneller, die EU-Datenschutz-Grundverordnung stellt viele Unternehmen vor Herausforderungen, die Zukunft des mobilen Webs könnte von PWAs geprägt sein: Das sind die Take-aways der IoT Conference und Mobile Technology Conference 2018.

Bereits zu Beginn des Konferenzpakets Mobile Technology Conference & IoT Conference 2018  zeigte sich, dass der Mobile-Bereich über seine Grenzen hinaus gewachsen ist: Das Web wird eins, egal ob als App oder auf dem Desktop. Progressive Web Apps, die Peter Kröner in seiner Eröffnungskeynote vorstellte, sind sogar offlinefähig und das ganz ohne Appstore. Darüber haben wir bereits in einem eigenen Beitrag berichtet. Allerdings gab es natürlich noch weitere Highlights auf der Konferenz. Ein wichtiges Thema stellten die Sprachassistenten dar, über die gleich zwei Keynote-Speaker berichteten.

Take-away #1: Der Vorläufer von Alexa hieß Tante Emma

Zurück zum Tante-Emma-Laden, mit smarten Voice-Assistenten, zumindest emotional: Das ist die Vision der Zukunft des Einkaufs, die Achim Himmelreich von Capgemini den Teilnehmern seiner Keynote ausmalte: Wie Conversational Commerce den Einkauf radikal verändert. Es ging natürlich nicht darum, dass künftig wieder im kleinen Geschäft um die Ecke eingekauft wird, sondern darum, wie sich der digitale Handel verändern wird.

Dort könnte der Schritt zum intelligenten Sprachassistenten dazu beitragen, wieder das Gefühl zu haben, bei Tante Emma um die Ecke einzukaufen – wenn der Assistent den Nutzer kennt, kann er Vorschläge machen, bevor der Anwender danach sucht. Der Voice-Assistent weiß, wie sein Anwender tickt, er kennt den Kunden. Genau wie früher Tante Emma, die jeden ihrer Kunden kannte und wusste, was ihnen gefallen könnte.

Lesen Sie auch: „GraphQL ist gut, aber keine Alternative zu echten REST-Services“

So schließt sich ein Kreis: „Der Vorläufer von Alexa hieß Tante Emma“, sagte Himmelreich, und bezieht sich damit darauf, wie der Trend erst weg vom kleinen Laden um die Ecke ging, hin zu unpersönlichen Onlineshops und Call Centren, und nun doch zurück zur personalisierten, wenn auch digitalen Interaktion, führt.

Dafür, dass diese Art der Interaktion künftig zu einem zentralen Element unseres Alltags werden könnte, sprechen auch die Zahlen, die Capgemini gemeinsam mit dem MIT erhoben hat. Mit einer Wachstumsrate von mehr als 650 Prozent in einem Jahr erobern Smart Speaker den Markt noch einmal deutlich schneller als Smartphones, die auf mehr als 200 Prozent Wachstum im Jahr kamen. Es geht also nicht mehr primär um Mobilgeräte, wenn es um Sprachassistenten geht, sondern um das IoT und wie es unseren Alltag verändern wird.

Take-away #2: Das Problem mit dem Smarthome: „Allet wird jut!“

2018 wird nun aber wirklich das Jahr des Smarthome, oder? Dieser Frage ging Thomas Eichstädt-Engelen in seiner Keynote nach. Und auch hier ging es schlussendlich um Smart Speaker: Tatsächlich könnten die klugen Lautsprecher nämlich das zentrale Element des Wandels hin zum Smarthome werden.

Derzeit sieht Eichstädt-Engelen noch eine Reihe von Hindernissen auf dem Weg dahin gegeben, die dem Smarthome im Weg stehen. Das könnten Smart Speaker nun aber verändern.

Smarthomes, so Eichstädt-Engelen, sind dabei grundsätzlich eine schöne Zukunftsvision: Morgens schaltet sich die Kaffeemaschine ein, während man noch im Bett liegt, das Bad ist vorgeheizt, die passende Musik zur Stimmung wird automatisch ausgewählt, und wenn man nach Feierabend wieder heim kommt, passiert das gleiche noch einmal. Und das ist bei weitem nicht alles, was das intelligente Zuhause dem Bewohner abnehmen könnte.

Das alles ist allerdings gar nicht so leicht realisierbar: Es fehlt an versierten Fachkräften, ein Umbau zum Smarthome ist außerdem aufwändig und teuer, wenn dafür neu verkabelt werden muss. Das war eine große Hürde – die jetzt jedoch durch Smart Speaker mit Sprachassistenten aufgelöst wird.

Die Geräte sind klein, nicht teuer und bedürfen keiner aufwändigen Installation. Sie können für einzelne Zwecke angeschafft werden, beispielsweise für die Musikwiedergabe, und integrieren sich dann ganz organisch in den Alltag ihrer Besitzer. Die junge Generation hat, wie Eichstädt-Engelen berichtet, bereits jetzt keine Vorbehalte mehr gegenüber diesem Thema. Und am Ende, wenn der erste Schritt somit leichter wird und es dank Alexa Skills und Co keiner großen Fachkenntnisse mehr bedarf, um die Systeme umfassend einzusetzen – dann könnte das Smarthome endlich kommen, so der Speaker: „Allet wird jut!“

Take-away #3: Sprachassistenten lernen heute mit

Was die Skills für Alexa sind, das sind die Actions für Googles Smarthome-Devices und gleichzeitig Android-Smartphones: Funktionen, die über eine Sprachsteuerung aufgerufen und ausgeführt werden können. Wie für Alexa können Entwickler auch bei Googles System eigene Funktionen entwickeln und praktisch einsetzen. Dafür steht mit Dialogflow ein Backend zur Verfügung, das die Entwicklung eigener Dialog-Apps für Googles Voice-Assistenten unterstützt.

Wichtig bei der Arbeit mit einer Sprachsteuerung ist, dass man sich vom klassischen Bild der vorgegebenen Antwortoptionen löst, berichtete Google Developer Advocate Peter Friese. Der Nutzer soll nicht mehr zwischen A und B entscheiden müssen, so wie es in digitalen Auswahlmenüs am Telefon der Fall war, sondern möglichst natürlich mit der App sprechen. Dafür sollten sich Entwickler fragen, wie ein Dialog normalerweise abläuft und entsprechende Optionen für ihre Anwendung in Dialogflow einpflegen. Dort bleibt es dann aber nicht bei vorgegebenen Optionen: Das System wird durch Machine Learning unterstützt und entwickelt so weitere User-Eingaben, die es versteht, auch wenn sie nicht der vorgegebenen Form entsprechen. Sprachassistenten lernen heute also bereits mit.

Take-away #4: iOS bietet Nützliches für Machine Learning

Im Fall der Sprachassistenten ist Machine Learning ein hilfreiches Mittel zur Verbesserung von Anwendungen, aber ist das immer so? Nein, sagte Alexander von Below (Deutsche Telekom) in seiner Session „I am Electro: My brain is bigger than yours!“ – Machine Learning in der Theorie. Die Praxis auf iOS.

Solange eine einfache Regelanwendung reicht, so der Speaker, braucht es keine selbstlernenden Systeme. Wenn diese aber doch sinnvoll sind, kommt es darauf an, wie die System eingesetzt werden: Wer die Schuhgröße und Intelligenz von Grundschulkindern eingibt, wird mit maschinellem Lernen auch nur eine Korrelation finden können, die keiner Kausalität entspricht, und hat damit nichts gewonnen. Ein bisschen gesunden Menschenverstand braucht es also schon, wenn man mit ML arbeitet.

Wer Machine Learning einsetzen möchte, findet auf iOS außerdem einige praktische Helfer. Mit CoreML und dem Vision Framework von Apple können bereits viele Anwendungszwecke abgedeckt werden, und das lokal auf dem jeweiligen Device. Anders als für die Entwicklung von Google Actions ist hier also keine Integration in eine Cloudlösung notwendig, um Anwendungen auf ein ganz neues Niveau zu heben.

Take-away #5: Die neue EU-Datenschutz-Grundverordnung betrifft auch Sie

Der Gedanke des Machine Learnings auf dem Device, ohne dass dazu Daten übertragen werden müssen, ist auch in Hinblick auf die EU-Datenschutz-Grundverordnung wichtig, die im Mai in Kraft tritt. Auch diese wurde auf der MTC thematisiert.

Markus Laymann von Bokowsky + Laymann gab eine Last-Minute-Einführung in die neuen Regeln zum Datenschutz, die nicht nur die Lex Google, also das Recht auf Vergessen umfassen. So ist unter anderem auch wichtig, dass künftig eine erweiterte Aufklärungspflicht und ein Recht auf Datenübertragung bestehen. Die Nutzer erhalten also deutlich mehr Rechte im digitalen Raum. Unternehmen, die sich mit diesem Thema noch nicht befasst haben, sollten das dringend tun, rät Laymann, weil künftig hohe Strafen bei Verstößen gegen die Datenschutz-Grundverordnung drohen.

Besonders interessant für die Teilnehmer der Session waren dabei konkrete Anwendungsfälle der Datenschutz-Grundverordnung: Was, wenn die eigene Website gehackt wird? Laymann verwies hier auf die Meldepflicht, die künftig für Anbieter gegenüber der jeweiligen Aufsichtsbehörde besteht. Außerdem war das Thema der Cloud hier wichtig: Was passiert, wenn man relevante Daten in der Cloud ablegen möchte?

Lesen Sie auch: Augmented Reality – wo wir stehen und was auf uns zukommt

Hier lautet die Einschätzung des Speakers, dass dies bei europäischen Anbietern wenig problematisch sein dürfte – immerhin unterliegt auch der Cloud-Provider dann der Datenschutz-Grundverordnung. Einer gründlichen Prüfung der Verträge entkomme man damit aber nicht. Hier ist derjenige in der Pflicht, der die Daten sammelt. Bei Cloud-Anbietern mit Sitz außerhalb der EU müsse außerdem ganz besonders darauf geachtet werden, Verträge in Übereinstimmung mit dem EU-Recht zu gestalten.

Sprachassistenten wie Alexa stellten hier laut Laymann einen besonders interessanten Fall dar, da eine Einwilligung zur Datenspeicherung kaum bei jedem Kontakt mit dem Device gegeben werden können. In dieser Hinsicht gibt es aber noch keine Richtlinien oder Entscheidungen, die eine klare Linie vorgeben könnten. Das ist jedoch in naher Zukunft zu erwarten, so Laymann.

Fazit: IoT und Mobile wachsen zusammen

Angefangen mit Progressive Web Apps über Sprachassistenten bis hin zum Datenschutzrecht: Die IoT- und Mobile-Welten sind gar nicht so weit von einander entfernt, wie die Schwesterkonferenzen eindrücklich gezeigt haben. Natürlich ging es auch um viele anderen Themen auf den Konferenzen: um GraphQL, Augmented Reality, Standards für die Datenübertragung an Waschmaschinen im IoT und vieles mehr.

Als zentrales Take-Away kann jedoch gelten, dass trotz der großen Vielfalt der Mobile- und IoT-Domänen ein klarer Trend sichtbar ist, der beide Welten betrifft: Sprachassistenten werden unsere künftige Kommunikation und Interaktion mit der digitalen Welt entscheidend prägen und eine große Rolle im Jahr 2018 und darüber hinaus spielen. Und am Ende kommt hier ja (fast) alles zusammen: Mobilgeräte, IoT-Devices, die Frage nach den Verbindungsstandards, Machine Learning, plattformübergreifende Entwicklung und mehr sind gefragt, um am Ende mit wirklich smarten Sprachassistenten die Zukunft zu gestalten.

Mehr zum Thema:

Alexa Skills: Wenn selbst ein Smartphone zu viel Device ist

Geschrieben von
Ann-Cathrin Klose
Ann-Cathrin Klose
Ann-Cathrin Klose hat allgemeine Sprachwissenschaft, Geschichte und Philosophie an der Johannes Gutenberg-Universität Mainz studiert. Bereits seit Februar 2015 arbeitete sie als redaktionelle Assistentin bei Software & Support Media und ist seit Oktober 2017 Redakteurin. Zuvor war sie als freie Autorin tätig, ihre ersten redaktionellen Erfahrungen hat sie bei einer Tageszeitung gesammelt.
Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: