KI und Machine Learning im Fokus

Google I/O 2017: Künstliche Intelligenz für alle

Mascha Schnellbacher

© Google

Im Rahmen der hauseigenen Entwicklerkonferenz Google I/O hat das Unternehmen den Wechsel weg von „Mobile first“ zu „AI first“ angekündigt. Im Fokus von Googles Strategie steht die Weiterentwicklung bestehender Dienste und deren Verknüpfung mit künstlicher Intelligenz.

Aktuell vollzieht sich ein Wandel in Googles Strategie und im Computing: Wie Google-CEO Sundar Pichai auf der Google I/O 2017 bekannt gab, ist das der Wandel „from a mobile-first to an AI-first world“.

Als Beispiel nennt er Google Search, das auf der Fähigkeit, Text in Webseiten zu verstehen, gebaut wurde. Dank der Fortschritte im Deep Learning lassen sich nun auch Bilder und Videos durchsuchen und nutzen. Eine Kamera kann „sehen“, ein Smartphone kann gesprochenen Text verstehen und antworten – Sprache und Vision werden fürs Computing genauso wichtig wie etwa die Tastatur oder Multi-Touch-Screens.

AI first – das meint Google damit

Der Google Assistant zeigt diese Verschiebung bereits deutlich: Der Sprachassistent ist bereits auf 100 Millionen Geräten im Einsatz. Dank des smarten Assistenten kann etwa Google Home zwischen verschiedenen Stimmen unterscheiden, sodass jeder Nutzer eine personalisierte Erfahrung erhält. Diese Erfahrung weitet sich übrigens auch auf Apple-Nutzer aus: Im Sommer kommt der Google Assistant auch aufs iPhone und tritt so in Konkurrenz zu Siri.

Auch die Smartphone-Kamera kann zum Werkzeug werden. Google Lens ist eine Kombination von vision-basierten Computing-Funktionen, die dem Nutzer relevante Informationen liefern. So kann etwa ein Smartphone das Wifi-Passwort scannen, erkennen, dass man sich in ein Netzwerk einloggen will und einen dann automatisch einloggen. Außerdem kann das Handy beispielsweise erkennen, welche Hunderasse vorbeiläuft oder Bewertungen eines Restaurants anzeigen. Die Google-Lens-Fähigkeiten halten zuerst Einzug in Google Assistant und Google Photos.

Google Lens erkennt und versteht Objekte vor der Kameralinse

Google Photos soll übrigens am stärksten von Machine Learning profitieren. Die Software kann bereits Objekte erkennen, jetzt soll sie auch beim Aussortieren von doppelten oder unscharfen Bildern helfen. Weitere Neuerung ist das Feature Suggested Sharing, das einen daran erinnert, Fotos auf Basis der aufgenommenen Personen mit eben diesen zu teilen. Auch die Shared Library ist neu: Hier lassen sich ausgewählte Fotos automatisiert zur Verfügung stellen.

Machine Learning auf dem Vormarsch

All das braucht die richtige Rechenarchitektur und hier kommen die Tensor Processing Units (TPUs) ins Spiel. Die im letzten Jahr bereits vorgestellten TPUs wurden überarbeitet und sind jetzt sowohl für das Ausführen als auch für das Training von Machine-Learning-Modellen optimiert. Die sogenannten Cloud TPUs können eine enorme Menge an Daten verarbeiten und kommen auf die Google Compute Engine.

Cloud TPU

Da gerade im Machine Learning Fortschritte nur durch eine offene Community möglich sind, stellt Google zusätzlich die TensorFlow Research Cloud (TFRC) vor. Dabei handelt es sich um einen Cluster von 1.000 Cloud TPUs, der Entwicklern kostenlos zur Verfügung steht.

Wo wir gerade von TensorFlow sprechen: Die Machine-Learning-Bibliothek erscheint als TensorFlow Lite in einer für Mobilgeräte optimierten Version. Zusätzlich dazu wird ein API für neuronale Netze in Android O integriert, wodurch ML-Berechnungen beschleunigt werden sollen.

Weiterer Fokus liegt auf Google.ai: Um künstliche Intelligenz jedermann zugänglich zu machen, soll das Erstellen von Machine-Learning-Modellen vereinfacht werden. Denn neuronale Netze zu gestalten, ist extrem zeitintensiv und erfordert ein besonderes Know-how. Deshalb hat Google einen Ansatz namens AutoML erstellt, der zeigt, dass neuronale Netze ebenfalls neuronale Netze entwerfen können. Auf diese Weise soll AutoML einer breiten Masse die Fähigkeit verleihen, neue neuronale Netze für ihre eigenen Bedürfnisse zu entwerfen.

There is still a long way to go before we are truly an AI-first world, but the more we can work to democratize access to the technology—both in terms of the tools people can use and the way we apply it—the sooner everyone will benefit.

Die komplette Keynote könnt ihr euch hier noch einmal anschauen:

Geschrieben von
Mascha Schnellbacher
Mascha Schnellbacher
Mascha Schnellbacher studierte Buchwissenschaft und Deutsche Philologie an der Johannes Gutenberg-Universität Mainz. Seit Juni 2015 arbeitet sie als Redakteurin in der Redaktion des Entwickler Magazins bei Software & Support Media. Zuvor war sie als Lektorin in einem Verlag sowie als freie Editorin tätig.
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.