Suche
Entwicklervorschau für TensorFlow Lite ist da

TensorFlow geht den nächsten Schritt in Sachen mobile

Carina Schipper

© shutterstock / a-image

Maschinelles Lernen ist aktuell ein großes Thema. TensorFlow erreicht jetzt mit TensorFlow Lite auf diesem Gebiet ein neues Evolutionsstadium. In Zukunft kommen mobile und embedded Devices dazu. Entwickler dürfen schon einmal einen Blick auf TensorFlow Lite werfen.

Das TensorFlow-Team hat sich bei der Konzeption von Lite vor allem drei Dinge vorgenommen. Die neue Programmbibliothek soll leichtgewichtig sein, plattformübergreifend und schnell. Die Zahl der mobilen Geräte, die maßgeschneiderte Hardware erhalten, um ML-Workloads effizient verarbeiten zu können, wächst. TensorFlow Lite unterstützt das Android Neural Networks API. Es nutze die neuen Beschleuniger, sobald sie verfügbar seien, heißt es auf dem Google Developers Blog.

Die Architektur teilt sich in drei Teile

Architektonischer Aufbau von TensorFlow Lite, Quelle: Google Developers Blog

TensorFlow Lite besteht aus den Komponenten TensorFlow Model, Converter und Model File. Hinter Model verbirgt sich ein trainiertes Modell, das auf der Festplatte gespeichert wird. Der Converter konvertiert das Modell in das TensorFlow-Lite-Dateiformat. Die TensorFlow-Lite-Modelldatei ist ein auf FlatBuffern basierendes Modelldateiformat, das für maximale Geschwindigkeit und minimale Größe optimiert wurde. Sie wird innerhalb einer mobilen App deployet. Das Java-API ist ein komfortabler Wrapper rund um die C++-API auf Android. Die C++-API lädt die Lite-Modelldatei  und ruft den Interpreter auf. Auf Android und iOS ist jeweils die gleiche Bibliothek verfügbar. Der Interpreter führt das Modell schließlich mit einer Reihe von Operatoren aus. Er unterstützt selektives Laden von Operatoren. Ohne diese beansprucht er 70 KB, mit allen Operatoren 300 KB. Auf einzelnen Android-Geräten nutzt der Interpreter das Android Neural Networks API zur Beschleunigung der Hardware, oder wechselt standardmäßig zur CPU-Ausführung, falls kein API verfügbar ist.

Was ist mit TensorFlow Mobile?

Über das TensorFlow-Mobile-API unterstützt TensorFlow bereits die mobile und embedded Bereitstellung von Modellen. Google sieht Lite als nächste Evolutionsstufe von Mobile. Mit zunehmendem Reifegrad soll sich Lite als empfohlene Lösung für den Einsatz von Modellen auf mobilen und eingebetteten Geräten etablieren. Der Umfang von TensorFlow Lite ist groß und wird laut Google noch aktiv weiterentwickelt. „Mit dieser Entwickler-Vorschau haben wir bewusst mit einer eingeschränkten Plattform begonnen, um die Performance auf einigen der wichtigsten gängigen Modelle sicherzustellen. Wir planen, zukünftige funktionale Erweiterungen entsprechend den Bedürfnissen unserer Benutzer zu priorisieren“, erklärt das Unternehmen. Die Ziele der Weiterentwicklung sind die Vereinfachung der Entwicklererfahrung und Beispiel-Deployments für eine Reihe von mobilen und eingebetteten Geräten zu ermöglichen.

Geschrieben von
Carina Schipper
Carina Schipper
Carina Schipper ist seit 2017 Redakteurin beim Java Magazin, Business Technology und JAXenter. Sie hat Germanistik und Europäische Ethnologie / Volkskunde an der Julius-Maximilians-Universität Würzburg studiert.
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.