Update für ML Programmbibliothek

TensorFlow 1.6 ist da: Die Neuerungen auf einen Blick

Marcel Richters
Tensor Flow 1.6

© Shutterstock.com / Alexey Godzenko

Mit der neuen Version von Googles Machine-Learning-Bibliothek TensorFlow gibt es Breaking Changes bei den vorgebauten Binärdateien, Anpassungen bei den APIs und vier größere Erweiterungen. Außerdem erläutern wir, wieso Nutzer älterer AMD- und Intel-Prozessoren jetzt aufpassen müssen.

Was ist TensorFlow?

Mit TensorFlow hat Google 2015 eine Bibliothek für maschinelles Lernen veröffentlicht. Geschrieben ist das Open-Source-Projekt in Python und C++. Das Ziel des Projekts ist es, einem breiten Publikum die Möglichkeiten von Deep-Learning-Funktionen zur Verfügung zu stellen. So erlaubt es TensorFlow, neuronale Netze durch Graphen darzustellen und auf verteilten Computer-Systemen abzubilden. Da es ein Python-Frontend nutzt, lässt sich TensorFlow gut mit Big-Data- und Machine-Learning-Projekten verbinden. Seit dem Erscheinen der ersten Vollversion TensorFlow 1.0 sind auch APIs in Java und Go verfügbar.

Das bringt Version 1.6

Es gibt vier wichtige Neuerungen in TensorFlow 1.6. Die erste ist die Einführung der Fast-Fourier-Transformation für XLA, den domainspezifischen Compiler für Lineare Algebra. Darüber hinaus steht ein neues, internes Optimizer-API für Non-Slot-Variablen bereit. Dieses erfordert allerdings ein Update für Descendants des AdamOptimizer, welche auf _beta[12]_power zugreifen. Die Funktion tf.estimator.{FinalExporter,LatestExporter} exportiert jetzt gestrippte SaveModels. Dadurch soll die Vorwärtskompatibilität des SavedModel verbessert werden. Schließlich kann Android TF jetzt mit CUDA-Beschleunigung gebaut werden, ein kompatibles Device mit Tegra-CPU vorausgesetzt.

Breaking Changes gibt es bei den vorgebauten Binärdateien. Diese sind jetzt gegen CUDA 9.0 und cuDNN 7 gebaut. Außerdem nutzen die Binärdateien jetzt AVX-Instruktionen. Diese wurden bei Intel mit dem Sandy Bridge ab Quartal 1 2011 und bei AMD mit dem Bulldozer Quartal 4 2011 eingeführt. Ältere Prozessoren könnten also nicht mehr in der Lage sein, TensorFlow auszuführen.

Bei den APIs gibt es zwei Änderungen. So wurde die Boolesche Variable prepare_variance eingeführt, deren Default auf „False“ steht, um die Rückwärtskompabilität zu erhöhen. Daneben wurde layers_dense_variational_impl.py nach layers_dense_variational.py verschoben.

Zusätzlich zu den größeren Änderungen wurden diverse Bugfixes und kleinere Anpassungen vorgenommen. Dennoch bestehen weiterhin bekannte Bugs. Welche das sind und wie die Änderungen im Detail aussehen, ist im GitHub Repository von TensorFlow nachzulesen.

ML Conference 2018
Christoph Henkelmann

Preparing Text Input for Machine Learning

with Christoph Henkelmann (DIVISIO)

Trendthema Machine Learning

Maschinelles Lernen ist momentan einer der dynamischsten Innovationsbereiche der IT. Immer mehr Aspekte des Alltags werden von lernenden Systemen durchdrungen, angefangen bei den Sprachassistenten unserer Mobiltelefone, über personalisierte Internet-Werbung, Bildanalyse und Textübersetzung, bis hin zur Krebs- und Diabetes- Früherkennung.

Für Entwickler ergibt sich ein neues, zukunftsträchtiges Betätigungsfeld. So haben in unserer großen JAXenter-Umfrage denn auch 65% der Teilnehmer angegeben, dass Machine Learning für sie im Jahr 2017 „interessant“ oder „sehr interessant“ ist.

Bildschirmfoto 2017-02-16 um 09.54.20

 

Dossier Machine Learning

Zur Einführung in das Thema empfehlen wir unser Dossier zum Maschinellen Lernen, das Sie hier kostenlos als PDF herunterladen können:

Dossier Machine Learning

Inhalt

Folgender Inhalt erwartet Sie:

  • Maschinelles Lernen mit Java: Eine Einführung – Artikel von Lars Schwabe
  • Machine Learning Experten-Check – Sechs Experten über die Faszination an der lernenden Maschine
  • TensorFlow: Der Weg des maschinellen Lernens – Artikel von Bernd Fondermann
  • “Wir sehen Anzeichen dafür, dass Machine-Learning-Systeme eigenen kreativen Output liefern” – Interview mit Bernd Fondermann
  • Künstliche neuronale Netze: Ein Machine-Learning-Beispiel mit Neuroph – Artikel von Dr. Valentin Steinhauer
  • Maschinelles Lernen: Vom Forschungsgegenstand zur Commodity – Interview mit Lars Schwabe
  • Einen eigenen Chatbot bauen – Artikel von Roman Schacherl und Daniel Sklenitzka
  • “Wir werden Sprachinteraktion zwischen Mensch und Maschine bald als einen ganz normalen Prozess erleben” – Interview mit Prof. Dr.-Ing. Dorothea Kolossa

 

Geschrieben von
Marcel Richters
Marcel Richters
Marcel hat Soziologie an der Goethe-Universität in Frankfurt am Main studiert und danach als E-Commerce-Manager gearbeitet. Seit Februar 2018 unterstützt er das Team von JAXenter als Redakteur. Daneben arbeitet er als freier Journalist in der Mainmetropole.
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.