Maschinelles Lernen in Bildern und mit Bildern

ML Bulletin: Neue Google-Services, Maschinelles Lernen in Bildern und Kommentarkultur

Melanie Feldmann

© Shutterstock / a-image

Sowohl Google als auch Microsoft haben im Februar ihr Angebot für Maschinelles Lernen weiter ausgebaut. Außerdem haben ML-Entwickler versucht Neuronale Netze zu visualisieren und Hasskommentaren kann vielleicht bald ein Riegel vorgeschoben werden.

Mehr Maschinelles Lernen bei Google

Der Nicht-nur-Suchmaschinen-Konzern hat seine Cloud-Dienste für Maschinelles Lernen aktualisiert. Das Cloud Video Intelligence API befindet sich jetzt in der offenen Betaphase. Das API ermöglicht es Entwicklern, Objekte in Videos zu erkennen. Es versteht auch den Kontext. Auf dem Bild eines Tigers erkennt der Service eben nicht nur, dass es sich wahrscheinlich um einen Tiger handelt, sondern auch dass es eine Katze ist und ein Landtier. Vor allem für Medienunternehmen könnte das interessant sein, um unstrukturierte Daten besser zu verstehen, z. B. bei User-generiertem Content. Ebenfalls für Bilderkennung im Einsatz ist das Cloud Vision API. Es kann mit der Version 1.1 nun Millionen von Dingen aus Googles Knowledge Graph identifizieren. Auch die OCR-Fähigkeiten wurden verbessert.

Die Cloud Machine Learning Engine ist nur offiziell releaset. Mit der Enginge können Unternehmen ihre eigenen Modelle in der Cloud trainieren und deployen. Über einen Managed Service ist es möglich, kundenspezifische TensorFlow-basierte Modelle zu erstellen, die mit allen möglichen Arten von Daten interagieren. SpringML nutzt die Engine für die Echtzeitanalyse von Daten. SparkCognition identifiziert damit Zero-Day-Exploits und blockt diese ab.

Lesen Sie auch: Die Cloud Vision API von Google bringt Applikationen bei Bilder zu erkennen

Sprache zu Text mit Microsoft

Microsoft hat eine Preview seines Spracherkennungsservice veröffentlicht. Mit Custom Speech Service können Anwender Mircosofts Speech-to-Text Engine auf ihre eigenen Bedürfnisse hin anpassen. Dafür muss man die Text- und Sprachdateien in den Service laden. Dann kann man Modelle erstellen, die sich mit Microsofts eigenen kombinieren lassen. Die Modelle können z. B. Jargon oder Produktnamen enthalten, die in den vordefinierten Modellen nicht vorkommen. Das Ganze lässt sich dann zu einem Speech-to-Text-Endpunkt deployen, auf den jedes Gerät zugreiffen kann. Wie das funktioniert, erklärt ein Getting Started Guide.

Wie sieht Maschinelles Lernen eigentlich aus?

Maschinelles Lernen ist ein dermaßen kompliziertes und abstraktes Thema, das es oft schwierig ist zu erklären, was genau geschieht, geschweigenden es zu visualisieren. Die Entwickler bei Graphcore haben einen Versuch gestartet und ihre Ergebnisse sehen Bildern von Gehirnen mit ihren komplexen Verbindungen ziemlich ähnlich. Wie die Visualisierung genau funktioniert, erklärt ein Blog-Post.

machine_leraning_model

Visualisierung eines Machine-Learning-Modells für Daten aus der Astrophysik (Bildquelle: https://www.graphcore.ai)

Kommentarkultur im Internet verbessern

Google und das Unternehmen Jigsaw (nicht mit dem Java-9-Feature verwechseln) haben sich zusammengetan, um Maschinelles Lernen dazu zu nutzen die Online-Kommentar-Kultur zu verbessern. Das Machine Learning Tool Perspective nutz ML-Modelle, um die Wahrscheinlichkeit einzuschätzen wie schädlich ein Kommentar ist, indem es das Kommentar mir hundertausend anderen vergleicht. Dadurch ergeben sich für Medienunternehmen mehrere Möglichkeiten. So lassen sich Kommentare als schädlich markieren. Ein Moderator kann sich dann gezielt um diese kümmern. Der Schreiber kann aber auch schon während des Tippens darauf aufmerksam gemacht werden, dass er sich bei seinem Kommentar unpassender Sprache bedient. Und auch die Nutzer können Kommentare nach ihrer Schädlichkeit sortieren, um möglichst hilfreiche Kommentare zu finden. Das Tool befindet sich bei der New York Times in der Testphase.

Die Feinheiten der Emojis erforschen

Emojis sind im heutigen Chat-Sprachgebrauch nicht mehr wegzudenken und dementsprechend interessant auch für Forscher. Da Emojis aber je nach Kontext unterschiedliche Bedeutungen annehmen können, sind sie ähnlich wie natürliche Sprache selbst für Computer nicht einfach zu verstehen. Forscher der Wright State University (USA) haben deswegen ein maschinenlesbares Archiv für Emojis erstellt, dass Maschinen dabei helfen soll diese besser zu verstehen. Das so genannte EmojiNet steht anderen Forscher frei zur Verfügung.

Geschrieben von
Melanie Feldmann
Melanie Feldmann
Melanie Feldmann ist seit 2015 Redakteurin beim Java Magazin und JAXenter. Sie hat Technikjournalismus an der Hochschule Bonn-Rhein-Sieg studiert. Ihre Themenschwerpunkte sind IoT und Industrie 4.0.
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.