Interview mit Bernd Fondermann

„Wir sehen Anzeichen dafür, dass Machine-Learning-Systeme eigenen kreativen Output liefern“

Hartmut Schlosser

Bernd Fondermann

Die Künstliche Intelligenz hat einst viel versprochen, aber wenig gehalten. Nun schickt sich die Bewegung unter dem Banner des Machine Learning/Deep Learning mit neuen Ansätzen an, Maschinen zu intelligenten, lernenden Maschinen zu machen. Im Experten-Interview haben wir Bernd Fondermann gefragt, wo die Unterschiede zwischen KI und Deep Learning liegen, welche Rolle TensorFlow im ML-Kontext spielt, und was noch fehlt, um wirklich in neue Bereiche vorzustoßen.

KI – das aufgekratzte Kind mit den Flausen im Kopf

JAXenter: Die Bewegung der „Künstlichen Intelligenz“ ist in den 50ern mit großen Versprechungen gestartet – doch spätestens in den 90ern machte sich eine gewisse Ernüchterung breit, da wenige der Versprechen eingehalten wurden. Du beschreibst die KI in deinem Artikel TensorFlow: Der Weg des maschinellen Lernens gar als „das aufgekratzte Kind mit den Flausen im Kopf, das am Ende nichts zustande brachte.“ Warum brachte es denn eigentlich nichts zustande?

Der Name „Künstliche Intelligenz“ hat Illusionen geweckt, die nicht zu erfüllen waren.

Bernd Fondermann: Das passende Stichwort ist wohl „schlechtes Erwartungsmanagement“. Der Name „Künstliche Intelligenz“ hat Illusionen geweckt, die damals nicht zu erfüllen waren. Und das alles in einer Zeit, als PCs noch exotische, schwer zu bediendende Maschinen waren und Mobiltelefon oder RasperryPi sich niemand vorstellen konnte. Auch die hochtrabenden Ankündigungen des im Januar verstorbenen KI-Forschers Marvin Minsky haben dazu beigetragen. Ich habs eher mit dem alten Berliner Joseph Weizenbaum gehalten (Buchtipp: Die Macht der Computer und die Ohnmacht der Vernunft), der ebenfalls wie Minsky am MIT gearbeitet hat und etwas zurückhaltender war.

Der Begriff „Intelligenz“ war also unglücklich gewählt, vielleicht wäre „Kognition“, also der Prozess des Verstehens, besser gewesen. Jeder versteht unter „Intelligenz“ etwas anderes. Und wenn man das mal aufdröselt, dann besteht Kognition u.a. aus Wahrnehmung, Lernen, Orientierung und Problemlösen, aber eben auch aus Planen, Kreativität, Glauben und dem Willen. Soweit waren diese System lange nicht.

JAXenter: Nun wurde KI durch Deep-Learning-Systeme ergänzt. Wo genau liegt der Unterschied?

Bernd Fondermann: Man weiß heute viel besser als damals, wie Kognition im Menschen eigentlich abläuft. Also kann man das auch nachbilden. Wenn der Mensch ein Bild sieht, dann werden mehrere Stufen des Verstehens hintereinander durchlaufen, jede Stufe bekommt als Eingabe die Ausgabe der vorhergenden. Dafür braucht man sehr viel Rechenkapazität. Die haben wir in großer Menge bei uns im Kopf in Form der Neuronen und Synapsen. Aber es gibt eben seit einigen Jahren auch Grafikkarten mit hunderten und tausenden von Rechenkernen. Und darauf laufen die Gehirn-Nachbauten von Deep-Learning besonders effektiv.

„Kreative“ Maschinen

JAXenter: Du schreibst in deinem Artikel, es lassen sich mit Deep-Learning-Systemen beeindruckende, teilweise aber auch verstörende Ergebnisse erzielen. Kannst du einige Beispiele nennen?

Wir sehen die Anzeichen dafür, dass Machine-Learning-Systeme langsam eigenen „kreativen“ Output liefern.

Bernd Fondermann: Eigentlich will man dem Neuronalen Netz ein Bild geben und bekommt als Antwort zum Beipiel: „Katze!“ Wenn man mit diesen Systemen aber ein bisschen spielt, nimmt man den Output der Zwischenergebnisse und steckt sie vorne wieder rein. Man fängt mit einem unschuldigen Bild des Wolkenhimmels an, und mit jedem Durchlauf formen sich Strukturen aus, die das Neuronale Netz zu erkennen glaubt. So als läge man auf einer Wiese und erkenne in den Wolken irgendwelche Tiere. (mehr dazu hier und hier).

Ein anderes Experiment läßt ein neuronales Netz, welchem man Bilder von Schlafzimmern gefüttert hat, „kreativ“ sein, indem man es Bilder von „ausgedachten“ Schlafzimmern erzeugen läßt. Etwas anschaulicher ist das Beispiel, wo ein neuronales Netz mit Porträtbildern von Männern mit sowie ohne Brille gefüttert wird. Anschließend ist das System in der Lage, Frauengesichtern eine Brille hinzuzufügen (mehr dazu hier).

Ähnlich gelagert sind die computergenerierten Geräusche, die so gut zu einem audio-losen Video generiert werden, dass Menschen den Unterschied nicht erkennen (mehr dazu hier).

Das heißt, wir sehen die Anzeichen dafür, dass solche Systeme langsam eigenen „kreativen“ Output liefern, statt wie bisher immer nur unsere naiven Fragen zu beantworten, wie: Was erkennst Du auf diesem Bild?

JAXenter: Welche Rolle spielt TensorFlow im Bereich Deep Learning? Welche Lücke schließt es aus deiner Sicht?

Bernd Fondermann: Als Open-Source-Projekt liefert TensorFlow ein für jeden Entwickler barrierefreies Framework, um selber Deep Learning auszuprobieren. Man würde vielleicht in diesem Bereich eher Hürden erwarten wie Closed Source, Lizenz- und Patentkosten.

TensorFlow bettet sich mit seinem Python-Frontend sehr gut in die Machine-Learning- und Data-Analysis-Community ein. Es hat den besonderen Vorteil, sowohl auf CPUs als auch GPUs zu laufen, auf einem einzelnen Rechner oder verteilt im Cluster. Damit ist es sehr hybrid und zukunftssicher. Google baut sogar eigene Chips, die für TensorFlow optimiert sind, sogenannte TPUs, die wohl auch beim Sieg von AlphaGo gegen den menschlichen Spieler zum Einsatz kamen.

Lesen Sie auch: TensorFlow: Der Weg des maschinellen Lernens

Doch die Vorteile gehen bis in die Tool-Chain hinein: TensorFlow lässt sich über eine „TensorBoard“ genannte Oberfläche bei der Arbeit zusehen bis hin zur Visualisierung des Verarbeitungs-Graphen. Ist das Modell fertig trainiert, kann man es abspeichern und z.B. unter Android laden und verwenden.

Ein Beispiel dafür ist das word2vec-Modell, welches von Google auf Basis von 100 Milliarden Wörtern erstellt wurde und jetzt Open Source ist. An dieses Modell lassen sich Fragen stellen wie: „Mensch + Roboter“ und das Modell antwortet mit „Cyborg“. Oder: „Katze verhält sich zu Katzenjunges wie Hund zu…?“ und das Modell antwortet mit „Welpe“.

Mit Deep Learning in die Zukunft

JAXenter: Was sind aus deiner Sicht noch spannende Projekte im Bereich Deep Learning? Die Großen der Internet-Welt sind da ja gerade dabei, ihre eigenen Systeme an den Start zu bekommen: Facebook, Amazon, Google, Microsoft – und da sind natürlich noch die Spracherkennungen von Apples Siri, Microsofts Cortana, etc.

Bernd Fondermann: Spannend finde ich vor allem, wie gut die Ergebnisse sind, die man selber mit wenig Einsatz bekommen kann. Kollegen von mir haben an einem Wochenende ein NN trainiert, welches schneller bessere Resultate als die klassischen Bilderkennungsalgorithmen lieferte. Und die sind ja auch schon ganz gut.

JAXenter: In deinem Artikel schreibst du, Deep-Learning-Netzwerke stehen heute noch am Anfang. Was fehlt noch, um wirklich in neue Bereiche vorzustoßen?

Vielleicht löst man sich ja vom menschlichen Gehirn und macht einen Sprung zu besseren Architekturen.

Bernd Fondermann: Mehr Rechenpower und mehr Erfahrung mit diesen Systemen. Ernsthaft wird das ja gerade erst seit wenigen Jahren betrieben. Spekulation ist da eher unseriös, genauso wie Zeitangaben. Vielleicht löst man sich ja vom menschlichen Gehirn und macht einen Sprung zu besseren Architekturen, auf die der Mensch aufgrund der Kürze der bisherigen Evolution bei seinem eigenen Gehirn noch nicht gekommen ist.

JAXenter: Vielen Dank für dieses Interview!

fondermann_berndBernd Fondermann ist freier Softwareentwickler und hat eine Schwäche für verteilte Systeme und Datenspeicher, die ohne SQL abgefragt werden können. Er ist Member der Apache Software Foundation und versucht, mit der Vielzahl der Incubator-Projekte dort schrittzuhalten.

.

Verwandte Themen:

Geschrieben von
Hartmut Schlosser
Hartmut Schlosser
Content-Stratege, IT-Redakteur, Storyteller – als Online-Teamlead bei S&S Media ist Hartmut Schlosser immer auf der Suche nach der Geschichte hinter der News. SEO und KPIs isst er zum Frühstück. Satt machen ihn kreative Aktionen, die den Leser bewegen. @hschlosser
Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: