Sag mal... Erst kommt das Fressen, dann kommt die Moral

Machine Learning und Künstliche Intelligenz – die Sache mit dem Chihuahua

Niko Köbler, Carina Schipper

© Shutterstock / Jan Dix

Machine Learning und Künstliche Intelligenz sind gerade Thema. Das ist keine bahnbrechende Neuigkeit. Naheliegend, dass wir uns in dieser Ausgabe von „Sag mal…“ darüber unterhalten haben. Anders als sonst hat allerdings diesmal Niko die Fragen gestellt.
 
 

Es war einmal eine junge Redakteurin. Fasziniert von der IT im Allgemeinen und von Machine Learning und Künstlicher Intelligenz im Besonderen machte sie sich auf in neue Welten – kurz gesagt, ich besuchte die ML conference. Natürlich habe ich von der Konferenz viele neue Eindrücke, Information und was nicht noch alles mitgebracht. Am Telefon beim obligatorischen Kaffee habe ich mich Niko darüber unterhalten und ihm ganz begeistert davon erzählt. Was hat Niko gemacht? Fragen gestellt. War ja klar.

Niko: Ach, du warst auf einer „if-then-else“-Konferenz!?

Carina: Äh, ja nee, so kannst du das jetzt auch nicht sagen… Natürlich ist ML “if then else”, allerdings hört es damit noch nicht auf. In den ML-Kontext gehört viel mehr als “stupide” Mathematik. Aber fangen wir schön der Reihe nach an der Wurzel des Ganzen an. Für lernende Systeme brauchst du vor allem eines: Daten, Daten, Daten. Und dann natürlich auch noch Training. Wie ein Kind, das Lesen lernt, muss die Maschine üben. Übung macht ja bekanntlich den Meister. Was noch dazukommt, ist Lernen durch Erfahrung und da gehen wir schon ein kleines Schrittchen über “if then else” hinaus. Nehmen wir wieder das Kind als Beispiel. Du sagst einem Kind, die Herdplatte ist heiß, fass’ da lieber nicht drauf. Das Kind kann es nicht lassen und fasst trotzdem hin. Es merkt natürlich sofort eindeutig, was du mit heiß gemeint hast. Das Kind wird nie wieder auf eine heiße Herdplatte fassen. Es hat die Erfahrung (in diesem Fall negativ) gemacht, dass die Kombination aus heiß, Herdplatte und anfassen Schmerzen bedeutet.

Übertragen wir diese Analogie auf einen Roboter. Xander Steenbrugge hat in seiner Session das Beispiel eines Ping-Pong-Roboters gezeigt. Genauer gesagt ist es ein Roboterarm. In diesem Arm steckt ein Generative Adversarial Network (GAN).

Bevor ich dir erkläre, was dieses GAN tut, muss ich dir erst noch etwas zu Reinforcement Learning erzählen. Reinforcement Learning oder Bestärkendes Lernen kommt ursprünglich aus der Psychologie. Im Grunde dreht sich wieder alles um Lernen durch Erfahrung. Ein, nennen wir es mal Individuum bekommt ein Ziel. Allerdings kennt es nur das Ziel, nicht den oder die Wege dahin. Jede Aktion hat Konsequenzen – positive wie negative. Via Trial & Error lernt es solange, bis es sein Ziel erreicht. Zurück zu unserem Roboter. Wir lassen ihn gegen einen Menschen Tischtennis spielen. Am Anfang wird er ziemlich schlecht performen. Das GAN kann nur sehr begrenzt einschätzen, was der Gegner als nächstes tut. Mit der Zeit “lernt” es, welche Reaktionen funktionieren und welche nicht. Auf Basis der Erfahrungen, die unser Roboter gemacht hat – Training ist ALLES – wird er immer besser, bis er in der Lage ist, den nächsten Spielzug vorauszusehen.

Niko: Das ist ja alles schön und so eine Flugbahn eines Tischtennisballs ist auch recht gut berechenbar. Dennoch kann der Roboter nur das und auf die Weise “lernen”, wie der Entwickler des Roboters das implementiert hat. Es ist also immer noch der Mensch ausschlaggebend und das entscheidende Glied in der Kette. “Selbstlernend” wird hier keine Maschine. Eine Maschine wird auch nie intelligenter als der Mensch, der sie erschaffen hat. Das, was uns diverse Tatort-Folgen in der Vergangenheit lehren wollte, halte ich für pure Utopie. Oder kann der Tischtennis-Roboter auch das Gefühl “heiß” erfahren, wenn er über die Herdplatte rollt? Und woher weiß der Roboter, dass “heiß” ein negatives Gefühl ist? Ach so, Gefühle und Maschinen…. *seufz*

Carina: Klar, du kannst mich jetzt fragen, wie es mit intuitivem Wissen aussieht. Intuition fehlt Maschinen, daran wird kaum jemand zweifeln. Oder was ist mit Exploration vs Exploitation? Eine wirklich wasserdichte Antwort kann ich dir nicht geben. Auch die ML-Community sucht noch danach. Vergleichsweise steckt die Forschung auf diesem Terrain noch in den Kinderschuhen.

Niko: Wer suchet der findet! So lange der Anwendungsfall sehr klar strukturiert ist oder der “Lernprozess” mit strukturierten Daten gefüttert werden kann, ist das alles ja auch nicht das Problem. Hier ist dann eher die Herausforderung, die Algorithmen so effizient wie möglich zu gestalten, dass der Lernprozess schnell von statten geht und die Maschine dann entsprechend agieren kann. Wenn Google also merkt, dass zwei Mobiltelefone nachts regelmäßig nebeneinander liegen, das eine Telefon sich eines Tages plötzlich in einem Brautmodengeschäft einbucht, dann schickt es dem anderen Telefon dezent Hinweise auf Diamantringe, um dem vermeintlichen Partner den Weg zu einem potentiellen Antrag zu erleichtern. Gib doch aber bei Google in der Bildersuche mal die Suchbegriffe “Muffin” und “Chihuahua” ein und schaue Dir eines der Bilder nur ganz kurz an. Hierbei wird Dir auffallen, dass es für uns schon schwer zu erkennen ist (zumindest in der Kürze der Zeit), wer das Gebäck ist und wer der Hund. Maschinen versagen hier noch in schöner Regelmäßigkeit.

Python Summit 2018
Oz Tiram

Advanced Flow Control in Python

mit Oz Tiram (derico – web development & consulting))

Tischtennis spielende Roboter und andere “lernende” Algorithmen (Bild-/Gesichtserkennung, Fraud-Detection, etc.) sind ja ganz nett. Interessant und spannend wird es aber, wenn wir dieses ganze ML- und AI-Ding weiterdenken. Was ist denn, wenn diese “schlauen” Maschinen selbstständig agieren, so wie z.B. autonom fahrende Autos? Was ist, wenn die in einer Krisensituation Entscheidungen treffen müssen? Entscheidungen, die über Menschenleben entscheiden!? Woher weiß die Maschine, was “richtig” und was “falsch” ist? Doch nur daher, dass der Entwickler die Entscheidung getroffen hat (den Algorithmus implementiert hat), wie aus den historischen Daten “gelernt” wurde und wie diese Daten für die Zukunft anzuwenden sind. Ist da ein Fehler drin, und lassen wir mal die böse Absicht außen vor, streiten wir uns schnell über Verantwortung und Haftung. Wie entscheidet das selbstfahrende Auto, in dem eine 90-jährige Frau sitzt, wenn ein Unfall mit einem 3-jährigen Kind nicht abzuwenden ist und als Alternative das Kind zu überfahren, nur der Zusammenstoß mit einem Brückenpfeiler vorhanden ist, der so heftig sein wird, dass das Leben der Insassin gefährdet ist? Wessen Leben ist mehr wert? Und wer sagt den jeweiligen Angehörigen, dass es leider einen Unfall gegeben hat, an dem aber niemand schuld ist, weil es ja eine Maschine war?

Gibt es auf diese ethischen Fragen bereits Antworten? Oder beschäftigen sich die Entwickler damit? Und was tun die Entwickler von künstlicher Intelligenz, um Missbrauch ihrer Errungenschaften zu unterbinden? Die Technik wird ihren Gang gehen, da bin ich mir sicher. Interessanter ist aber doch, wie wir das in unseren Alltag integrieren können, wollen und aus ethischen Gesichtspunkten auch dürfen? Wir haben eine Verantwortung – uns und unserer Gesellschaft gegenüber, auch für die Zukunft!

Carina: Deine Fragen sind richtig und wichtig. Brückenpfeiler oder Kind? Welches Leben ist mehr “wert”? Die Frage ist ziemlich heiß. Ich habe sie mir auch schon gestellt. Sobald es um Ethik oder sogar Menschenleben geht, wird es kompliziert. Eine solche Frage lässt sich meiner Meinung nach nur extrem schwer bis gar nicht beantworten. Ich finde, dass wir uns damit auseinandersetzen müssen – auch und gerade Entwickler. Schau mal, ich sehe das so ähnlich wie Plastik. Plastik ist eine sehr nützliche Erfindung. Dummerweise haben wir uns damit nicht nur einen Gefallen getan. Wir haben die Kontrolle verloren und jetzt schwimmt das Zeug tonnenweise in unseren Weltmeeren herum. Es ist eben nicht biologisch abbaubar, wie es so schön heißt. Fische sterben an den winzigen Plastikresten. Das Ökosystem gerät aus dem Gleichgewicht und und und. In Sachen ML und KI sollten wir unsere Fehler nicht wiederholen und aufpassen wie ein Luchs. Im letzten “Sag mal…” haben wir über Security gesprochen. Sicherheit von Anfang an mitdenken. Wir sollten das auch in Bezug auf künstliche Intelligenz tun. Es wird sicherlich Leute geben, die diesen Bereich für ihre (bösartige) Zwecke nutzen wollen und werden. Ob sich das verhindern lässt? Ich bin mir nicht sicher, aber versuchen sollten wir es auf jeden Fall. Und wer eignet sich dafür besser als derjenige, der das System entwickelt? Natürlich ist ein zusätzliches Kontrollgremium sicherlich eine gute Idee.

Auf eine Frage kann ich allerdings schon eine Antwort geben: Werden die Roboter á la “I Robot” morgen die Weltherrschaft an sich reißen? Nein. Dazu empfehle ich ein Video vom Robocup 2016.

Alison Lowndes hat in ihrem Talk einen Satz gesagt, bei dem es mir wortwörtlich eiskalt den Rücken hinuntergelaufen ist: “AI is about augmenting ourselves.” Für mich bedeutet das, wir transportieren nicht nur unsere “guten” Eigenschaften, sondern auch die “schlechten” in eine Maschine. Da ist viel Vorsicht geboten. Ich denke, alles was wir tun können, ist die Diskussion nicht abreißen lassen. Wir müssen uns nicht nur fragen, wie ML und KI uns weiterbringen, sondern auch, wie sich das Ganze missbrauchen lässt. Der Mensch hat ein unglaubliches Talent, Fehler zu machen und sich selbst zu schaden. Ich sag’ nur Klimaerwärmung.

Niko: Ich bin da völlig bei Dir, aufpassen müssen wir von Anfang an. Aber wollen wir mal nicht alles so schwarzsehen. Das Thema “Künstliche Intelligenz” hat auch seine durchaus positiven Seiten. So stehen uns in der Medizin beispielsweise wesentlich mehr Daten zur Verfügung, als ein Arzt zu einem Zeitpunkt in seinem Kopf haben kann. Mit cleveren Algorithmen können diese Daten auf ein Krankheitsbild eines Patienten angewendet, viel schneller und in vielen Fällen auch deutlich genauer eine passende Diagnose samt auch im Einzelfall passender Behandlungsmethoden liefern. Im Bereich der Vorsorge und Früherkennung bekommen wir damit auch größere Chancen auf ein langes und beschwerdefreies Leben. In diesen Bereichen kann das durchaus sinnvoll sein.

Carina: Klar, gerade im Bereich der Medizin tut sich einiges. KI und ML haben uns dort ein ganz schönes Stück weitergebracht und werden es sicherlich noch tun. Schau doch mal auf die Diagnostik. Deep Learning hilft beispielsweise dabei, Symptome automatisch zu analysieren und eine Diagnose mit entsprechender, anschließender Therapie aufzustellen. Ich bin gespannt, wo die Reise in Sachen Machine Learning und Künstliche Intelligenz hingeht. Eins ist sicher: wir sind noch lange nicht am Ende. Es gibt noch viel zu entdecken. Zum Schluss habe ich dann doch immer ein Zitat im Hinterkopf. Bertholt Brecht hat einmal gesagt – lange bevor jemand ernsthaft an Dinge wie Deep Learning gedacht hat: „Erst kommt das Fressen, dann die Moral.“

Sag mal…
In der Reihe „Sag mal…“ kommentieren Java-Magazin-Redakteurin Carina Schipper und Software-Architekt Niko Köbler verschiedene Themen aus der Welt der Softwareentwicklung.
Geschrieben von
Niko Köbler
Niko Köbler
Niko Köbler ist freiberuflicher Software-Architekt, Developer & Trainer für Java & JavaScript-(Enterprise-)Lösungen, Integrationen und Webdevelopment. Er ist Co-Lead der JUG Darmstadt, schreibt Artikel für Fachmagazine und ist regelmäßig als Sprecher auf internationalen Fachkonferenzen anzutreffen. Niko twittert @dasniko.
Carina Schipper
Carina Schipper
Carina Schipper ist seit 2017 Redakteurin beim Java Magazin, Business Technology und JAXenter. Sie hat Germanistik und Europäische Ethnologie / Volkskunde an der Julius-Maximilians-Universität Würzburg studiert.
Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: