Interview mit Dr. Katleen Gabriels

„Algorithmen sind weder neutral noch wertfrei“

Melanie Feldmann

Gerade bei den Algorithmen des Maschinellen Lernens besteht die Gefahr, dass sich Wertungen und Gewichtungen einschleichen, die so nicht gewollt sind. Dr. Katleen Gabriels, Assistenzprofessorin an der Technischen Universität Eindhoven, plädiert dafür, dass jede Anwendung mit künstlicher Intelligenz einen Ethikkodex braucht. In Ihrer Keynote auf der MLCon wird welchen Stolperfallen sich für Entwickler auftun und wie man diese umgehen kann. Uns gab sie im Interview einen kleinen Vorgeschmack.

JAXenter: In deiner Keynote auf der MLCon wirst du über den Einfluss von Algorithmen auf unser tägliches Leben sprechen. Denkst du, dass der Einfluss von Algorithmen unter- oder überbewertet wird?

Katleen Gabriels: Der Einfluss wird eindeutig unterschätzt. Wir leben bereits in der Ära des Internets der Dinge, in der Algorithmen immer häufiger tagtäglich Entscheidungen für und über uns treffen. Algorithmen entscheiden bereits über unser Liebesleben in Dating-Apps und -Webseiten, über unsere möglichen Jobs, weil Firmen sie nutzen können, um unsere Lebensläufe zu scannen, und sogar vor Gericht.

Algorithmen entscheiden bereits über unser Liebesleben.

Oder denk zum Beispiel an „Recommender Engines“ wie die Suchmaschine von Google: Zahlreiche Menschen auf der ganzen Welt informieren sich täglich auf einer Plattform, auf der Algorithmen entscheiden, welche Informationen sie sehen oder nicht sehen werden. Und das Unternehmen hält die Algorithmen selbst geheim. Leider denken immer noch zu viele Leute, dass die Rangfolge der Ergebnisse darauf basiert, wie zuverlässig diese sind. Wir sollten das Bewusstsein für diese Thematik schärfen, nicht nur über Algorithmen, sondern auch über Suchmaschinenoptimierung, besonders in einer IoT-Ära mit  prädiktiven Technologien, die leicht unsere Autonomie auf unerwünschte Art und Weise verletzen können.

JAXenter: Du sagst, dass Algorithmen niemals völlig neutral sein können, weil ihre Entwickler niemals neutral sind. Welche Ratschläge kannst du Entwicklern geben, damit sie nicht in die Falle unerwünschten Einflusses geraten?

Die Art und Weise, wie man als Ingenieur eine Technologie entwirft, beeinflusst, wie Anwender sie nutzen können.

Katleen Gabriels: Dass diese Algorithmen weder neutral noch wertfrei sind, ist ein wesentlicher Ausgangspunkt. An der Technischen Universität Eindhoven, wo ich arbeite, müssen alle Studenten und damit zukünftige Ingenieure Ethikkurse absolvieren, zum Beispiel Ingenieurethik. Die Nicht-Neutralität der Technik ist ein wichtiger Bestandteil dieser Kurse. Die Art und Weise, wie man als Ingenieur eine Technologie entwirft, beeinflusst, wie Anwender sie nutzen können. Und das ist nur ein einfaches Beispiel, um zu verdeutlichen, dass es sich hierbei nicht um einen neutralen Prozess handelt. Was die Algorithmen betrifft, so gibt es eine Vielzahl von Beispielen, die zeigen, wie menschliche Vorurteile in sie hineingeraten können, zum Beispiel rassistische Profilerstellung in der Pre-Kriminalitäts-Methodik. Auch hier ist es wichtig, das Bewusstsein zu schärfen.

JAXenter: Ein Beispiel für ML, das schiefgegangen ist, ist der Chatbot Tay, der schnell anfing, unangemessene Dinge im Internet zu sagen. Glaubst du, dass künstliche Intelligenz eine Art moralische Leitlinie braucht?

Sehen Sie auch: Grundlagen der Spracherkennung: So funktionieren Alexa, Cortana, Siri & Co.

Katleen Gabriels: Definitiv! Und Microsoft hätte dies vor der Veröffentlichung von Tay auf Twitter berücksichtigen sollen. Es gibt einige positive Entwicklungen: Google zum Beispiel hat eine Ethikkommission zum Thema AI. Eine moralische Leitlinie oder ein Ethikkodex sollte aber Teil einer umfassenden öffentlichen Debatte sein und nicht nur im Unternehmen, in der Wissenschaft oder in der Fachwelt: Wir als Gesellschaft müssen gemeinsam über wünschenswerte und unerwünschte Entwicklungen nachdenken.

JAXenter: Wo siehst du das größte Potenzial für den positiven Einsatz von Künstlicher Intelligenz?

Katleen Gabriels: Ich begrüße die technologische Entwicklung und Innovation, aber dieser Fortschritt sollte mit ethischen Fortschritt – oder zumindest nicht dem Verfall – Hand in Hand gehen. Und das geschieht nicht automatisch. Wir müssen wirklich hart arbeiten, um das zu erreichen. Künstliche Intelligenz kann Menschen auf so viele positive Weisen unterstützen, dass es schwierig ist, nur ein Beispiel zu wählen. Um ein ganz allgemeines Beispiel zu nehmen: Die Künstliche Intelligenz bietet ein großes Potenzial für die Gesundheitsversorgung, zum Beispiel bei der Analyse komplexer Daten.

JAXenter: Vielen Dank für das Gespräch!

Dr. Katleen Gabriels ist Assistenzprofessorin an der Technischen Universität Eindhoven (Niederlande). Ihr Spezialgebiet ist die Computerethik. Im Jahr 2016 erschien ihr Buch „Onlife“, in dem sie die Potenziale und Fallstricke des Internet der Dinge, der Digitalisierung und von Big Data analysiert. Katleen ist ein gewähltes Mitglied des Lenkungsausschusses von Ethicomp, der internationalen Organisation für Computerethik.
Geschrieben von
Melanie Feldmann
Melanie Feldmann
Melanie Feldmann ist seit 2015 Redakteurin beim Java Magazin und JAXenter. Sie hat Technikjournalismus an der Hochschule Bonn-Rhein-Sieg studiert. Ihre Themenschwerpunkte sind IoT und Industrie 4.0.
Kommentare

Hinterlasse einen Kommentar

2 Kommentare auf "„Algorithmen sind weder neutral noch wertfrei“"

avatar
400
  Subscribe  
Benachrichtige mich zu:
Dieter
Gast

Algorithmen sind weder neutral noch wertfrei
Doch genau das sind Sie, nur die Daten (Realität) nicht.

Lernt man in Computerethik auch, wie maschinelles Lernen funktioniert oder redet man einfach so darüber?

TJ
Gast
Das Problem dieses Artikels ist, dass der Begriff Algorithmus falsch verwendet wird. Es sind bei Google nicht Algorithmen, die darüber entscheiden, wer welche Informationen zu sehen bekommt. Eine KI entscheidet das. Algorithmen bestimmen lediglich, wie eine KI Realdaten verarbeitet, nachdem sie mit Test- und Realdaten trainiert wurde. Für Algorithmen lässt sich Korrektheit beweisen – für eine KI nicht. Und wenn eine KI dann handelt wie Microsofts Tay, dann lässt sich das auf Training mit falschen Daten zurückführen. Eine KI kann ebenso wie ein Mensch in Daten Korrelationen erkennen und einem Trugschluss über Ursache und Wirkung auf den Leim gehen. Ja,… Read more »