Gegen Diskriminierung durch die Maschine

Der Kampf gegen KI-Bias: Künstliche Intelligenz auf dem Prüfstand

Jan Wolter

© Shutterstock / ktsdesign

Der rasante Bedeutungszuwachs von KI bedeutet auch, dass die Technologie immer mehr Entscheidungen trifft, ohne dass wir diese hinterfragen. Ob bei Kreditbewilligungen, Bewerberauswahl oder Gesichtserkennungen – Unternehmen müssen heute mehr denn je sichergehen, dass ihre KI-Applikationen keinen Menschen diskriminieren. Damit das Risiko des KI-Bias – sprich der unbeabsichtigten Verzerrung von Entscheidungen durch künstliche Intelligenz – minimiert wird, müssen Entwickler eine Reihe von Dingen beachten.

Bias in KI-Applikationen – Verbreitung und Risiko

Künstliche Intelligenz hat längst Einzug in den Alltag von Millionen von Menschen gehalten und beeinflusst unzählige Bereiche unseres Lebens. Von Chatbots und intelligenter Empfehlungs-Funktionen in Video- und Audio-Diensten über Fahrassistenz-Systemen bis hin zur Krankheitsdiagnose weitet sich der Einsatz stetig aus. Und auch im Unternehmenskontext ist KI heute weit mehr als nur ein vorübergehender Trend. Laut einer aktuellen Bitkom-Studie ist jedes zweite deutsche Unternehmen mit mehr als 100 Mitarbeitern davon überzeugt, dass KI-gestützte Technologie der Schlüssel zur Sicherung der langfristigen Wettbewerbsfähigkeit ist. Doch obwohl die Technologie umfassende Vorteile mit sich bringt, birgt der Einsatz einige Gefahren. Auch dieses Bild zeichnete die genannte Studie. So sind zwei Faktoren, welche die rasche Einführung hemmen, die Komplexität sowie das fehlende Expertenwissen rund um künstliche Intelligenz. Wenn hier eine Black Box entsteht, steigt das Risiko, dass negative Auswirkungen vorurteilsbeladener Algorithmen nicht, beziehungsweise sehr spät, entdeckt werden. Das ist mehr als problematisch, denn einmal implementiert, lässt sich ein KI-Bias nur sehr schwer beheben. Gleichzeitig ist der Reputationsschaden für Unternehmen, die mangelhafte KI verwenden, oft dramatisch.

KI hat keine Gefühle, sie führt Befehle aus

Die schlechte Nachricht vorweg: Jede KI ist gebiased. Und das hat einen einfachen Grund: Sie wird von Menschen entwickelt und diese können niemals wertfrei agieren. Die Vorurteile von Entwicklern fließen damit automatisch in die Programmierung ein, egal ob beabsichtigt oder unbeabsichtigt. Doch wie genau kommt es in der Praxis zu einer Verzerrung? Dafür muss aus zwei Richtungen auf das Problem geblickt werden: Wie wird die KI entwickelt und warum? Das „Wie“ beschreibt den Entwicklungsprozess und beinhaltet zwei Aspekte nämlich den Algorithmus selbst und die Datenbasis, anhand der er trainiert wird. Bei der initialen Entwicklung des Algorithmus sollten Programmierer stets im Hinterkopf behalten, dass die Wahl des Ziel-Outputs nicht leichtfertig getroffen werden darf. Viele Unternehmen versuchen natürlich Algorithmen zu nutzen, um Prozesse effizienter zu gestalten und zu optimieren, damit beispielsweise der Gewinn maximiert wird. Doch wenn eine KI auf die diese Ziel hin programmiert wird, entsteht schnell ein „Maximierungs-Bias“, bei dem das Programm ohne Rücksicht auf Verluste die Kosteneffizienz verfolgt. Ein Szenario, das gerade im Gesundheitsbereich oder im Finanzwesen nicht nur Existenzen, sondern gar Leben kosten kann.

Somit ist die Zielerreichung, beziehungsweise der Weg, den der Algorithmus wählt, nicht zu unterschätzen. Viel entscheidender ist jedoch der Input, also die Variablen sowie die Proxies, mit denen der Algorithmus arbeiten soll. Besonders letztere stellen Entwickler oft vor eine Herausforderung, denn Proxies sind definitionsbedingt nicht genau quantifizierbar und werden durch Annahmen definiert. Das macht sie zu einem Risiko, wenn der Entwickler sein System nicht zu Ende denkt. Dann entstehen schnell technisch produzierte unbewusste Verzerrungen, die im Nachhinein nur sehr schwer zu erkennen sind. Ihren Ursprung haben solche Verzerrungen oft in der Annahme, dass es sie nicht gibt. Nehmen wir an, ein Unternehmen möchte ein Programm entwickeln, dass HR-Abteilungen beim Recruitment unterstützt, indem es die bestmöglichen Bewerber und Bewerberinnen auswählt. Da das Unternehmen sehr auf Diversität bedacht ist, wird die Entwicklungsabteilung angewiesen, weder die Variable „Geschlecht“ noch die Variable “Herkunft” zu verwenden. Dennoch schlägt das System am Ende hauptsächlich weiße Männer vor. Der Grund: Historische Unternehmensdaten, anhand derer Algorithmen häufig trainiert werden, verfügen in der Regel nicht über gleichmäßige Verteilungen. Zudem führen schlecht gewählte Proxies dazu, dass das System dennoch beispielsweise Frauen mit Migrationshintergrund als solche identifizieren kann. Das ist gemeint, wenn es heißt, dass ein Algorithmus beim oben genannten “Warum” nicht zum gewünschten Ergebnis kommt. Hierbei geht es darum, dass der Anwendungsfall und der Trainingsfall nicht matchen.

IoT Conference 2021
IT security camp

Machine Learning 101++ Using Python

With Dr. Pieter Buteneers

Software Architecture Summit

Warum viele Firmen den Kampf gegen KI-Bias verlieren

Das eben genannte Beispiel sollte deutlich gemacht haben, dass es viel zu oft nicht an den Algorithmen selbst liegt. Natürlich ist ein heterogenes Entwicklerteam von Vorteil, denn diverse Sichtweisen verbessern die Chance, dass Vorurteile homogener Gruppen nicht so stark ins Gewicht fallen. In den meisten Fällen ist das Hauptproblem jedoch die Quantität sowie Qualität der Daten, mit denen Algorithmen trainiert werden. Frei nach Clint Eastwood: „What you put in is what you get out“. Ist die Qualität des Inputs mangelhaft, kann man nicht erwarten, dass der Output großartig wird. Leider greifen Unternehmen meist auf die Daten zu, die gerade verfügbar sind, zum Beispiel Kundendaten. Doch diese werden weder in ausreichender Zahl noch mit allen benötigten Attributen vorgehalten. Zudem ist die dringend benötigte Varianz der Daten in der Regel nicht gegeben. Und selbst wenn entsprechend umfangreiche Datensätze vorliegen, bedeutet das noch nicht, dass sich diese auch verwenden lassen. Wenn Daten nicht in einem bereinigten und geeigneten Format vorliegen, liefert selbst der beste Datensatz der Welt keine korrekten, vorurteilsfreien Ergebnisse.

Schlüsselaspekte im Kampf gegen Bias

Entscheidend im Kampf gegen den Bias ist somit eine gute Datenstrategie für das Training. Das beginnt schon beim Zusammenführen der Daten, dem sogenannten ETL-Prozess (Extract, Transform, Load). Hierbei muss darauf geachtet werden, dass die Daten, die aus ERP- oder CRM-Systemen extrahiert werden, auf ein einheitliches Format transformiert und zusammen mit weiteren externen Daten des gleichen Formats in die Testumgebung überführt werden. In einem zweiten Schritt geht es um Cleaning & Labeling, also die korrekte Beschriftung sowie das Hinterlegen von für den Trainingszweck benötigten Anmerkungen. Außerdem müssen unbrauchbare Fremddaten sowie Duplicated Content entfernt werden. In diesem Schritt gilt es zudem, die Definition von Input- und Output-Variablen festzulegen. Danach geht es um den Feinschliff. Datensätze, die nicht über ausreichend Vielfalt verfügen, sollten zusätzlich angereichert, oder falls das nicht möglich ist, gewichtet werden, um Verzerrungen zu minimieren.

Die richtige Balance

Bei der Vorbereitung der Daten, vor allem beim Labeling sowie der Definition der Variablen, sollten Unternehmen darauf achten, die richtige Balance zu finden. Wie bereits oben beschrieben, lässt sich Bias nie ganz ausschließen, weder in technischen Systemen noch bei den Menschen, die sie erschaffen. Um Verzerrungen bei der Zieldefinition, statistische Voreingenommenheiten oder die Reproduktion von historisch gefestigten Vorurteilen möglichst gering zu halten, empfiehlt es sich daher, auf möglichst diverse Teams für die Input-Aufbereitung, die Entwicklung und das Testing des Outputs zu achten. Auf diese Weise kommen Unternehmen der „Ground Truth“, als dem Vergleich des KI-Outputs mit den realen Gegebenheiten, am nächsten.

Geschrieben von
Jan Wolter
Jan Wolter
Als VP und Geschäftsführer EU leitet Jan Wolter das Europageschäft für Applause und ist verantwortlich für den Ausbau des Unternehmens im europäischen Markt. Zuvor war er CEO und Mitgründer von testhub, dem deutschen Softwaretesting-Anbieter, der sich im Mai 2014 mit Applause zusammenschloss. Durch beide Aufgaben verfügt er über jahrelange Erfahrung in der Umsetzung und Skalierung innovativer Testing-Lösungen und über tiefe Einblicke in die rasanten Entwicklungen der App Economy.
Kommentare

Hinterlasse einen Kommentar

avatar
4000
  Subscribe  
Benachrichtige mich zu: