Suche
Maschinelles Lernen und Künstliche Intelligenz

Der Maschine Moral beibringen

Melanie Feldmann
shutterstock_176186954

© Shutterstock / didesign021

Künstliche Intelligenz und Autonome Systeme agieren nicht im leeren Raum. Sie werden aktiver Teilnehmer unserer Gesellschaft. Dementsprechend wichtig ist es, bei der Entwicklung dieser Systeme moralische Gesichtspunkte nicht aus den Augen zu verlieren. Um Ingenieuren und Entwicklern dabei zu unterstützen, hat das IEEE Richtlinienpapier herausgegeben.

Der Bericht “Ethically Aligned Design: A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous Systems” des IEEE – das Institute of Electrical and Electronics Engineers ist ein weltweiter Berufsverband von Ingenieuren – soll Ingenieure und Entwickler ermutigen ethische Überlegungen in ihren Designprozess für autonome und intelligente Technologien einzubeziehen. Er ist das erste Ergebnis der IEEE-Initiative Ethical Considerations in Artificial Intelligence and Autonomous Systems. Die verschiedenen Komitees der Initiative haben über hundert Experten aus den Feldern Künstliche Intelligenz, Philosophie, Politik, Recht und anderen verwandten Bereichen befragt. Das übergreifende Ziel soll sein, möglichst viele Stimmen aus den Communitys rund um Autonome Systeme und Künstliche Intelligenz zusammen mit Meinungen und Kommentare aus der breiten Öffentlichkeit zu sammeln, um so einen Konsens zu ethischen Fragen abzubilden und Empfehlungen auszusprechen. Ein Langzeitziel ist es, so auch die Basis für kommende IEEE-Standards zu entwicklen. Konstantinos Karachalios, Managing Director der IEEE Standard Association, kommentiert: “By providing technologists with peer-driven, practical recommendations for creating ethically aligned autonomous and intelligent products, services, and systems, we can move beyond the fears associated with these technologies and bring valued benefits to humanity today and for the future.”

Menschliches Wohl priorisieren

Das 136-Seiten Dokument startet mit einer generellen Einführung über die Prinzipien des Dokuments und wird dann spezifischer. Ein Thema ist, wie man Werte in Autonome Intelligente Systeme implementiert. Eine Diskussion, die vor allem rund um autonome Fahrzeuge geführt wird, wenn es beispielsweise darum geht, ob das Auto den Tod seiner Insassen riskieren soll, um einen Fußgänger zu retten. Aber auch Grundlegendes wird angesprochen. Methoden für ethische Forschung und ethisches Design werden vorgestellt, die im Endeffekt dafür sorgen sollen, dass die Maschine dem Menschen dient und nicht umgekehrt. Das Maschinen aber auch dafür entwickelt werden Menschen zu schaden, behandelt das Dokument in einem Kapitel über Autonome Waffensysteme. Diese wird man nicht komplett verbietet können, deswegen rät der Bericht dazu Menschen als Kontrollinstanz nicht abzuschaffen und das Audits dafür sorgen soll, das Rechenschaft für Fehlverhalten der Systeme abgegeben wird. Auch die Datenhoheit von Individuen wird behandelt. In Zukunft sollen Mechanismen geschaffen werden, die es dem Einzelnen erlauben seine Daten zu definieren, zu managen und auch den Zugriff darauf zu erlauben und zu überwachen.

Das IEEE  lädt zu dieser ersten Version des Richtlinienpapiers zu Feedback bis zum 6. März 2017  ein. Eine Submission Guidline erklärt wie es geht. Alle Kommentare werden öffentlich zugänglich gemacht. Der Bericht selbst steht unter einer Creative-Commons-Lizenz, die kommerziellen Nutzen ausschließt.

Geschrieben von
Melanie Feldmann
Melanie Feldmann
Melanie Feldmann ist seit 2015 Redakteurin beim Java Magazin und JAXenter. Sie hat Technikjournalismus an der Hochschule Bonn-Rhein-Sieg studiert. Ihre Themenschwerpunkte sind IoT und Industrie 4.0.
Kommentare

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht.