Die umfangreichen Erforschungen und Weiterentwicklungen des maschinellen Lernens bis hin zu künstlicher Intelligenz, werfen verstärkt ethische Frage auf. In einem Expert*innengespräch wurde den Fragestellungen nachgegangen, welche ethischen und regulatorischen Fragen sich jetzt schon in diesem Kontext stellen, welche absehbar und welche ferne Zukunftsmusik sind? Wie eine Regulation aussehen kann und auf welchen Ebenen – lokal, national, global – sie ansetzen muss? Welche Bereiche können der Selbstregulation überlassen werden und wo sind externe und staatliche Kontrollen unumgänglich? Ein erstes Ziel war es, eine Einschätzung über die Art und den Umfang der ethischen Fragen und über mögliche Instrumente zu ihrer Beantwortung zu erlangen.

Algorithmen, Intelligenz und Lernen

Der aktuelle Hype um das Thema Künstliche Intelligenz resultiert auch aus einer Überschätzung der technischen Möglichkeiten, welche durch diese Technologien in absehbarer Zukunft realisierbar erscheinen. Insbesondere die Definitionsproblematik der Begriffe Algorithmen, maschinelles Lernen und künstliche Intelligenz, sorgen für interdisziplinäre Schwierigkeiten, wenn es darum geht, ethische Fragen zielgerichtet zu diskutieren.

Die derzeit praktizierten Methoden des maschinellen Lernens sind noch weit von künstlicher Intelligenz entfernt. Algorithmen, die mit statistischen Datenbanken verknüpft werden und so „Erfahrungswerte lernen“ (maschinelles Lernen), können nur Rückschlüsse aus vorhandenen und vergangenen Daten ziehen.

„Eine starke KI als zumindest denkbares Szenario stellt die Grundfragen des Mensch-Seins auf eine neue Diskussionsebene.“ – Gerold Lehner

Durchaus revolutionäres Potenzial hat die Methode des „reinforcement learnings“ oder „deep learnings“, bei dem ein Programm durch zielgerichtetes Ausprobieren selbstständig die beste Lösung für eine gestellte Aufgabe erlernen soll. Ein Beispiel hierfür ist das Programm „AlphaGo“, das entwickelt wurde, um das Brettspiel Go besser als jeder Mensch zu spielen – was in relativ rascher Zeit auch gelang.

Doch ab wann und auf welchen Ebenen braucht es gesetzliche Regelungen, wie ein KI-System in bestimmten Situationen zu entscheiden hat? Dies ist eine wesentliche Frage, auch um Rechtssicherheit für die zukünftige Entwicklung neuer Programme und Anwendungen zu ermöglichen. In dieser Diskussion spielen ethische Gesichtspunkte eine wichtige Rolle.

Das Dilemma mit den Dilemmas

In diesem Zusammenhang werden seit wenigen Jahren „Dilemma-Situationen“ vermehrt in die Diskussion eingebracht. Diese entsprechen relativ unwahrscheinlichen Situationen, in denen etwa ein autonomes Fahrzeug in einer unvermeidbaren Unfallsituation entscheiden müsste, in welche Richtung es lenkt. Das Dilemma entsteht, da das Fahrzeug in jeder der möglichen Richtungen Menschen töten würde. Welche Entscheidung soll das Fahrzeug in dieser Situation treffen? (Hier ein Beitrag der sich näher mit dem Thema beschäftigt).

Eine auch für den Menschen ethisch unlösbare Frage. Und: das Fahrzeug wird in der Realität mit hoher Sicherheit überhaupt gar nicht in eine solche Situation kommen. Derartige Beispiele werden daher heute bereits als eher nebensächlich bewertet.

„Solange der Mensch nicht beantworten kann, wie man sich in einer Situation verhalten sollte, sollte man das auch nicht von einer KI erwarten.“
– Bernhard Nessler

Dilemmasituationen verdeutlichen jedoch, dass auch KI-Systeme nicht unbegrenzte Fähigkeiten haben. Denn gerade in der totalen Überschätzung der Möglichkeiten dieser Systeme liegt eine der Problematiken im Umgang mit ihnen.

Macht KI keine Fehler?

Eine zentrale Frage lautet, wie viel Fehlerhaftigkeit will die Gesellschaft bei KI-Systemen, die praktisch angewendet werden, zulassen? Was ist das erlaubte Risiko, dass Unternehmen eingehen dürfen, wenn sie ein neues KI-System auf den Markt bringen? Diese Frage wird in nächster Zeit intensiv zu diskutieren sein.

„Innovation braucht Rechtssicherheit.“
– Karin Bruckmüller

Ein Beispiel hierfür wäre der Versuch Amazons, einem KI-Programm die Auswahl neuer Mitarbeiter*innen zu überlassen. Die Zielvorgabe war, Menschen auszuwählen, die möglichst gut ins Unternehmen passen und langfristig Erfolg haben würden. Als Trainingssatz, aus dem das Programm für diese Aufgabe lernen sollte, erhielt es Daten zu den Bewerbungen und Karrieren bisheriger Mitarbeiter*innen. Schon bald stellte das Programm jedoch nur noch Männer ein. Es hatte aus den Daten abgelesen, dass Männer die besten Karrierechancen im Unternehmen hatten und rückgefolgert, dass Frauen keine geeigneten Mitarbeiter*innen sind. Amazon stellte den Versuch wieder ein und hat bis heute scheinbar keine Lösung für das Problem gefunden.

„Ab wann und wo soll der Staat regulierend einwirken. Das ist eine entscheidende Frage.“
– Michael Fuchs

Das Beispiel zeigt, dass KI-Systeme, wenn sie mit schlechten Datensätzen trainiert werden, bereits bestehende diskriminierende Phänomene übernehmen und anwenden. Daraus erschließt sich die Frage, wie verhindert werden kann, dass KI-Systeme bestehende gesellschaftliche Vorurteile übernehmen und auch in Zukunft festschreiben? Eine Lösung könnte etwa in einer einprogrammierten positiven Diskriminierung von Minderheiten liegen. Doch zuvor müsste den Entwickler*innen überhaupt erst eine in der Realität bestehende Diskriminierung bewusst sein.

Eine höhere Sensibilität bei der Definition von Zielvorgaben für KI-Systeme und bei der Auswahl der Trainingsdaten für das System wird eine der Lösungen für die Zukunft sein. Zusätzlich müssten die allgemeinen Entscheidungsgrundlagen, aufgrund derer eine KI entscheidet, von der KI rückgemeldet werden. Die KI muss sich also selbst erklären können.

Die Diskussion fängt gerade erst an

Damit Zielvorgaben aber besser definiert werden können, muss zuvor ein gesellschaftlicher und politischer Konsens darüber entstehen, welche ethischen Probleme, wie gelöst oder unterschiedlich gewichtet werden sollen. Nur so können Entwickler*innen von KI-Systemen diese Prinzipien auch klar in ihre Programme einschreiben.

 „Die Lösung kann nur ein dauerhafter Dialog sein.“
– Ulrich Meyer

Diese Diskussionen werden derzeit auch auf allen Ebenen geführt. Wie Ergebnisse der Expert*innengespräche zu den ethischen Prinzipien der EU-Kommission und der OECD zeigen, sind diese jedoch noch relativ oberflächlich. Eine der Anregungen aus dem Expert*innengespräch ist daher auch die Empfehlung zur Gründung eines dauerhaften Ethikrates zur Diskussion ethischer Fragen von Künstlicher Intelligenz. Dieser muss sowohl aus Ethiker*innen, Jurist*innen und Informatiker*innen bestehen, um rasch auf neue Fortschritte reagieren zu können. Konkret könnte dieser etwa an der JKU im Rahmen des LIT (Linz Institute of Technology) im „Lab for Digital Transformation and Law“ angesiedelt werden.

Empfehlungen der Teilnehmer*innen:

  • Installation eines dauerhaften Ethikrates zur Diskussion ethischer Fragen von Künstlicher Intelligenz, besetzt aus Entwicklern, Juristen und Ethikern
  • Sensibilisierung für die Problematiken der Definition von Zielfunktionen bei KI-Systemen
  • Sensibilisierung für die Problematiken der Auswahl der Datenbasis für das Training von KI-Systemen

Am Expertengespräch haben teilgenommen:

Dr. Karin Bruckmüller, JKU Linz | Institut für Strafrechtswissenschaften
Univ.-Prof. Dr. Michael Fuchs, Katholische Privatuniversität Linz | Institut für Praktische Philosophie / Ethik
Dr. Gerold Lehner, Evangelischen Kirche A. B. in Oberösterreich
Dr Ulrich Meyer, TU München | Munich Center for Technology in Society
DI Dr. Bernhard Nessler, JKU Linz | Institut für Bioinformatik
Dr. Claudia Schwarz, ACADEMIA SUPERIOR
Assoz. Univ.-Prof Dr. Helga Wagner, JKU Linz | Institut für Angewandte Statistik

Predictive Futures – Die Vermessung der Zukunft

Im Rahmen des Jahresschwerpunktes auf „gesellschaftliche Folgen der Entwicklung von Künstlicher Intelligenz“ organisiert ACADEMIA SUPERIOR mehrere Expert*innengespräche. Die Gesprächsrunde „Veränderte Kommunikation“ wurde in Kooperation mit dem Institut für Praktische Philosophie / Ethik der Katholischen Privatuniversität Linz organisiert.