Die umfan­gre­ichen Erforschun­gen und Weit­er­en­twick­lun­gen des maschinellen Ler­nens bis hin zu kün­stlich­er Intel­li­genz, wer­fen ver­stärkt ethis­che Frage auf. In einem Expert*innengespräch wurde den Fragestel­lun­gen nachge­gan­gen, welche ethis­chen und reg­u­la­torischen Fra­gen sich jet­zt schon in diesem Kon­text stellen, welche abse­hbar und welche ferne Zukun­ftsmusik sind? Wie eine Reg­u­la­tion ausse­hen kann und auf welchen Ebe­nen – lokal, nation­al, glob­al – sie anset­zen muss? Welche Bere­iche kön­nen der Selb­streg­u­la­tion über­lassen wer­den und wo sind externe und staatliche Kon­trollen unumgänglich? Ein erstes Ziel war es, eine Ein­schätzung über die Art und den Umfang der ethis­chen Fra­gen und über mögliche Instru­mente zu ihrer Beant­wor­tung zu erlan­gen.

Algorithmen, Intelligenz und Lernen

Der aktuelle Hype um das The­ma Kün­stliche Intel­li­genz resul­tiert auch aus ein­er Über­schätzung der tech­nis­chen Möglichkeit­en, welche durch diese Tech­nolo­gien in abse­hbar­er Zukun­ft real­isier­bar erscheinen. Ins­beson­dere die Def­i­n­i­tion­sprob­lematik der Begriffe Algo­rith­men, maschinelles Ler­nen und kün­stliche Intel­li­genz, sor­gen für inter­diszi­plinäre Schwierigkeit­en, wenn es darum geht, ethis­che Fra­gen ziel­gerichtet zu disku­tieren.

Die derzeit prak­tizierten Meth­o­d­en des maschinellen Ler­nens sind noch weit von kün­stlich­er Intel­li­genz ent­fer­nt. Algo­rith­men, die mit sta­tis­tis­chen Daten­banken verknüpft wer­den und so „Erfahrungswerte ler­nen“ (maschinelles Ler­nen), kön­nen nur Rückschlüsse aus vorhan­de­nen und ver­gan­genen Dat­en ziehen.

„Eine starke KI als zumin­d­est denkbares Szenario stellt die Grund­fra­gen des Men­sch-Seins auf eine neue Diskus­sion­sebene.“ – Gerold Lehn­er

Dur­chaus rev­o­lu­tionäres Poten­zial hat die Meth­ode des „rein­force­ment learn­ings“ oder „deep learn­ings“, bei dem ein Pro­gramm durch ziel­gerichtetes Aus­pro­bieren selb­st­ständig die beste Lösung für eine gestellte Auf­gabe erler­nen soll. Ein Beispiel hier­für ist das Pro­gramm „Alpha­Go“, das entwick­elt wurde, um das Brettspiel Go bess­er als jed­er Men­sch zu spie­len – was in rel­a­tiv rasch­er Zeit auch gelang.

Doch ab wann und auf welchen Ebe­nen braucht es geset­zliche Regelun­gen, wie ein KI-Sys­tem in bes­timmten Sit­u­a­tio­nen zu entschei­den hat? Dies ist eine wesentliche Frage, auch um Rechtssicher­heit für die zukün­ftige Entwick­lung neuer Pro­gramme und Anwen­dun­gen zu ermöglichen. In dieser Diskus­sion spie­len ethis­che Gesicht­spunk­te eine wichtige Rolle.

Das Dilemma mit den Dilemmas

In diesem Zusam­men­hang wer­den seit weni­gen Jahren „Dilem­ma-Sit­u­a­tio­nen“ ver­mehrt in die Diskus­sion einge­bracht. Diese entsprechen rel­a­tiv unwahrschein­lichen Sit­u­a­tio­nen, in denen etwa ein autonomes Fahrzeug in ein­er unver­mei­d­baren Unfall­si­t­u­a­tion entschei­den müsste, in welche Rich­tung es lenkt. Das Dilem­ma entste­ht, da das Fahrzeug in jed­er der möglichen Rich­tun­gen Men­schen töten würde. Welche Entschei­dung soll das Fahrzeug in dieser Sit­u­a­tion tre­f­fen? (Hier ein Beitrag der sich näher mit dem The­ma beschäftigt).

Eine auch für den Men­schen ethisch unlös­bare Frage. Und: das Fahrzeug wird in der Real­ität mit hoher Sicher­heit über­haupt gar nicht in eine solche Sit­u­a­tion kom­men. Der­ar­tige Beispiele wer­den daher heute bere­its als eher neben­säch­lich bew­ertet.

„Solange der Men­sch nicht beant­worten kann, wie man sich in ein­er Sit­u­a­tion ver­hal­ten sollte, sollte man das auch nicht von ein­er KI erwarten.“
– Bern­hard Nessler

Dilem­m­a­sit­u­a­tio­nen verdeut­lichen jedoch, dass auch KI-Sys­teme nicht unbe­gren­zte Fähigkeit­en haben. Denn ger­ade in der total­en Über­schätzung der Möglichkeit­en dieser Sys­teme liegt eine der Prob­lematiken im Umgang mit ihnen.

Macht KI keine Fehler?

Eine zen­trale Frage lautet, wie viel Fehler­haftigkeit will die Gesellschaft bei KI-Sys­te­men, die prak­tisch angewen­det wer­den, zulassen? Was ist das erlaubte Risiko, dass Unternehmen einge­hen dür­fen, wenn sie ein neues KI-Sys­tem auf den Markt brin­gen? Diese Frage wird in näch­ster Zeit inten­siv zu disku­tieren sein.

„Inno­va­tion braucht Rechtssicher­heit.“
– Karin Bruck­müller

Ein Beispiel hier­für wäre der Ver­such Ama­zons, einem KI-Pro­gramm die Auswahl neuer Mitarbeiter*innen zu über­lassen. Die Zielvor­gabe war, Men­schen auszuwählen, die möglichst gut ins Unternehmen passen und langfristig Erfolg haben wür­den. Als Train­ingssatz, aus dem das Pro­gramm für diese Auf­gabe ler­nen sollte, erhielt es Dat­en zu den Bewer­bun­gen und Kar­ri­eren bish­eriger Mitarbeiter*innen. Schon bald stellte das Pro­gramm jedoch nur noch Män­ner ein. Es hat­te aus den Dat­en abge­le­sen, dass Män­ner die besten Kar­ri­erechan­cen im Unternehmen hat­ten und rück­ge­fol­gert, dass Frauen keine geeigneten Mitarbeiter*innen sind. Ama­zon stellte den Ver­such wieder ein und hat bis heute schein­bar keine Lösung für das Prob­lem gefun­den.

„Ab wann und wo soll der Staat reg­ulierend ein­wirken. Das ist eine entschei­dende Frage.“
– Michael Fuchs

Das Beispiel zeigt, dass KI-Sys­teme, wenn sie mit schlecht­en Daten­sätzen trainiert wer­den, bere­its beste­hende diskri­m­inierende Phänomene übernehmen und anwen­den. Daraus erschließt sich die Frage, wie ver­hin­dert wer­den kann, dass KI-Sys­teme beste­hende gesellschaftliche Vorurteile übernehmen und auch in Zukun­ft festschreiben? Eine Lösung kön­nte etwa in ein­er ein­pro­gram­mierten pos­i­tiv­en Diskri­m­inierung von Min­der­heit­en liegen. Doch zuvor müsste den Entwickler*innen über­haupt erst eine in der Real­ität beste­hende Diskri­m­inierung bewusst sein.

Eine höhere Sen­si­bil­ität bei der Def­i­n­i­tion von Zielvor­gaben für KI-Sys­teme und bei der Auswahl der Train­ings­dat­en für das Sys­tem wird eine der Lösun­gen für die Zukun­ft sein. Zusät­zlich müssten die all­ge­meinen Entschei­dungs­grund­la­gen, auf­grund der­er eine KI entschei­det, von der KI rück­gemeldet wer­den. Die KI muss sich also selb­st erk­lären kön­nen.

Die Diskussion fängt gerade erst an

Damit Zielvor­gaben aber bess­er definiert wer­den kön­nen, muss zuvor ein gesellschaftlich­er und poli­tis­ch­er Kon­sens darüber entste­hen, welche ethis­chen Prob­leme, wie gelöst oder unter­schiedlich gewichtet wer­den sollen. Nur so kön­nen Entwickler*innen von KI-Sys­te­men diese Prinzip­i­en auch klar in ihre Pro­gramme ein­schreiben.

 „Die Lösung kann nur ein dauer­hafter Dia­log sein.“
– Ulrich Mey­er

Diese Diskus­sio­nen wer­den derzeit auch auf allen Ebe­nen geführt. Wie Ergeb­nisse der Expert*innengespräche zu den ethis­chen Prinzip­i­en der EU-Kom­mis­sion und der OECD zeigen, sind diese jedoch noch rel­a­tiv ober­fläch­lich. Eine der Anre­gun­gen aus dem Expert*innengespräch ist daher auch die Empfehlung zur Grün­dung eines dauer­haften Ethikrates zur Diskus­sion ethis­ch­er Fra­gen von Kün­stlich­er Intel­li­genz. Dieser muss sowohl aus Ethiker*innen, Jurist*innen und Informatiker*innen beste­hen, um rasch auf neue Fortschritte reagieren zu kön­nen. Konkret kön­nte dieser etwa an der JKU im Rah­men des LIT (Linz Insti­tute of Tech­nol­o­gy) im „Lab for Dig­i­tal Trans­for­ma­tion and Law“ ange­siedelt wer­den.

Empfehlungen der Teilnehmer*innen:

  • Instal­la­tion eines dauer­haften Ethikrates zur Diskus­sion ethis­ch­er Fra­gen von Kün­stlich­er Intel­li­genz, beset­zt aus Entwick­lern, Juris­ten und Ethik­ern
  • Sen­si­bil­isierung für die Prob­lematiken der Def­i­n­i­tion von Ziel­funk­tio­nen bei KI-Sys­te­men
  • Sen­si­bil­isierung für die Prob­lematiken der Auswahl der Daten­ba­sis für das Train­ing von KI-Sys­te­men

Am Expertengespräch haben teilgenommen:

Dr. Karin Bruck­müller, JKU Linz | Insti­tut für Strafrechtswis­senschaften
Univ.-Prof. Dr. Michael Fuchs, Katholis­che Pri­vatu­ni­ver­sität Linz | Insti­tut für Prak­tis­che Philoso­phie / Ethik
Dr. Gerold Lehn­er, Evan­ge­lis­chen Kirche A. B. in Oberöster­re­ich
Dr Ulrich Mey­er, TU München | Munich Cen­ter for Tech­nol­o­gy in Soci­ety
DI Dr. Bern­hard Nessler, JKU Linz | Insti­tut für Bioin­for­matik
Dr. Clau­dia Schwarz, ACADEMIA SUPERIOR
Assoz. Univ.-Prof Dr. Hel­ga Wag­n­er, JKU Linz | Insti­tut für Ange­wandte Sta­tis­tik

Pre­dic­tive Futures – Die Ver­mes­sung der Zukun­ft

Im Rah­men des Jahress­chw­er­punk­tes auf „gesellschaftliche Fol­gen der Entwick­lung von Kün­stlich­er Intel­li­genz“ organ­isiert ACADEMIA SUPERIOR mehrere Expert*innengespräche. Die Gespräch­srunde „Verän­derte Kom­mu­nika­tion“ wurde in Koop­er­a­tion mit dem Insti­tut für Prak­tis­che Philoso­phie / Ethik der Katholis­chen Pri­vatu­ni­ver­sität Linz organ­isiert.