Bere­its im Jahr 2019 traf sich eine Runde von Expert:innen auf Ein­ladung der Acad­e­mia Supe­ri­or in Koop­er­a­tion mit Univ.-Prof. Dr. Michael Fuchs vom Insti­tut für Prak­tis­che Philosophie/Ethik der KU Linz, um über den Ein­fluss von „Kün­stlich­er Intel­li­genz“ auf die Gesellschaft und die sich daraus ergeben­den ethis­chen Fragestel­lun­gen zu disku­tieren. Jet­zt wurde der Gesprächs­faden wieder aufgenom­men, um die durch die Pan­demie beschle­u­nigten Entwick­lun­gen neuer­lich zu beleuchten.

Zen­trale Fra­gen der Gespräch­srunde waren, wie und auf welchen Ebe­nen Kün­stliche Intel­li­genz Reg­ulierun­gen unter­wor­fen wer­den soll, wie weit man ohne rechtliche Reg­ulierun­gen auskom­men kön­nte und wie KI über­haupt definiert wer­den soll. Der durch die Pan­demie nochmal beschle­u­nigte Dig­i­tal­isierungss­chub macht die Frage der Reg­ulierung von jenen IT-Pro­gram­men, die gemein­hin mit­tler­weile unter dem Begriff „Kün­stliche Intel­li­genz“ sub­sum­iert wer­den, noch ein­mal dringlicher.

Ethik von „Künstlicher Intelligenz“ beruht auf Ethik der Datennutzung

Eine in diesem Zusam­men­hang zen­trale und noch weit­ge­hend unbeant­wortete Frage ist, wie mit den großen Dat­en- und Infor­ma­tion­s­men­gen, die heute zur Ver­fü­gung ste­hen, umge­gan­gen wer­den soll und darf, welche Dat­en also wie von KI-Pro­gram­men ver­wen­det und aus­gew­ertet wer­den dür­fen. Da bis vor weni­gen Jahren noch nicht genug Rech­n­er­leis­tung vorhan­den war, um die poten­ziell vorhan­de­nen Daten­berge gezielt und zeit­na­he zu ver­w­erten, wurde diese Frage – um Inno­va­tio­nen nicht zu behin­dern – hin­tangestellt. Doch die mit­tler­weile erre­ichte Rechen­leis­tung und deren Kom­bi­na­tion mit „lern­fähi­gen Pro­gram­men“ machen Auswer­tun­gen auch in größerem Rah­men möglich oder zumin­d­est in der nahen Zukun­ft wahrscheinlich.

„Die Skalier­barkeit von Date­n­analy­sen ist heute durch KI viel größer als früher.“ – Hel­ga Wagner

Da der­ar­tige Auswer­tun­gen durch machine learn­ing bzw. Kün­stliche Intel­li­genz in Zukun­ft als Entschei­dungs­grund­la­gen in vie­len Bere­ichen dienen kön­nen, kön­nten selb­st unbe­ab­sichtigte Fehler oder unvor­sichtig gewählte Klas­si­fika­tio­nen in der Pro­gram­mierung oder den Train­ings­dat­en der Pro­gramme poten­ziell gefährliche soziale Fol­gen haben.

„Die eigentliche ethis­che Frage, vor der wir ste­hen lautet: Wie gehen wir mit Infor­ma­tion um?“ – Bern­hard Nessler

Beson­ders kri­tisch ist die Ver­wen­dung von Dat­en, die in sozialen Kon­tex­ten ent­standen sind, sowohl deren Ver­wen­dung für Analy­sen als auch deren Ver­wen­dung zum „Train­ing“ von Kün­stlichen Intel­li­gen­zen. Denn sie bergen die Gefahr, dass beste­hende gesellschaftliche Muster, die eigentlich ethisch abzulehnen sind, unbe­ab­sichtigt durch den Ein­satz der KI weit­er fest­geschrieben wer­den. Eine Diskus­sion über die ethis­chen Dimen­sio­nen der Ver­bre­itung von Kün­stlich­er Intel­li­genz muss vor allem auch die konkrete Nutzung von KI-Sys­te­men und deren Ein­bet­tung in sozio-tech­nis­che Struk­turen behan­deln und kann nicht nur auf eine „ethisch kor­rek­te“ Pro­gram­mierung der Algo­rith­men abzielen.

„Wir brauchen eine Ethik der Ver­wen­dung von KI und Algo­rith­men und nicht eine Ethik der Tech­nolo­gie alleine.“ – Uli Meyer

Beant­wortet wer­den müssen in Zukun­ft Fra­gen wie: Wer gener­iert die Dat­en? Was davon darf von wem ver­wen­det wer­den? Wer darf welche Dat­en weit­ergeben? Welche Entschei­dun­gen darf der Men­sch fällen, deren Grund­lage auf der Analyse von welchen Dat­en durch KI-Pro­gramme beruht und welche Entschei­dun­gen darf der Men­sch an eine KI delegieren? Welche Mech­a­nis­men müssen entwick­elt wer­den, um KI-Sys­teme „sich­er“ zu machen?

Zertifikate für „gute“ KI?

Sin­nvoll erscheinen unab­hängige Zer­ti­fizierun­gen von KI-Pro­gram­men durch anerkan­nte Insti­tu­tio­nen, wie das weltweit erste Machine Learn­ing Zer­ti­fizierungss­chema am TÜV Aus­tria. Der­ar­tige Zer­ti­fizierun­gen mögen zwar aufwendig sein, haben aber für Entwick­ler, Betreiber und User:innen der entsprechen­den KI-Soft­ware in Zukun­ft Vorteile: Je nach­dem, wie das Zer­ti­fikat angelegt ist, kön­nten sich Betreiber und User darauf ver­lassen, dass sie eine Soft­ware nützen, die sicher­heit­stech­nisch, rechtlich oder ethisch nach definierten Stan­dards arbeit­et. Das wiederum min­imiere rechtliche und ökonomis­che Risiken und kön­nte in Zukun­ft auch als Mar­ket­ing-Argu­ment gegenüber den User:innen ver­wen­det werden.

In diesem Zusam­men­hang muss auch die Frage gestellt wer­den, ob es rechtliche Vor­gaben bezüglich der Zer­ti­fizierung von KI-Pro­gram­men – vielle­icht je nach Ein­satzbere­ich? – braucht, oder ob dies der Selb­streg­ulierung über­lassen wer­den kann. Wichtig wäre es, dass im Rah­men der Zer­ti­fizierung nicht nur die Tech­nik bew­ertet wird, son­dern auch die ethis­chen Dimen­sio­nen der intendierten Nutzung der Soft­ware über­prüft wird.

In ein­er ethis­chen Beurteilung müsste immer auch das Ziel und der Zweck der konkreten Anwen­dung berück­sichtigt wer­den. Dabei gilt es auch zu beacht­en, dass es in der Geschichte sehr oft so war, dass Anwen­dun­gen und Tech­nolo­gien anders genützt wur­den, als ursprünglich gedacht. Daraus wiederum fol­gt, dass eine Über­prü­fung der Ziele und Anwen­dun­gen von KI ‑Sys­te­men hin­sichtlich ethis­ch­er Aspek­te, in regelmäßi­gen Abstän­den erfol­gen sollte.

Welche ethis­chen Werte die Pro­gram­mierung und die Train­ings­daten­sätze von „Kün­stlichen Intel­li­gen­zen“ in Zukun­ft verpflich­t­end berück­sichti­gen müssten, kön­nte durch inter­diszi­plinär beset­zte Ethikkom­mis­sio­nen bew­ertet wer­den, deren Entschei­dun­gen wiederum eine Grund­lage für Zer­ti­fizierun­gen von KI-Pro­gram­men bieten könnten.

„Ist die Tren­nung zwis­chen stark­er und schwach­er Kün­stlich­er Intel­li­genz angesichts der Fortschritte bei der schwachen Kün­stlichen Intel­li­genz noch sin­nvoll?“ – Michael Fuchs

Uneins waren sich die Wissenschafter:innen bei der Frage der Def­i­n­i­tion dessen, was als Kün­stliche Intel­li­genz gel­ten sollte. Weit­ere noch offene Fra­gen, die sich in der Diskus­sion ergaben, lauteten:

  • Muss man eine Ethik der KI nicht weit­er denken als eine Ethik der Information?
  • Gibt es eine klare Def­i­n­i­tion der Anwen­dung von KI?
  • Wer ist ver­ant­wortlich für ein KI-System?
  • Wie verän­dert KI die Arbeitswelt?
  • Ist es möglich ethisch kor­rekt zu reg­ulieren, sodass Inno­va­tio­nen gefördert und nicht ver­hin­dert werden?
  • Beste­ht die Gefahr ein­er „Über­reg­ulierung“ von KI?
  • Wie kom­men wir zu ein­er Ethik der Ver­wen­dung und des Besitzes von massen­haften Infor­ma­tio­nen und Datensätzen?
  • Wie kann man mit massen­haften Dat­en ethisch kor­rekt umge­hen, wenn KI nur das Werkzeug ist, um aus diesen Daten­ber­gen Erken­nt­nisse zu gewinnen?
  • Welche Werte soll­ten KI-Pro­gramme verpflich­t­end berück­sichti­gen müssen?

Am Expertenge­spräch haben teilgenommen:

Rück­blick: Die aufge­wor­fe­nen The­men und Inhalte des Gesprächs von 2019