Einen Rahmen für intelligente Maschinen setzen

Wer ist ver­ant­wortlich, wenn Maschi­nen töten? Soll Kün­stliche Intel­li­genz autonom über ethis­che Prob­leme entschei­den dür­fen? Und wie kann unsere Pri­vat­sphäre in ein­er Welt, in der intel­li­gente Algo­rith­men unser Ver­hal­ten per­ma­nent analysieren, effek­tiv geschützt wer­den? Vor diese Fra­gen stellt uns aktuell der tech­nol­o­gis­che Fortschritt. Sie müssen beant­wortet wer­den, bevor selb­st­fahrende Fahrzeuge oder autonome Robot­er in den All­t­ag einziehen kön­nen.

Studierende stell­ten sich in einem Work­shop gemein­sam mit Markus Hengstschläger der Her­aus­forderung, Antworten auf diese Fra­gen zu find­en.

Algorithmen entscheiden immer selbständiger

Die Entwick­lung selb­stler­nen­der Algo­rith­men, welche die Basis für kün­stliche Intel­li­genz bilden, schre­it­et immer weit­er voran. Diese Tech­nolo­gie basiert darauf, dass eine Soft­ware mit Dat­en trainiert wird um ein bes­timmtes Prob­lem später selb­ständig und mit eigen­er Herange­hensweise lösen zu kön­nen. Selb­st­fahrende Fahrzeuge sind nur das derzeit bekan­nteste Beispiel für Tech­nolo­gien, die ohne der­ar­tige Pro­gramme nicht funk­tions­fähig wären. Aber auch im Gesund­heitssys­tem, in der Wer­bung und in vie­len weit­eren Bere­ichen wer­den sie immer bre­it­er einge­set­zt: zur Früherken­nung von Hautkrebs, für Kaufempfehlun­gen auf Online-Shop­ping-Por­tal­en, für Wet­ter- oder Verkehrsprog­nosen, zur Logis­tik­pla­nung, für die Spracherken­nung und ‑aus­gabe oder zur Part­nerver­mit­tlung. Über­all wer­den Algo­rith­men mit­tler­weile ver­wen­det. Und sie wer­den immer klüger, je mehr sie einge­set­zt wer­den und ler­nen die Men­schen immer bess­er einzuschätzen und ihr Ver­hal­ten vorherzusagen. Was bedeutet das für Zukun­ft, wenn unser Leben immer mehr von den Empfehlun­gen und Entschei­dun­gen dieser Sys­teme bee­in­flusst wird?

Maschinen haben keine Moral

Eine der Antworten, die während des Work­shops  gefun­den wurde, lautet: Wir dür­fen keine Maschi­nen entwick­eln, deren Entschei­dun­gen nicht mehr vom Men­schen nachvol­l­zo­gen wer­den kön­nen. Algo­rith­men müssen „sich erk­lären kön­nen“. Nur so kann auch im Vorhinein abgeschätzt wer­den, wie sich ein der­ar­tiges Sys­tem in ein­er bes­timmten Sit­u­a­tion entschei­den wird, welche Hand­lun­gen es set­zen wird.

Diese Sys­teme – so intel­li­gent sie auch zu sein scheinen – haben kein eigenes Bewusst­sein. Kat­e­gorien wie „Moral“ oder „Ethik“ sind keine Kri­te­rien, die sie selb­ständig entwick­eln kön­nen. Eine der großen gesellschaftlichen Auf­gaben vor die Men­schheit ste­ht, ist es den Rah­men zu definieren, inner­halb dessen die Maschi­nen selb­ständig agieren dür­fen. Welchen Prinzip­i­en Algo­rith­men zwin­gend zu fol­gen haben, wird daher in Expertenkreisen derzeit stark disku­tiert.

Die Verantwortung liegt beim Menschen

Es sind immer Men­schen oder Unternehmen, die für die Pro­gram­mierung des Sys­tems – für den geset­zten Rah­men – und die sich daraus ergeben­den Entschei­dun­gen ver­ant­wortlich sind. Die Mas­chine selb­st kann es nicht sein. Und: wir dür­fen keine Tech­nolo­gie ein­set­zen, die wir nicht mehr ver­ste­hen, deren Entschei­dun­gen und Hand­lun­gen für den Men­schen nicht mehr vorherse­hbar sind. Diese Schlussfol­gerun­gen fassten die Studieren­den.

„Eine der Auf­gaben der Poli­tik liegt darin, den tech­nol­o­gis­chen Fortschritt der­art zu ver­langsamen, dass der Men­sch noch mitkom­men kann. Die Poli­tik muss über­prüfen, ob das, was tech­nisch mach­bar ist, auch wirk­lich sin­nvoll ist. Und im Zweifel auch gegen­s­teuern“, for­mulierte Markus Hengstschläger einen Appell. Ger­ade im Bere­ich der Online-Medi­en ist die Sit­u­a­tion in den let­zten Jahren außer Kon­trolle ger­at­en, bemerk­ten einige der Studieren­den und ver­wiesen auf Phänomene wie Fake News, Has­skom­mentare und ges­teuerte Mei­n­ungs­bee­in­flus­sung im Inter­net. Diese Entwick­lung gehe so weit, dass sie die demokratis­che Grun­dord­nung bedro­he.

Was kann dage­gen getan wer­den? „Bil­dung und Wis­sensver­mit­tlung sind die einzi­gen nach­halti­gen Lösun­gen“, lautete die Antwort des wis­senschaftlichen Leit­ers der ACADEMIA SUPERIOR. Nur wer gel­ernt hat, Google-Suchergeb­nisse, Face­book-Post­ings usw. hin­sichtlich ihrer Quellen und Motive zu hin­ter­fra­gen, kann Fak­ten von Fake unter­schei­den. Hier haben alle etwas beizu­tra­gen: Die Wis­senschaft muss Wis­sen schaf­fen und erk­lären; die Medi­en müssen dieses Wis­sen kom­mu­nizieren und zu Infor­ma­tion machen; und die Bürg­er haben die Pflicht sich zu informieren und sich, darauf basierend, poli­tisch zu entschei­den.

Am 30. März wird dieses The­ma von der ACADEMIA SUPERIOR bei einem Sym­po­sium mit inter­na­tionalen Exper­tin­nen und Experten in Gmunden wei­t­er­disku­tiert. Eine öffentliche Abend­ver­anstal­tung bietet Ein­blicke in die Gespräche. Mehr Infos und Anmel­dung zum ACADEMIA SUPERIOR SURPRISE FACTORS SYMPOSIUM auf www.academia-superior.at/plenum