Bere­its im Jahr 2019 traf sich eine Runde von Expert:innen auf Ein­ladung der Acad­e­mia Supe­ri­or in Koop­er­a­tion mit Ass.-Prof. Dr. Lukas Kaelin vom Insti­tut für Prak­tis­che Philosophie/Ethik der KU-Linz, um über den Ein­fluss von Kün­stlich­er Intel­li­genz auf die Sphäre der Öffentlichkeit und Poli­tik zu disku­tieren. Jet­zt wurde der Gesprächs­faden wieder aufgenom­men, um die durch die Pan­demie beschle­u­nigten Entwick­lun­gen neuer­lich zu beleuchten.

Kün­stliche Intel­li­genz spielt in der dig­i­tal­isierten Kom­mu­nika­tion eine immer größere Rolle. Oft­mals ist es mit­tler­weile bere­its eine Her­aus­forderung zu erken­nen, ob ein Men­sch oder eine „Mas­chine“ kom­mu­niziert und nicht mehr „nur“, ob die ver­bre­it­ete Infor­ma­tion wahr oder falsch ist. Die seit Jahren nicht abreißen­den Diskus­sio­nen um „fil­ter bub­bles“, „fake news“ und „social bots“ zeigen dies deut­lich. Immer schneller und bess­er ler­nende Algo­rith­men kön­nen einzelne Men­schen immer geziel­ter auf­grund der im Netz oder auf dem Smart­phone hin­ter­lasse­nen Dat­en ansprechen. Die Art und Weise, wie die öffentliche Diskus­sion in dig­i­tal­en Are­nen stat­tfind­et, ist durch immer intel­li­gen­ter wer­dende Algo­rith­men geprägt.

„Die Pan­demie hat das Zer­brechen der geteil­ten Öffentlichkeit ver­stärkt.“ (Lukas Kaelin)

Wie verän­dert sich unsere Öffentlichkeit im Kon­text der Dig­i­tal­en Trans­for­ma­tion durch „kün­stlich intel­li­gente“ Pro­gramme? Wer bes­timmt die „Fil­ter“, die bee­in­flussen, was im öffentlichen Raum sicht­bar wird und damit über­haupt erst kom­mu­niziert und disku­tiert wer­den kann? Während früher Zeitun­gen, (staatlich­es) Fernse­hen und Radio die Gate­keep­er-Funk­tion innehat­ten – also Infor­ma­tion­sin­halte nach Bedeu­tungs­ge­halt fil­terten –, führten die „sozialen“ Medi­en dazu, dass sich diese „Fil­ter­ma­cht“ immer stärk­er auf die dig­i­tal­en Plat­tfor­men und die User:innen selb­st ver­schiebt. Durch kün­stliche Intel­li­genz lassen sich diese Fil­ter in Zukun­ft immer indi­vidu­eller anpassen. Die Auswirkun­gen dieser Verän­derung der Fil­ter­dy­namik wer­den langsam spür­bar. Als Folge der Entwick­lun­gen kön­nte die gemein­same Kom­mu­nika­tions­ba­sis der Gesellschaft immer weit­er zer­fall­en. Die Pan­demie hat die Auswirkun­gen und Fol­gen des „Zer­brechens der gemein­samen Öffentlichkeit“ gezeigt und gle­ichzeit­ig weit­er verstärkt.

„Je polar­isiert­er eine Gesellschaft ist, desto schwieriger ist es, Glaub­würdigkeit zu erre­ichen.“ (Julian Reiss)

Diese Dynamiken entste­hen aus den vie­len kleinen Hand­lun­gen jedes Einzel­nen, denn die Men­schen suchen automa­tisch nach den Infor­ma­tio­nen, die ihr eigenes Welt­bild bestäti­gen. Bei Algo­rith­men, die darauf aus­gerichtet sind, User:innen möglichst lange auf der Plat­tform zu binden und deshalb das anzeigen, was User:innen sehen wollen, führt dies automa­tisch zu der Ver­schiebung von angezeigten Inhal­ten. Die Algo­rith­men, die die indi­vidu­ellen News-Feeds auf den dig­i­tal­en Plat­tfor­men steuern, sind genau darauf pro­gram­miert, um die Ver­weil­dauer der User:innen auf den Plat­tfor­men zu max­imieren: so kann Wer­bung verkauft werden.

Es stellt sich also die Frage, ob anstelle der oft disku­tierten „ges­teuerten Fil­ter“ nicht stattdessen die Rah­menbe­din­gun­gen und Zielset­zun­gen, unter denen die Algo­rith­men einge­set­zt wer­den (dür­fen), stärk­er unter­sucht wer­den soll­ten, um neg­a­tive Kon­se­quen­zen für das gesellschaftliche Zusam­men­leben und die Demokratie zu ver­mei­den. Oft wird in diesem Zusam­men­hang vorge­bracht, dass mehr Sen­si­bil­isierung und Wis­sen in der Bevölkerung dafür bere­its aus­re­ichen wür­den. Mit den Erfahrun­gen und Lehren aus der Pan­demie kann das hin­ter­fragt wer­den. Es ist wichtig, Kün­stliche Intel­li­genz bzw. deren Ein­satz nicht als Naturge­walt zu sehen, son­dern als von den Gesellschaften in ihrem Inter­esse gestalt­bares und reg­ulier­bares Werkzeug.

Ein­heitliche Stan­dards für Kom­mu­nika­tion­splat­tfor­men soll­ten auf EU-Ebene ange­set­zt und nicht den einzel­nen Staat­en über­lassen wer­den. Angesichts der enor­men Größe manch­er Dig­i­tal-Konz­erne haben einzelne Staat­en möglicher­weise nicht die nötige Durch­set­zungskraft dafür. Generell sollte nach Wegen gesucht wer­den, wie in mul­ti­kul­turellen, plu­ralen und polar­isierten Gesellschaften gesamt­ge­sellschaftliche Grund­la­gen weit­er­hin öffentlich und gewinnbrin­gend disku­tiert wer­den können.

„Sprach­pro­gramme mit KI lassen die Men­schen zusam­menwach­sen.“ (Bernad Batinic)

Man darf jedoch nicht in die Falle der unre­flek­tierten Ver­teufelung von „kün­stlich­er Intel­li­genz“ tap­pen. So zeigen Sprach- und Über­set­zung­spro­gramme, die ger­ade in den let­zten Jahren dank ler­nen­der Algo­rith­men enorme Fortschritte gemacht haben, dass diese Pro­gramme dabei helfen kön­nen, Men­schen unter­schiedlich­er Herkun­ft in poli­tis­che Diskus­sio­nen zu inte­gri­eren und generell Bar­ri­eren abzubauen.

Am Expertenge­spräch haben teilgenommen:

Rück­blick: Die aufge­wor­fe­nen The­men und Inhalte des Gesprächs von 2019