Kün­stliche Intel­li­genz spielt in der per­sön­lichen und poli­tis­chen Kom­mu­nika­tion eine immer größere Rolle. Schneller und bess­er ler­nende Algo­rith­men kön­nen einzelne Men­schen in Zukun­ft geziel­ter auf­grund deren dig­i­tal­en Fußab­drucks ansprechen.

Ver­bun­den damit sind Her­aus­forderun­gen, zu erken­nen „wer“ spricht (Men­sch oder Mas­chine) und ob das Gesproch­ene und Gezeigte wahr oder falsch ist. Die Diskus­sio­nen um „Fil­ter Bub­bles“, „Fake News“, „Deep­fake Videos“ und „Social Bots“ zeu­gen davon.

 

In ein­er Expert*innenrunde wurde die Frage gestellt, welche Auswirkun­gen diese Entwick­lun­gen auf die öffentliche Kom­mu­nika­tion in Gesellschaft und Poli­tik haben oder zukün­ftig haben wer­den. Leben wir in Zukun­ft in ein­er algo­rith­mus­ges­teuerten Öffentlichkeit?

Algorithmen, Kommunikation und Demokratie

Nicht ohne Grund wer­den die west­lichen Demokra­tien auch als „Medi­en­demokra­tien“ beze­ich­net. Die Exis­tenz unab­hängiger Medi­en, öffentlich­er Kom­mu­nika­tion, Rede­frei­heit und Infor­ma­tion­sweit­er­gabe gel­ten als Voraus­set­zun­gen für das Funk­tion­ieren eines demokratis­chen Prozess­es. Das Inter­net, Soziale Medi­en und auf ler­nen­den Algo­rith­men basierende Pro­gramme verän­dern nun ras­ant die Art, wie wir kom­mu­nizieren und set­zen demokratis­che Prozesse unter Druck.

Het­ero­gene Gesellschaften, wie die unsere, benöti­gen einen gemein­samen Infor­ma­tion­s­stand, um demokratisch funk­tion­ieren zu kön­nen. – Michael Mayrhofer

Gefährlich wird die Entwick­lung, wenn das Ver­trauen in die Infor­ma­tion schwindet und das Gefühl entste­ht, dass man Nachricht­en nicht mehr trauen kann. Ger­ade auf Sozialen Medi­en kön­nen Falschnachricht­en (Fake News) leicht pub­liziert und mit­tels automa­tisiert­er Pro­gramme (Social Bots), welche vorgeben echte Men­schen zu sein, weit und rasch ver­bre­it­et wer­den. Bilder, Videos und Audios kön­nen durch neue Pro­gramme mit­tler­weile so täuschend echt pro­duziert wer­den, dass es schw­er­fällt, wahr von unecht zu unterscheiden.

Such­maschi­nen oder der Nachricht­en-Feed in Sozialen Medi­en präferieren Beiträge, die beson­ders viel Inter­ak­tion her­vor­rufen oder die vielfach angek­lickt wer­den. Sie bew­erten die Rel­e­vanz ein­er Infor­ma­tion jedoch nicht nach ihrem Wahrheits­ge­halt. Dadurch wer­den skur­rile Mei­n­un­gen, Ver­schwörungs­the­o­rien oder von Social Bots gepushte Nachricht­en viel häu­figer angezeigt, als es deren Inhalt recht­fer­ti­gen würde.

Das dadurch in der Bevölkerung entste­hende Mis­strauen gegenüber sämtlichen Nachricht­en und Infor­ma­tio­nen kann zukün­ftig gefährliche Aus­maße annehmen.

Heute ist unsere primäre Quelle für poli­tis­che Infor­ma­tion und Kom­mu­nika­tion eine Verkauf­s­plat­tform. Und in einem Waren­haus disku­tiert es sich anders als in ein­er poli­tis­chen Are­na. – Lukas Kaelin

Gle­ichzeit­ig kön­nen Men­schen durch das Pro­fil­ing ihres Onlin­ev­er­hal­tens viel geziel­ter und mit an sie angepassten Inhal­ten, erre­icht wer­den. (Michal Kosinksi belegte dies ein­drucksvoll beim Sym­po­sium 2019) Derzeit wird diese Möglichkeit haupt­säch­lich für Wer­bung genutzt, doch bei immer mehr Wahlen der let­zten Jahre trat der Ver­dacht auf, dass auch ver­sucht wurde, poli­tis­che Mei­n­un­gen oder Wahlentschei­dun­gen durch indi­vid­u­al­isierte Falschnachricht­en zu beeinflussen.

Wir kom­mu­nizieren nicht nur Infor­ma­tion, son­dern viel stärk­er noch Emo­tion. – Mar­i­anne Pührerfellner

Eine Gesellschaft benötigt eine (auch dig­i­tale) Infra­struk­tur für vielfältige Kom­mu­nika­tion und Diskurse in die sie auch Ver­trauen set­zen kann. Die klas­sis­chen Instru­mente dafür – wie etwa Medi­en­förderun­gen und öffentlich-rechtliche Medi­en – reichen aber vielle­icht in der Zukun­ft nicht mehr aus, um dies sicherzustellen. Eine Frage ist, wie man neue Instru­mente und Infra­struk­turen entwick­eln kann.

Der Staat in der Pflicht

Der Staat hat im Sinne des Frei­heit­srechts der freien Rede dafür zu sor­gen, dass alle Bürger*innen inner­halb des geset­zlichen Rah­mens frei kom­mu­nizieren kön­nen und eine Vielfalt an Mei­n­un­gen existiert. Wie kann sichergestellt wer­den, dass jed­er die gle­ichen Möglichkeit­en hat, in den öffentlichen Diskurs zu kom­men? Diese Frage sollte in Zukun­ft noch einge­hen­der disku­tiert werden.

Mögliche Lösungen

Die Ver­bre­itung von Falschnachricht­en oder ‑infor­ma­tio­nen ist kein neues Phänomen, doch neue Medi­en und ler­nende Algo­rith­men machen Fake News immer effizien­ter. Diese Entwick­lung wird in den kom­menden Jahren an Geschwindigkeit gewin­nen und nicht leicht zu entschär­fen sein. Die Expert*innenrunde kon­nte den­noch einige Empfehlun­gen entwickeln:

  • Mehr poli­tis­chen Mut zur Reg­ulierung im Bere­ich der Online-Kommunikation
  • Ein­führung eines Güte­siegels für ver­trauenswürdi­ge Informationsquellen
  • Kennze­ich­nungspflicht für verän­derte Bilder, Videos und Tonauf­nah­men in allen Medien
  • Ver­stärk­te Ver­mit­tlung von Medi­enkom­pe­ten­zen und Ori­en­tierungswis­sen für junge und alte Generationen
  • Für selb­stler­nende Algo­rith­men sollte ein „Explain­abil­i­ty-Stan­dard“ einge­führt wer­den (Das KI-Sys­tem muss erk­lären kön­nen, warum und wie es zu ein­er Entschei­dung gekom­men ist)
  • Ver­stärk­te Forschung im Bere­ich der automa­tisierten Erken­nung von Social Bots und Deepfake-Videos

Künstliche Intelligenz könnte auch helfen

Intel­li­gente Algo­rith­men helfen bei der Erstel­lung von immer besseren fik­tiv­en – und oft bösar­ti­gen – Nachricht­en. Doch Algo­rith­men kön­nten auch die Lösung sein, um eben diese Falschnachricht­en zu iden­ti­fizieren. Vielle­icht braucht es in Zukun­ft nicht nur Spam­fil­ter für E‑Mails, son­dern auch Fil­ter für Fake News, Deep­fake-Videos und Social Bots in Sozialen Medi­en. Die US-Mil­itär Forschungsabteilung DARPA investierte allein im Jahr 2018 68 Mio. US-Dol­lar in Pro­jek­te um Deep­fake-Videos automa­tisiert erken­nen zu kön­nen.

Medi­enkom­pe­tenz bedeutet, zu wis­sen, wo man nach­se­hen muss. – Hei­di Vitez

Für viele Men­schen ist die the­o­retisch unendliche Infor­ma­tions­fülle der Sozialen Medi­en schon heute über­fordernd. Bessere Fil­ter – die eben­falls auf ler­nen­den Algo­rith­men basieren – kön­nten hier in Zukun­ft helfen, per­sön­lich rel­e­vante und reale Infor­ma­tio­nen zu erhalten.

Problematik in Bevölkerung kaum wahrgenommen

Die geschilderte Entwick­lung sorgt derzeit nur in Fachkreisen für Beun­ruhi­gung. Eine Umfrage des mar­ket Insti­tutes ergab, dass die The­men „Fol­gen von kün­stlich­er Intel­li­genz für die Gesellschaft“ und „Daten­schutz“ in der Bevölkerung kaum als rel­e­vant wahrgenom­men wer­den. Hier wird eine weit­ere Her­aus­forderung deut­lich: ohne Sen­si­bil­ität für die The­matik, wie Dat­en aufgeze­ich­net und ver­w­ertet wer­den, wer­den die Men­schen kaum einen ver­ant­wor­tungsvollen Umgang mit ihren Dat­en durch die Anbi­eter von entsprechen­den Dien­sten einfordern.

Künstliche Intelligenz, Kommunikation und das Private

Die The­matik, der durch Kün­stliche Intel­li­genz verän­derten Kom­mu­nika­tion, spielt auch im pri­vat­en Bere­ich eine große Rolle. Mit intel­li­gen­ten Assis­ten­zsys­te­men wie Alexa und Siri, Smart Homes oder zukün­fti­gen Haus- und Pfleger­o­bot­ern kom­mu­niziert der Men­sch in vielfältiger Art und Weise – und auch hier müssen Dat­en aufgeze­ich­net wer­den, damit die Sys­teme funk­tion­ieren kön­nen. Hier stellt sich die Frage der Daten­weit­er­gabe: Soll­ten der­ar­tige Sys­teme eine Art „Schweigepflicht“ haben und sen­si­ble Dat­en der Besitzer*innen nicht weit­ergeben dür­fen – bzw. aktiv nach­fra­gen müssen, welche Dat­en sie weit­ergeben dürfen?

Intel­li­gente Sys­teme haben als pri­vate Kom­mu­nika­tion­spart­ner, ein­fach zum Plaud­ern und Zuhören, enormes Poten­zial. – Bernad Batinic

Fern­er muss gek­lärt wer­den, wie der Men­sch mit der­ar­ti­gen Sys­te­men kom­mu­nizieren kann. Wie etwa Emo­tio­nen ver­mit­telt wer­den kön­nen, oder ob man auch mit Assis­ten­zsys­te­men höflich sprechen sollte, oder ob der Imper­a­tiv vorherrschen darf. Und vor allem: Wer soll über die Antworten auf diese Fra­gen entscheiden?

Am Expertengespräch haben teilgenommen:

Univ. Prof. Dr. Bernad Batinic, JKU Linz | Insti­tut für Päd­a­gogik und Psychologie
Ass.-Prof. Dr. Lukas Kaelin, Katholis­che Pri­vatu­ni­ver­sität Linz | Insti­tut für Prak­tis­che Philoso­phie / Ethik
Univ.-Prof. Dr. Michael Mayrhofer, JKU Linz | Insti­tut für Verwaltungsrecht
Dr. David Pfar­rhofer, mar­ket — Insti­tut für Markt‑, Meinungs‑, und Mediaforschung
Ass.-Prof. DI (FH) Mar­i­anne Pührerfell­ner, Kun­stu­ni­ver­sität Linz | Insti­tut für Medi­en, Abteilung Visuelle Kommunikation
Dr. Clau­dia Schwarz, ACADEMIA SUPERIOR
Ste­fan Straßburg­er, involve – Büro für dig­i­tales Marketing
Hei­di Vitéz, Dig­i­tal Com­mu­ni­ca­tion und Mar­ket­ing Man­agerin; Mit­glied des OÖ. Presse­clubs


Pre­dic­tive Futures – Die Ver­mes­sung der Zukunft
Im Rah­men des Jahress­chw­er­punk­tes auf „gesellschaftliche Fol­gen der Entwick­lung von Kün­stlich­er Intel­li­genz“ organ­isiert ACADEMIA SUPERIOR mehrere Expertenge­spräche. Die Gespräch­srunde „Verän­derte Kom­mu­nika­tion“ wurde in Koop­er­a­tion mit dem Insti­tut für Prak­tis­che Philoso­phie / Ethik der Katholis­chen Pri­vatu­ni­ver­sität Linz organisiert.