Künstliche Intelligenz spielt in der persönlichen und politischen Kommunikation eine immer größere Rolle. Schneller und besser lernende Algorithmen können einzelne Menschen in Zukunft gezielter aufgrund deren digitalen Fußabdrucks ansprechen.

Verbunden damit sind Herausforderungen, zu erkennen „wer“ spricht (Mensch oder Maschine) und ob das Gesprochene und Gezeigte wahr oder falsch ist. Die Diskussionen um „Filter Bubbles“, „Fake News“, „Deepfake Videos“ und „Social Bots“ zeugen davon.

In einer Expert*innenrunde wurde die Frage gestellt, welche Auswirkungen diese Entwicklungen auf die öffentliche Kommunikation in Gesellschaft und Politik haben oder zukünftig haben werden. Leben wir in Zukunft in einer algorithmusgesteuerten Öffentlichkeit?

Algorithmen, Kommunikation und Demokratie

Nicht ohne Grund werden die westlichen Demokratien auch als „Mediendemokratien“ bezeichnet. Die Existenz unabhängiger Medien, öffentlicher Kommunikation, Redefreiheit und Informationsweitergabe gelten als Voraussetzungen für das Funktionieren eines demokratischen Prozesses. Das Internet, Soziale Medien und auf lernenden Algorithmen basierende Programme verändern nun rasant die Art, wie wir kommunizieren und setzen demokratische Prozesse unter Druck.

„Heterogene Gesellschaften, wie die unsere, benötigen einen gemeinsamen Informationsstand, um demokratisch funktionieren zu können.“ – Michael Mayrhofer

Gefährlich wird die Entwicklung, wenn das Vertrauen in die Information schwindet und das Gefühl entsteht, dass man Nachrichten nicht mehr trauen kann. Gerade auf Sozialen Medien können Falschnachrichten (Fake News) leicht publiziert und mittels automatisierter Programme (Social Bots), welche vorgeben echte Menschen zu sein, weit und rasch verbreitet werden. Bilder, Videos und Audios können durch neue Programme mittlerweile so täuschend echt produziert werden, dass es schwerfällt, wahr von unecht zu unterscheiden.

Suchmaschinen oder der Nachrichten-Feed in Sozialen Medien präferieren Beiträge, die besonders viel Interaktion hervorrufen oder die vielfach angeklickt werden. Sie bewerten die Relevanz einer Information jedoch nicht nach ihrem Wahrheitsgehalt. Dadurch werden skurrile Meinungen, Verschwörungstheorien oder von Social Bots gepushte Nachrichten viel häufiger angezeigt, als es deren Inhalt rechtfertigen würde.

Das dadurch in der Bevölkerung entstehende Misstrauen gegenüber sämtlichen Nachrichten und Informationen kann zukünftig gefährliche Ausmaße annehmen.

„Heute ist unsere primäre Quelle für politische Information und Kommunikation eine Verkaufsplattform. Und in einem Warenhaus diskutiert es sich anders als in einer politischen Arena.“ – Lukas Kaelin

Gleichzeitig können Menschen durch das Profiling ihres Onlineverhaltens viel gezielter und mit an sie angepassten Inhalten, erreicht werden. (Michal Kosinksi belegte dies eindrucksvoll beim Symposium 2019) Derzeit wird diese Möglichkeit hauptsächlich für Werbung genutzt, doch bei immer mehr Wahlen der letzten Jahre trat der Verdacht auf, dass auch versucht wurde, politische Meinungen oder Wahlentscheidungen durch individualisierte Falschnachrichten zu beeinflussen.

„Wir kommunizieren nicht nur Information, sondern viel stärker noch Emotion.“ – Marianne Pührerfellner

Eine Gesellschaft benötigt eine (auch digitale) Infrastruktur für vielfältige Kommunikation und Diskurse in die sie auch Vertrauen setzen kann. Die klassischen Instrumente dafür – wie etwa Medienförderungen und öffentlich-rechtliche Medien – reichen aber vielleicht in der Zukunft nicht mehr aus, um dies sicherzustellen. Eine Frage ist, wie man neue Instrumente und Infrastrukturen entwickeln kann.

Der Staat in der Pflicht

Der Staat hat im Sinne des Freiheitsrechts der freien Rede dafür zu sorgen, dass alle Bürger*innen innerhalb des gesetzlichen Rahmens frei kommunizieren können und eine Vielfalt an Meinungen existiert. Wie kann sichergestellt werden, dass jeder die gleichen Möglichkeiten hat, in den öffentlichen Diskurs zu kommen? Diese Frage sollte in Zukunft noch eingehender diskutiert werden.

Mögliche Lösungen

Die Verbreitung von Falschnachrichten oder -informationen ist kein neues Phänomen, doch neue Medien und lernende Algorithmen machen Fake News immer effizienter. Diese Entwicklung wird in den kommenden Jahren an Geschwindigkeit gewinnen und nicht leicht zu entschärfen sein. Die Expert*innenrunde konnte dennoch einige Empfehlungen entwickeln:

  • Mehr politischen Mut zur Regulierung im Bereich der Online-Kommunikation
  • Einführung eines Gütesiegels für vertrauenswürdige Informationsquellen
  • Kennzeichnungspflicht für veränderte Bilder, Videos und Tonaufnahmen in allen Medien
  • Verstärkte Vermittlung von Medienkompetenzen und Orientierungswissen für junge und alte Generationen
  • Für selbstlernende Algorithmen sollte ein „Explainability-Standard“ eingeführt werden (Das KI-System muss erklären können, warum und wie es zu einer Entscheidung gekommen ist)
  • Verstärkte Forschung im Bereich der automatisierten Erkennung von Social Bots und Deepfake-Videos

Künstliche Intelligenz könnte auch helfen

Intelligente Algorithmen helfen bei der Erstellung von immer besseren fiktiven – und oft bösartigen – Nachrichten. Doch Algorithmen könnten auch die Lösung sein, um eben diese Falschnachrichten zu identifizieren. Vielleicht braucht es in Zukunft nicht nur Spamfilter für E-Mails, sondern auch Filter für Fake News, Deepfake-Videos und Social Bots in Sozialen Medien. Die US-Militär Forschungsabteilung DARPA investierte allein im Jahr 2018 68 Mio. US-Dollar in Projekte um Deepfake-Videos automatisiert erkennen zu können.

„Medienkompetenz bedeutet, zu wissen, wo man nachsehen muss.“ – Heidi Vitez

Für viele Menschen ist die theoretisch unendliche Informationsfülle der Sozialen Medien schon heute überfordernd. Bessere Filter – die ebenfalls auf lernenden Algorithmen basieren – könnten hier in Zukunft helfen, persönlich relevante und reale Informationen zu erhalten.

Problematik in Bevölkerung kaum wahrgenommen

Die geschilderte Entwicklung sorgt derzeit nur in Fachkreisen für Beunruhigung. Eine Umfrage des market Institutes ergab, dass die Themen „Folgen von künstlicher Intelligenz für die Gesellschaft“ und „Datenschutz“ in der Bevölkerung kaum als relevant wahrgenommen werden. Hier wird eine weitere Herausforderung deutlich: ohne Sensibilität für die Thematik, wie Daten aufgezeichnet und verwertet werden, werden die Menschen kaum einen verantwortungsvollen Umgang mit ihren Daten durch die Anbieter von entsprechenden Diensten einfordern.

Künstliche Intelligenz, Kommunikation und das Private

Die Thematik, der durch Künstliche Intelligenz veränderten Kommunikation, spielt auch im privaten Bereich eine große Rolle. Mit intelligenten Assistenzsystemen wie Alexa und Siri, Smart Homes oder zukünftigen Haus- und Pflegerobotern kommuniziert der Mensch in vielfältiger Art und Weise – und auch hier müssen Daten aufgezeichnet werden, damit die Systeme funktionieren können. Hier stellt sich die Frage der Datenweitergabe: Sollten derartige Systeme eine Art „Schweigepflicht“ haben und sensible Daten der Besitzer*innen nicht weitergeben dürfen – bzw. aktiv nachfragen müssen, welche Daten sie weitergeben dürfen?

„Intelligente Systeme haben als private Kommunikationspartner, einfach zum Plaudern und Zuhören, enormes Potenzial.“ – Bernad Batinic

Ferner muss geklärt werden, wie der Mensch mit derartigen Systemen kommunizieren kann. Wie etwa Emotionen vermittelt werden können, oder ob man auch mit Assistenzsystemen höflich sprechen sollte, oder ob der Imperativ vorherrschen darf. Und vor allem: Wer soll über die Antworten auf diese Fragen entscheiden?

Am Expertengespräch haben teilgenommen:

  • Univ. Prof. Dr. Bernad Batinic, Johannes Kepler Universität Linz | Institut für Pädagogik und Psychologie
  • Ass.-Prof. Dr. Lukas Kaelin, Katholische Privatuniversität Linz | Institut für Praktische Philosophie / Ethik
  • Univ.-Prof. Dr. Michael Mayrhofer, Johannes Kepler Universität Linz | Institut für Verwaltungsrecht
  • Dr. David Pfarrhofer, market – Institut für Markt-, Meinungs-, und Mediaforschung
  • Ass.-Prof. DI (FH) Marianne Pührerfellner, Kunstuniversität Linz | Institut für Medien, Abteilung Visuelle Kommunikation
  • Dr. Claudia Schwarz, ACADEMIA SUPERIOR
  • Stefan Straßburger, involve – Büro für digitales Marketing
  • Heidi Vitéz, Digital Communication und Marketing Managerin

Predictive Futures – Die Vermessung der Zukunft
Im Rahmen des Jahresschwerpunktes auf „gesellschaftliche Folgen der Entwicklung von Künstlicher Intelligenz“ organisiert ACADEMIA SUPERIOR mehrere Expertengespräche. Die Gesprächsrunde „Veränderte Kommunikation“ wurde in Kooperation mit dem Institut für Praktische Philosophie / Ethik der Katholischen Privatuniversität Linz organisiert.