Wie weit dürfen intelligente Maschinen selbständig handeln?

    Das heurige Symposium von ACADEMIA SUPERIOR befasst sich mit Künstlicher Intelligenz:

    Markus Hengstschläger diskutierte mit Studierenden über die Moral von Maschinen

    Wer ist verantwortlich, wenn Maschinen den Tod von Menschen verursachen? Soll Künstliche Intelligenz autonom über ethische Probleme entscheiden dürfen? Und wie kann unsere Privatsphäre in einer Welt, in der intelligente Algorithmen unser Verhalten permanent analysieren, effektiv geschützt werden? Vor diese Fragen stellt uns aktuell der technologische Fortschritt. Sie müssen beantwortet werden, bevor selbstfahrende Fahrzeuge oder autonome Roboter in unseren Alltag einziehen können.

    Studierende aus Oberösterreich diskutierten gemeinsam mit dem wissenschaftlichen Leiter der ACADEMIA SUPERIOR – Gesellschaft für Zukunftsforschung, dem Genetiker Univ.-Prof. Dr. Markus Hengstschläger, vergangenen Dienstag, über mögliche Antworten. Dieser Workshop diente der Vorbereitung des diesjährigen Symposiums von ACADEMIA SUPERIOR in Gmunden, das sich unter dem Motto „Predictive Futures: Die Vermessung der Zukunft“ am 30. März ebenfalls mit diesen Fragen befassen wird.

    Algorithmen entscheiden immer selbständiger

    Die Entwicklung selbstlernender Algorithmen, welche die Basis für künstliche Intelligenz bilden, schreitet immer weiter voran. Diese Technologie basiert darauf, dass eine Software mit Daten trainiert wird um ein bestimmtes Problem später selbständig und mit eigener Herangehensweise lösen zu können. Selbstfahrende Fahrzeuge sind nur das derzeit bekannteste Beispiel für Technologien, die ohne derartige Programme nicht funktionsfähig wären. Aber auch im Gesundheitssystem, in der Werbung und in vielen weiteren Bereichen werden sie immer breiter eingesetzt: zur Früherkennung von Hautkrebs, für Kaufempfehlungen auf Online-Shopping-Portalen, für Wetter- oder Verkehrsprognosen, zur Logistikplanung, für die Spracherkennung und -ausgabe oder zur Partnervermittlung. Überall werden Algorithmen mittlerweile verwendet. Und sie werden immer klüger, je mehr sie eingesetzt werden und lernen Menschen immer besser einzuschätzen und ihr Verhalten vorherzusagen. Was bedeutet das für Zukunft, wenn unser Leben immer mehr von den Empfehlungen und Entscheidungen dieser Systeme beeinflusst wird?

    „Eine der Aufgaben der Politik liegt darin, den technologischen Fortschritt derart zu verlangsamen, dass der Mensch noch mitkommen kann. Die Politik muss überprüfen, ob das, was technisch machbar ist, auch wirklich sinnvoll ist. Und im Zweifel auch gegensteuern“, formulierte Markus Hengstschläger einen Appell. Gerade im Bereich der Online-Medien ist die Situation in den letzten Jahren außer Kontrolle geraten, bemerkten einige der Studierenden und verwiesen auf Phänomene wie Fake News, Hasskommentare und gesteuerte Meinungsbeeinflussung im Internet. Diese Entwicklung gehe so weit, dass sie die demokratische Grundordnung bedrohe.

    Was kann dagegen getan werden? „Bildung und Wissensvermittlung sind die einzigen nachhaltigen Lösungen“, lautete die Antwort des Genetikers. Nur wer gelernt hat, Google-Suchergebnisse, Facebook-Postings usw. hinsichtlich ihrer Quellen und Motive zu hinterfragen, kann Fakten von Fake unterscheiden. Für Hengstschläger haben hier alle etwas beizutragen: „Die Wissenschaft muss Wissen schaffen und erklären; die Medien müssen dieses Wissen kommunizieren und zu Information machen; und die Bürger haben die Pflicht sich zu informieren und sich, darauf basierend, politisch zu entscheiden“, so Markus Hengstschläger.

    Maschinen haben keine Moral

    Eine der weiteren Antworten, die während des Workshops in der ACADEMIA SUPERIOR gefunden wurde, lautet: Wir dürfen keine Maschinen entwickeln, deren Entscheidungen nicht mehr vom Menschen nachvollzogen werden können. Algorithmen müssen „sich erklären können“. Nur so kann auch im Vorhinein abgeschätzt werden, wie sich ein derartiges System in einer bestimmten Situation entscheiden und welche Handlungen es setzen wird.
    Diese Systeme – so intelligent sie auch zu sein scheinen – haben kein eigenes Bewusstsein. Kategorien wie „Moral“ oder „Ethik“ sind keine Kriterien, die sie selbständig entwickeln können. Eine der großen gesellschaftlichen Aufgaben, vor der die Menschheit steht, ist es, den Rahmen zu definieren, innerhalb dessen die Maschinen selbständig agieren dürfen. Welchen Prinzipien Algorithmen zwingend zu folgen haben, wird daher in Expertenkreisen derzeit stark diskutiert.

    Die Verantwortung liegt beim Menschen

    Es sind immer Menschen oder Unternehmen, die für die Programmierung des Systems – für den gesetzten Rahmen – und die sich daraus ergebenden Entscheidungen verantwortlich sind. Die Maschine selbst kann es nicht sein. Und: wir dürfen keine Technologie einsetzen, die wir nicht mehr verstehen, deren Entscheidungen und Handlungen für den Menschen nicht mehr vorhersehbar sind. Diese Schlussfolgerungen fassten die Studierenden.

    Am 30. März wird dieses Thema von der ACADEMIA SUPERIOR bei einem Symposium mit internationalen Expertinnen und Experten in Gmunden weiterdiskutiert. Eine öffentliche Abendveranstaltung bietet Einblicke in die Gespräche. Mehr Infos und Anmeldung zum ACADEMIA SUPERIOR SURPRISE FACTORS SYMPOSIUM auf www.academia-superior.at/plenum

    Fotos:
    Studierende und Markus Hengstschläger bei den Diskussionen in der ACADEMIA SUPERIOR
    Fotos Honorarfrei © Academia Superior/Wakolbinger