Wird men­schlich­es Ver­hal­ten durch die Kom­bi­na­tion aus intel­li­gen­ten Algo­rith­men und dem dig­i­tal­en Fußab­druck immer berechen­bar­er? Was sind die Fol­gen dieser Entwick­lung? Diese Fra­gen standen im Zen­trum der Diskus­sio­nen beim 9. SURPRISE FACTORS SYMPOSIUM. Drei inter­na­tion­al renom­mierte Expert*innen wur­den ein­ge­laden, ihre Ein­sicht­en mit ACADEMIA SUPERIOR zu teilen, um daraus Ideen und Empfehlun­gen entwick­eln zu kön­nen.

Geleit­et und mod­eriert wur­den die Diskus­sio­nen von der Jour­nal­istin Dr. Melin­da Crane und dem wis­senschaftlichen Leit­er der ACADEMIA SUPERIOR, Univ.-Prof. Dr. Markus Hengstschläger. Auch Mit­glieder des wis­senschaftlichen Beirats und der Young Acad­e­mia bracht­en sich rege in die Gespräche ein. „Die tech­nol­o­gis­chen Entwick­lun­gen – wie die These ‘Pri­va­cy is gone’ – sind da und wir müssen uns auch mit ihnen auseinan­der­set­zen. Ein Zurück­drehen der Zeit wird nicht möglich sein. Also ist die große Frage: Wie kön­nen wir diese neuen Tech­nolo­gien in unsere Gesellschaft inte­gri­eren, damit unsere Gesellschaft trotz­dem wertschätzend, wohlwol­lend, offen, kri­tik­fähig und ver­ant­wor­tungs­be­wusst bleibt“, fasste die desig­nierte Obfrau LH-Stv. Mag. Haber­lan­der das Ziel der Diskus­sio­nen zusam­men.

Privatsphäre ist eine Illusion

Prof. Michal Kosin­s­ki, PhD von der Uni­ver­si­ty Stan­ford zeigte bere­its im Jahr 2016 in einem auf­se­hen­erre­gen­den Artikel mit dem Titel „Ich habe nur gezeigt, dass es die Bombe gibt“, dass mit den heuti­gen Möglichkeit­en der Date­n­analyse das Ver­hal­ten von Men­schen nicht nur vorherge­sagt, son­dern auch bee­in­flusst wer­den kann.

Seine pro­vokante These, die Pri­vat­sphäre ist ein Aus­lauf­mod­ell, unter­mauerte Kosin­s­ki mit anschaulichen Zahlen und Fak­ten: „Wir alle hin­ter­lassen mit unseren Aktiv­itäten im Inter­net einen dig­i­tal­en Fußab­druck – Bere­its im Jahr 2012 erzeugte eine Per­son eine Daten­menge von 500 Megabyte pro Tag. Und laut Prog­nosen wer­den es 2025 bere­its 62 Giga­byte pro Tag sein.“ Diese Dat­en stam­men aus dem dig­i­tal­en Fußab­druck durch die Nutzung von Smart­phones, Social Media, dem Inter­net, Sprachas­sis­ten­ten, Überwachungskam­eras, Sen­soren oder Kred­itkarten usw., denn alle ‚smarten‘ Geräte zeich­nen auch Dat­en auf.

Facebook kennt uns besser als die Partnerin

In ein­er Studie mit 60.000 Teilnehmer*innen kon­nte Kosin­skis Team zeigen, dass es nur ca. 250 Likes auf Face­book braucht, damit ein Algo­rith­mus einen Men­schen in einem Per­sön­lichkeit­stest genau­so gut ein­schätzen kann wie dessen Lebenspartner*in. Dies hat zur Folge, dass durch eine solche Auswer­tung auch z.B. indi­vidu­ell zugeschnit­tene Wer­bung oder Botschaften ver­mark­tet wer­den kön­nen.

Das Bestreben, Pri­vat­sphäre umfassend zu schützen, stößt immer mehr an seine Gren­zen. „Unternehmen kann man ja vielle­icht noch dazu verpflicht­en, aber krim­inelle Organ­i­sa­tio­nen oder Indi­viduen wer­den immer irgend­wie Zugriff auf sen­si­ble Dat­en erhal­ten und die Bequem­lichkeit der Men­schen tut ihr übriges“, betonte der Psy­chologe und Daten­forsch­er aus Stan­ford und wies darauf hin, dass die große Mehrheit der Men­schen Dat­en frei­willig bere­it­stellt, um Online­di­en­ste nutzen zu kön­nen, die ihr Leben ein­fach­er und bess­er machen. Solche Dien­ste wür­den ohne diese Dat­en nicht funk­tion­ieren. Die Schlussfol­gerung des Experten stimmt nach­den­klich, denn man kön­nte fast behaupten: wer seine Dat­en nicht frei­gibt, ver­hält sich unsozial und prof­i­tiert nur davon, dass viele andere es tun.

Doch die Entwick­lung hat auch ein­deutigere Schat­ten­seit­en: In sein­er neuesten Studie zeigt Kosin­s­ki, dass eine Kün­stliche Intel­li­genz nur fünf Pro­fil­bilder ein­er Per­son benötigt um mit 80–90 prozentiger Sicher­heit deren sex­uelle Ori­en­tierung einord­nen zu kön­nen. „Ein Umstand, der in unseren lib­eralen Gesellschaften eher neben­säch­lich ist, aber in Staat­en, in denen Homo­sex­u­al­ität unter Todesstrafe ste­ht, bedeutet es eine Frage von Leben und Tod“, so Kosinksi.

“Pri­vat­sphäre ist eine Illu­sion. Desto eher man die Real­ität akzep­tiert, desto eher kann man sin­nvoll über die notwendi­ge Poli­tik reden.” – Michal Kosin­s­ki

„Auch ich mache mir Sor­gen um den Miss­brauch von Dat­en, aber ich bin überzeugt, dass 99,9 % der Algo­rith­men pos­i­tiv genutzt wer­den, um den Men­schen zu helfen. Daher bin ich dafür, dass wir akzep­tieren, dass Pri­vat­sphäre Ver­gan­gen­heit ist und wir uns mehr darauf konzen­tri­eren, die Risiken zu min­imieren und den Nutzen zu max­imieren“, betonte Kosin­s­ki und fügte hinzu: „Nur wenn wir diese Real­ität akzep­tieren, kön­nen wir über die notwendi­ge Poli­tik disku­tieren und das Beste aus der neuen Tech­nolo­gie her­aus­holen”.

Ethische Regeln für Roboter

Robot­er­forsch­er und ‑designer­in Univ.-Prof. Dr. Nadia Thal­mann von der Nanyang Tech­no­log­i­cal Uni­ver­si­ty schilderte ihre Erfahrun­gen mit dem Ein­satz von sozialen Robot­ern. Der tech­nol­o­gis­che Fortschritt macht es möglich, dass Maschi­nen men­schliche Sprache, Gesten und Emo­tio­nen aus Bewe­gun­gen, Ton und Bild erken­nen kön­nen, sich an Men­schen erin­nern, bei Fra­gen im Inter­net nach Antworten suchen und sich in mehreren Sprachen unter­hal­ten.

Der von Prof. Thal­mann kreierte Robot­er Nadine arbeit­et derzeit in einem Testver­such im Kun­denser­vice eines Ver­sicherung­sun­ternehmens. Erste Ergeb­nisse zeigen, dass der Robot­er nicht nur schneller auf Anfra­gen reagiert als die men­schlichen Kolleg*innen, son­dern auch, dass die Kund*innen den Robot­er gut akzep­tieren.

Die weit­ere Zukun­ft ihrer Robot­er sieht die Forscherin von der NTU Sin­ga­pure derzeit vor allem in der Pflege- und Betreu­ungsar­beit mit älteren Men­schen. Hier wird in weni­gen Jahren ein großer Arbeit­skräfte­man­gel herrschen. „Soziale Robot­er kön­nten als Begleit­er und Unter­stützung der Men­schen agieren“, meinte Thal­mann.

„Poli­tik und Gesellschaft soll­ten jet­zt entschei­den, was wir Robot­ern alles zu tun erlauben wollen. Jet­zt ist die richtige Zeit, um darüber zu disku­tieren.“ – Nadia Thal­mann

Damit Robot­er wirk­lich sin­nvoll einge­set­zt wer­den kön­nen, braucht es jedoch geeignete Rah­menbe­din­gun­gen. Selb­st für Robot­er muss es Regeln geben, die deren Ver­hal­ten steuern: „Auch, wenn Robot­er nie wirk­lich fühlen, son­dern Emo­tio­nen immer nur simulieren kön­nen, müssen wir doch in deren Soft­ware Gren­zen für ihr Ver­hal­ten ver­ankern“, plädierte Thal­mann, die ihren Robot­er etwa bewusst zur Ehrlichkeit pro­gram­miert hat.

Roboter in der Arbeitswelt

Wer­den Robot­er den Men­schen in der Arbeitswelt erset­zen? Robot­er­forscherin Thal­mann sieht dafür in der näch­sten Zeit keine Hin­weise, auch wenn ihre Tests und Pro­jek­te über­aus erfol­gre­ich ver­laufen: „Nadine kann einige eng definierte Bere­iche gut beherrschen, aber sie wird in abse­hbar­er Zeit keinen voll­w­er­ti­gen men­schlichen Job übernehmen – nur Teil­bere­iche“, schilderte Thal­mann. Sie ver­wies darauf, dass wir nur einen Bruchteil der Psy­cholo­gie und Phys­i­olo­gie des Men­schen wirk­lich ver­ste­hen – trotz Jahrhun­derten an Forschung. „Von unseren Robot­ern wis­sen wir aber alles. Sie sind bei Weit­em nicht so kom­plex wie der Men­sch“, so Thal­mann.

Generell iden­ti­fizierte die gebür­tige Schweiz­erin, die jet­zt in Sin­ga­pur lebt, deut­liche kul­turelle Unter­schiede im Umgang mit Robot­ern in zwis­chen den USA, Europa und Ostasien. Während Asi­at­en neuen Tech­nolo­gien gegenüber ten­den­ziell aufgeschlossen­er sind, agieren Europäer zuerst eher skep­tisch und vor­sichtig. „Wenn man in Asien fest­stellt, dass ein Robot­er einen Job genau­so gut oder bess­er als ein Men­sch machen kann, dann wird man einen Robot­er ein­set­zen. Hier zählt vor allem die Effizienz“, so Thal­mann.

Mehr Technologiefolgen-Abschätzung nötig

Die Jour­nal­istin Dr. Susanne Gaschke warnte vor „dig­i­taler Ver­dum­mung” und forderte inten­si­vere Tech­nolo­giefol­gen-Abschätzung, um die Risiken der Dig­i­tal­isierung vorherse­hen und min­imieren zu kön­nen: „Wir nutzen die dig­i­tal­en Möglichkeit­en vielfach auch aus rein­er Bequem­lichkeit, ohne deren neg­a­tiv­en Auswirkun­gen aus­re­ichend zu bedenken: Der Online-Han­del etwa, lässt die Innen­städte verö­den und erhöht die Verkehrsprob­lematik. Die gewalti­gen Daten­men­gen erfordern immer höhere Spe­icherka­paz­itäten mit entsprechen­dem Energiebe­darf, daraus wird ein höchst unökol­o­gis­ches Sys­tem”, so Gaschke.

Die Dig­i­tal­isierung eröffnet für sie auch neue Her­aus­forderun­gen im Bil­dungswe­sen. „Erwach­sene und Kinder müssen ler­nen, wie man zu sin­nvollen und richti­gen Infor­ma­tio­nen im Inter­net kommt.” Ger­ade die Nachricht­enkom­mu­nika­tion im Inter­net birgt auch Risiken in sich, meinte die Jour­nal­istin: „Extreme Mei­n­un­gen wer­den im Netz beson­ders hoch gew­ertet und dementsprechend stark ver­bre­it­et. Jour­nal­is­ten nutzen heute bewusst diese Logik aus und tra­gen dadurch zum Erstarken dieser Ideen bei”.

„Man muss viel wis­sen, um viel aus dem Inter­net raus­holen zu kön­nen.“ – Susanne Gaschke

Ger­ade im Bil­dungswe­sen sollte der Ein­satz dig­i­taler Tech­nolo­gien wohl bedacht stat­tfind­en, denn neue Stu­di­en zeigen, dass Kinder die früh in Kon­takt mit „dig­i­tal­en Ablenkungs­maschi­nen“ in Kon­takt kom­men, wesentliche (men­schliche) Fähigkeit­en zu wenig aus­bilden kön­nten. Trotz­dem hat die Dig­i­tal­isierung auch sehr viele pos­i­tive Seit­en. In Bezug auf fehlende Arbeit­skräfte im Pflege­bere­ich meinte Gaschke etwa, dass Robot­er als Pflegekräfte immer noch bess­er seien, als gar keine Betreu­ung.

Sie plädiert dafür, noch bre­it­er über die neg­a­tiv­en und pos­i­tiv­en Fol­gen der tech­nol­o­gis­chen Entwick­lung zu disku­tieren und find­et: „Tech­nol­o­gis­ch­er Fortschritt gilt heute fast schon als sakrosankt. Darüber darf man nicht öffentlich disku­tieren. Das sollte man aber“.

Nicht alles tun, was man kann

Markus Hengstschläger sprach sich in den Diskus­sio­nen dafür aus, dass der Men­sch nicht alles, was tech­nisch oder wis­senschaftlich möglich ist, auch tat­säch­lich umset­zen sollte. In gewis­sen Bere­ichen – dort wo die Risiken nicht abschätzbar sind – muss sorgfältig vorge­gan­gen wer­den. Der Genetik­er ver­wies als Beispiel für Möglich­es, das aber inter­na­tion­al abgelehnt wurde, auf die vor Kurzem pub­lik gewor­de­nen Fälle von gen­tech­nisch mod­i­fizierten Embryos in Chi­na. Hier hat sich inner­halb kürzester Zeit die Poli­tik und Wis­senschaft weltweit und auch in Chi­na selb­st, dafür aus­ge­sprochen, der­ar­tige Exper­i­mente nicht zulassen zu wollen.

„Es liegt auch an der Poli­tik, die tech­nol­o­gis­che Entwick­lung so zu entschle­u­ni­gen, dass der Men­sch noch mitkommt“, unter­strich Hengstschläger und betonte, dass es mehr Bemühun­gen für glob­ale Vere­in­barun­gen zu den großen Her­aus­forderun­gen vor denen die Men­schheit ste­ht, braucht. Alle diese neuen Tech­nolo­gien kann und soll man zum Nutzen der Men­schen ver­wen­den, „wir brauchen aber eine per­ma­nente ethis­che Begleitung in der Diskus­sion tech­nol­o­gis­che Inno­va­tio­nen“, so Hengstschläger. Und die Mod­er­a­torin des Sym­po­siums, Melin­da Crane fasste zusam­men: „Wir kön­nen diese neuen Tech­nolo­gien nicht stop­pen. Wir müssen und kön­nen sie aber gestal­ten. Um die Risiken zu min­imieren und den Nutzen zu max­imieren.“

SURPRISE FACTORS PLENUM
Erste Ergeb­nisse und Ein­sicht­en in die The­matik des Sym­po­siums, wur­den beim PLENUM mit mehr als 700 Besucher*innen im Kon­gresszen­trum Toscana präsen­tiert. Alle Videos und Inhalte vom PLENUM >

SURPRISE FACTORS REPORT
Die Ergeb­nisse und Ideen des Sym­po­siums wer­den in den näch­sten Wochen im SURPRISE FACTORS REPORT schriftlich verdichtet. Zu den Reports der let­zten Jahre >