Das gezinkte Glückspiel der Daten – Treffpunkt Wissenschaftskommunikation #WisskomMUC

Posted on 18. Mai 2021

1


Social-Media-Plattformen sind ein Feld der Täuschung und der unsichtbaren Daten-Manipulation, warnt der Datenforscher Prof. Jürgen Pfeffer von der Hochschule für Politik der TU München.

Ein Informatiker mit Blickrichtung Gesellschaft: Prof. Jürgen Pfeffer, Professor für Computational Social Science & Big Data an der Hochschule für Politik der TU München.

Vor zwanzig Jahren war die Welt der Prominenz noch eine ganz andere: Ein paar einflussreiche Freunde, gute Beziehungen zu Gesellschaftsreportern und ein gutes Stehvermögen für viele, viele Partydrinks genügten, um als prominent zu gelten, zumindest als „Adabei“ (bayerisch: Mitläufer), wie sie in der grandiosen Münchner Gesellschaftssatire „Kir Royal“ des (zuletzt umstrittenen) Regisseurs Helmut Dietl so wunderschön persifliert wurden: Oft in der Zeitung mit Bild erscheinen, später im Dschungelcamp Regenwürmer essen, und noch ein paar Attribute mehr – das genügte einst, um als Prominent zu gelten.

Heute ist das anders. Heute gibt es die Sozialen Medien im Internet. Und heute lässt sich Prominenz in Zahlen messen, in Followern, Likes und Retweets. Akurat, unverfälscht und unbestechlich – scheinbar. Wer auf Youtube, Facebook, Twitter oder TikTok die Millionen erreicht, darf sich prominent nennen, kann sein Geld durch Werbung als Influencer verdienen oder wird sogar als Meinungsführer der jungen Generation zu Talkshows ins traditionelle Massenfernsehen eingeladen.

Social Media bringen inzwischen Millionen Menschen zusammen, sind ein Phänomen des sozialen Lebens, das sehr viel weiter geht, als der Nachweis von Prominenz oder der Austausch zwischen einigen engen Freunden. Diese neuen, interaktiven und responsiven Medien tragen inzwischen ganz wesentlich zur Meinungsbildung in der Gesellschaft bei, ja einige Parteien heben in ihrer Bürgerkommunikation und im beginnenden Wahlkampf längst auf Social Media ab.

Und jeder, der mit Social Media umgeht, schaut zunächst auf die Zahlen unter dem Profil oder unter den einzelnen Meinungsäußerungen: Wie viele Follower hat er, wieviele Likes und Retweets haben seine Posts, welche Themen bewegen heute die Menschen im Lande. Viele, die von anderen Menschen abhängig sind – und dazu gehören alle Kommunikatoren, auch die der Wissenschaft – arbeiten täglich mit diesen Zahlen, ganz besonders aber Journalisten und Politiker.

Doch was sind diese Zahlen wirklich wert? Das ist das Forschungsfeld von Prof. Jürgen Pfeffer, seines Zeichens Professor für Computational Social Science & Big Data an der Hochschule für Politik der TU München. Er war Referent beim elften „Treffpunkt Wissenschaftskommunikation“, der wieder online stattfand, mit Gästen aus der ganzen Republik. Gastgeber und technischer Host war, wie beim allerersten „Treffpunkt“ vor dreieinhalb Jahren, die Fraunhofer-Gesellschaft, deren Kommunikationschef Janis Eitner auch die Diskussion moderierte.

Prof. Pfeffer will die Zahlen in den Social Media vor allem nutzen, um das Verhalten von Menschen besser kennenzulernen und zu verstehen. Und er erlebt immer wieder, wie leicht diese Zahlen gefälscht werden können, gezielt oder unbewusst, durch Software-Roboter oder bewußte Beeinflussung, meist aber unsichtbar und auch mit ausgefeiltesten technischen Methoden nicht aufzudecken. Dabei wären diese Daten von den Plattformen spannende Informationen darüber, für was sich Menschen interessieren, wie sie interagieren und sich vernetzen. Und das sogar in Echtzeit, nur Millisekunden nach den Meinungsäußerungen der Individuen, und global. Prof. Pfeffer macht dies deutlich anhand eines Stadtplans von München, auf dem die Geodaten von 5.000 Tweets aufgetragen sind, die in München innerhalb von 24 Stunden abgesetzt wurden.

Wer twittert wo? 5.000 Tweets eines Tages im Raum München. Es lassen sich Strukturen erkennen, wo Menschen digital kommunizieren, wo sie sich mitteilen.

Denn ohne es zu merken, liefern die Nutzer ja viel mehr Informationen als nur ihre Meinung an die Social-Media-Plattformen, etwa die Uhrzeit, ihren Standort, eventuell auch das Gerät, das sie benutzen, und die App. Deutlich ballen sich auf dieser Karte die Tweets in der Innenstadt, aber ebenso deutlich zeichnen sich die S-Bahn-Linien in die Peripherie ab, sowie einige Knoten an den Hochschulzentren. Spannend wird es aber, wenn man betrachtet, wo Tweets von woher retweetet, erneut retweetet oder geliked werden – ein Füllhorn für Thesen zur digitalen Sozialstruktur einer Stadt.

Networking aufgedeckt: Wo werden die Tweets in München geliked und retweetet?

Soweit ganz schön. Doch stellen diese Zahlen tatsächlich ein Abbild der Wirklichkeit dar? Eher nicht, meint Prof. Pfeffer, denn es gibt längst Social Bots – Automaten, die nach Analyse des Inhalts mehr oder weniger autonom in sozialen Medien kommunizieren, häufig mit der Aufgabe, den Diskussionsverlauf oder die Meinungen seiner Leser zu beeinflussen. Solche Bots kann man bereits fix und fertig kaufen, etwa für 47,99 Dollar, um scheinbare 10.000 Zuschauer für ein Youtube-Video zu generieren. Als zweites Argument für seine Skepsis führt Big Data-Spezialist Pfeffer ein eigenes Experiment an, bei dem er – testweise – mit 1.500 Tweets von 100 Twitter-Konten insgesamt 122.000 Kommentare zu einem Tweet des amerikanischen Präsidenten Donald Trump in den Twitter-Statistiken fingierte.

Der Trick war einfach: Twitter stellt für die statistische Auswertung der Daten ein Prozent der Tweets zur Verfügung – genau betrachtet alle Tweets, die in genau festgelegten zehn Millisekunden einer Sekunde (1 Prozent!) auf seinen Servern eingehen. Professor Pfeffer ließ seine eigenen Bots nun gezielt die Tweets für diese zehn Millisekunden absenden, 1.200 kamen pünktlich an und täuschten so 122.000 Kommentare vor. Und das Teuflische: Diese automatischen Manipulationen lassen sich von echten Meinungsäußerungen von echten Menschen nicht mehr unterscheiden. Eine Auftrennung ist unmöglich, nicht technisch, nicht händisch. Diese Algorithmen verändern die Daten über menschliches Verhalten so, dass sie nicht mehr zuverlässig sind.

Von Angesicht zu Angesicht: Vorteil von „Treffpunkten“ online – die Teilnehmer blicken sich in die Augen, bei „teams“ leider nur neun. Wer’s nicht mag, schaltet die Kamera aus.

Doch wie wirkt sich Manipulation der Social Media-Reaktionen auf die Meinung und das politische Verhalten der Menschen aus? Auch zu dieser Frage konnte Professor Pfeffer ein Beispiel aus der eigenen Forschung anführen, leider nur ein – immerhin aussagekräftiger – Vorversuch (das repräsentative Experiment wurde bislang durch die Corona-Beschränkungen verhindert). Er interviewte Probanden zu fünf aktuellen politischen Themenbereichen, etwa Migration, Klimawandel, Wohlstandsverteilung, wählte diejenigen mit prononcierter, aber gemäßigter Meinung aus und gab ihnen den Auftrag, eine Woche lang täglich mindestens fünf Tweets zu kommentieren, die nicht ihrer eigenen Meinung entsprechen. Danach erneut befragt zeigte sich, dass diese Teilnehmer deutlich weniger gemäßigt ihre Meinung vertraten, stärker polarisiert waren, ein Stück extremer formulierten als vorher: Eigentlich ein verständliches psychologisches Phänomen, das sich dadurch noch deutlich steigern ließ, daß die Probanten auf ihre Kommentare positive Reaktionen erhielten, wie Likes, Retweets oder sogar kurze Kommentare („Ganz richtig!“), die ihnen von den Versuchsleitern unerkannt zugespielt wurden. Dies hätte auch ein Social Bot erledigen können.

Das Problem ist nicht, dass Menschen nach den Regeln der Psychologie reagieren, also menschlich. Sondern dass Automaten mit Likes, Retweets und zustimmenden Kommentaren die Meinung dieser Menschen in Richtung von Extremen verschieben. Dies ermöglicht gezielte Manipulation. Und diese Täuschungen sind nicht einmal zu erkennen. Dahinter stecken geschlossene Systeme, resümiert der Informatiker Pfeffer, unbekannte Algorithmen und versteckte Daten: Niemand weiß, wie zuverlässig die Daten sind oder wie diese Systeme arbeiten, kaum einer versteht die Algorithmen, niemand kann die Daten prüfen.

Wenn Algorithmen manipulieren… Ein Ausschnitt (24 Min.) aus der Präsentation von Prof. Jürgen Pfeffer beim „Treffpunkt Wissenschaftskommunikation“.

Als Beispiel nennt er eine Software aus dem Bereich der Künstlichen Intelligenz, die in Florida Richtern helfen sollte, die Rückfallwahrscheinlichkeit von Straftätern einzuschätzen, um entsprechend das Strafmaß festzulegen. Ihre Zuverlässigkeit wurde mit 90 Prozent angegeben, doch die falschen zehn Prozent wirkten sich ganz unterschiedlich aus: Bei weißen Delinquenten wurde die Wahrscheinlichkeit einer erneuten Staftat zu gering eingeschätzt, bei farbigen Tätern zu hoch: Der Softwarefehler kostete die Betroffenen wertvolle Lebensjahre. „Algorithmen haben intrinsisch die Vorurteile ihrer Programmierer mit einprogrammiert“, schlußfolgert der Datenspezialist Pfeffer. Die Folge: Unser Blick auf die Realität wird manipuliert.“ Medien und Kommunikatoren forderte er auf, niemals Rankings anhand von Social-Media-Daten zu machen.

Social-Media-Plattformen sind Massenmedien: Doch ihre Daten und die Algorithmen dahinter bleiben für die Gesellschaft Black Boxes.

Sein Fazit: Wir brauchen mehr Transparenz, sowohl zur Zuverlässigkeit der Daten als auch zur genauen Arbeitsweise von Algorithmen. Doch das ist schwierig, blicken doch bei Funktionen von Künstlicher Intelligenz selbst Fachleute nicht mehr durch, außer vielleicht der Schöpfer eine Algorithmus selbst. Deshalb aber, so Prof. Pfeffer, müssten die Social-Media-Plattformen mehr Verantwortung für die von ihnen verbreiteten Informationen übernehmen, sie müssten mehr Druck spüren, auch für Korrekturen bereit zu sein.

Von den betroffenen Bürgern selbst forderte Pfeffer, sich mehr Kompetenz über die Risiken von Social-Media-Daten anzueignen, ihre Wahrnehmung dieser Informationen zu relativieren. Und vor allem ihnen mit größter Skepsis zu begegnen: „Nur weil man es nicht versteht, heißt das nicht, es ist gut.“ Der Einzelne aber habe keine Chance, in dieser Gemengelage den Durchblick zu behalten, wo technische Komplexität, wirtschaftliche Interessen, politische Beeinflussung und unbeabsichtigte Fehler durcheinanderwirken. Hier sei die Politik gefordert, aber auch die Wissenschaft, nicht zuletzt aber die ganze Gesellschaft. Denn die Mischung von undurchschaubarer Künstlicher Intelligenz und unentdeckbaren Software-Robotern werde ganz generell zu einer Herausforderung für eine demokratische Gesellschaft.

Schlussbemerkungen (1:30 Min.) von Prof. Pfeffer aus der Diskussion zu Wenn Algorithmen manipulieren… beim „Treffpunkt Wissenschaftskommunikation.

Mein Fazit: Ohne Zweifel sind manipulierende Algorithmen ein Problem, dass weit über die Wissenschaftskommunikation hinausreicht. Doch angesichts der weiter wachsnden Bedeutung der Social Media als gesellschaftlicher Austauschplattformen stellen sich gerade auch für Wissenschaftskommunikatoren sehr relevante Fragen: Wenn Wissenschaft ein Grundbaustein der Demokratie ist, helfen wir dann der Wissenschaft von Künstlicher Intelligenz, die allein Transparenz schaffen kann, genügend Aufmerksamkeit? Oder belassen wir es beim pragmatischen Fatalismus, dass Software nicht als Thema für Medien taugt? Andererseits: Begegnen wir in der Nutzung von Social Media-Plattformen diesem Medium tatsächlich mit der notwendigen Skepsis, schätzen wir Shitstorms und Sweetstorms als Reaktionen richtig ein? Nennen wir nach Außen offen die Risiken für die Zuverlässigkeit dieser Medien und der dort grassierenden Reaktionen? Social Media sind heikle, aber wichtige – und in Zukunft wahrscheinlich noch bedeutendere – Medien: Was tun wir, um uns den für Wissenschaft passenden Umgang damit zu erarbeiten? Nah an der skeptisch analysierenden Wissenschaft, wie wir sind, könnten wir einen Beispiel für die ganze Gesellschaft sein.

Der „Treffpunkt Wissenschaftskommunikation“ #WisskomMUC

Der „Treffpunkt Wissenschaftskommunikation“ #WisskomMUC ist eine Initiative dieses Blogs „Wissenschaft kommuniziert“. Er soll Aktive in der Wissenschaftskommunikation zusammenführen zum Erfahrungsaustausch, zum Vernetzen, zum Diskutieren über das eigene Tun, aber auch Wissenschaftler und Wissenschaftsjournalisten mit einbeziehen. Der „Treffpunkt Wissenschaftskommunikation“ ist in München entstanden und wandert jedes Mal zu einer anderen der vielen Münchner Wissenschaftsinstitutionen – Gelegenheit, andere Umgebungen kennenzulernen, andererseits das eigene Haus den Kollegen zu präsentieren.

Gastgeber dieses „Treffpunkts“ war die Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung, deren Kommunikationschef Janis Eitner in einer beeindruckenden Präsentation nicht nur Einblicke in die Kommunikationskampagne „#WeKnowHow“ zum 70-jährigen Bestehen der Gesellschaft gab, die Diskussion souverän moderierte sondern auch mit seinem Kollegen Viktor Deleski für eine hervorragende technische Betreuung dieses Online-Treffpunkts sorgte.

Für Interessierte: Wenn Sie interessiert sind, beim nächsten „Treffpunkt Wissenschaftskommunikation“ dabei zu sein, der am 11. Mai 2021 wieder Online stattfinden wird, von überall her erreichbar ist, dann senden Sie uns an die Mailadresse dieses Blogs eine kurze E-Mail. Wir nehmen gern neue Interessenten in den Verteiler auf.

Näheres zu den bisherigen Abenden des „Treffpunkts Wissenschaftskommunikation“ #WisskomMUC finden Sie in diesen Beiträgen