Am 10. Oktober 2019 ging am Standort der Österreichischen Computer Gesellschaft (OCG) in Wien der vierte Talk der „Next Generation Internet“-Gesprächsreihe zum hochaktuellen Thema „Fake News and Echo Chambers“ über die Bühne. Dabei wurden die Konsequenzen einer permanenten „postfaktischen“ Desinformation vor allem im Wege der sozialen Medien von einem hochkarätig besetzten Podium aus kommunikationswissenschaftlicher, demokratiepolitischer und technologischer Perspektive diskutiert und mögliche Lösungsansätze aufgezeigt.
Media: Fake News – das süße Gift der Informationsgesellschaft
Univ.-Prof. Dr. Josef TRAPPEL, Universität Salzburg
Im Auftakt-Vortrag ging Univ.-Prof. Dr. Josef Trappel, Leiter des Fachbereichs Kommunikationswissenschaft an der Universität Salzburg und Direktor des Erasmus Masterstudiengangs „Digital Communication Leadership“ der Frage nach, was überhaupt unter Desinformation verstanden werden kann und wie diese im Verlauf der Menschheitsgeschichte entstanden ist.
Nach Ansicht des Kommunikationswissenschaftlers sind Fake News absichtsvoll in die Welt gesetzte Falschmeldungen, die nicht auf den ersten Blick als solche erkennbar sind. Für Prof. Trappel sind Täuschung und List quasi in der Genetik der Menschheit mitangelegt. Schon im „tapferen Schneiderlein“ der Gebrüder Grimm kommen sie vor und mit der Einführung des Buchdrucks war Falschmeldungen eine nicht mehr endende glanzvolle Karriere beschieden.
Für Prof. Trappel sind Fake News somit sowohl ein Kind des Krieges als auch der Politik und auch in der Wirtschaft angekommen. Selbst im persönlichen kommunikativen Umfeld sind sie heute an der Tagesordnung. Problematisch werden sie allerdings durch die Schwächung des Journalismus, weil damit eine Bedrohung unserer Demokratie einhergeht.
Durch die heute mögliche schnelle Übermittlung von Falschmeldungen über verschiedenste Nachrichtenplattformen und die große Resonanz dieser neuen Medien gerade bei einem jungen Publikum hat der traditionelle Journalismus sein Deutungsmonopol bei laufendem Rückgang von Auflagen und Einschaltziffern weitgehend eingebüßt.
Das Glaubwürdigkeitsproblem und der damit einhergehende ökonomische Niedergang haben zu einer Ressorcenknappheit in den Medien geführt und dem Publikationsprinzip „Lieber schnell als richtig“ den Weg bereitet, so dass es aus dem Teufelskreis von wegbrechender Funktionsmacht und Verschärfung der wirtschaftlichen Situation bei den „seriösen“ Medien kaum mehr ein Entrinnen gibt.
Die Lösungsansätze zur Bewältigung des allgegenwärtigen Fake News-Problems reichen von einer Verbesserung der Rechtsdurchsetzung in den sozialen Medien und einer gesetzlichen Handhabe gegen Hasskriminalität wie dies Deutschland mit dem Netzwerkdurchsetzungsgesetz (NetzDG) 2018 versucht hat, über die Verpflichtung von Plattformen zur Entfernung offensichtlich rechtwidriger Urteile innerhalb von 24 Stunden (EUGH-Urteil im Verfahren Eva Glawischnig vs. Facebook) bis zur Einhaltung eines Ehrenkodex des Österreichischen Presserates betreffend Richtigstellungen von Falschmeldungen durch die Redaktionen.
Die ersten beiden Ansätze ernteten massive Kritik durch Menschrechts-NGOs wegen der mit diesen Gesetzesvorlagen und Erkenntnissen einhergehenden Gefahr für die Meinungsfreiheit bzw. durch die Delegation der Rechtsdurchsetzung an private Werbeunternehmen.
Für Prof. Josef Trappel ist das mittlerweile in der Qualitätspresse und bei Rundfunk- und Fernsehanstalten weitgehend etablierte Fact-Checking ein guter Ansatz, der jedoch durch das Problem der Filterblasen und Echokammern, in denen gar kein Interesse an objektiven Wahrheiten besteht, sondern nur „Fakten“, die ins eigene Weltbild passen, perpetuiert werden, seine beabsichtigte Wirkung nicht voll entfalten kann.
Um Fake News wirkungsvoller bekämpfen zu können, sind parallel die Mediennutzer mit größerer Medienkompetenz auszustatten und alle verfügbaren rechtsstaatlichen Mittel zu ihrer Eindämmung zu ergreifen, ohne dabei das Menschenrecht der freien Meinungsäußerung zu verletzen, so die Conclusio des Universitätsprofessors für Kommunikationswissenschaft.
Impact: People vs. Disinformation: who is winning the battle?
Miroslava SAWIRIS, Research Fellow, GLOBSEC Bratislava
Im zweiten Vortrag des Talks fragte Frau Miroslawa Sawiris, ein Research Fellow im Strategic Communication Programme des Think Tanks GLOBSEC aus Bratislava, die sich seit Jahren mit den Methoden der subversiven Unterwanderung demokratischer Gesellschaften durch Informationskampagnen ausländischer Akteure auseinandersetzt, nach den Folgen von Fake News und ob der Kampf gegen sie noch zugunsten der Demokratie entschieden werden kann.
Zuerst zeigte sie auf wie die heute omnipräsenten sozialen Plattformen die Hauptwerkzeuge für soziale und politische Kommunikation geworden sind und dabei die Produktionsbedingungen und die Konsumgewohnheiten gleichzeitig dramatisch verändert haben. Danach konstatierte die Forscherin, dass der Einsatz von Relevanzalgorithmen für die Bereitstellung personalisierter News-Feeds der Entstehung von Echokammern und in weiterer Folge der Polarisierung des öffentlichen Meinungsspektrums massiv Vorschub geleistet hat. Die Metadaten, welche die User in ihren Interaktionen mit den Plattformen dabei hinterlassen, werden über zielgerichtete Werbung monetarisiert und für kommerzielle wie politische Zwecke genutzt.
Danach erklärte Frau Sawiris wie die intrinsischen Features der heutigen Medienlandschaft das Absetzen und Verbreiten von Falschinformationen billiger und schneller gemacht haben und quasi jedem, der über eine Internet-Verbindung verfügt, offenstehen.
Eine Desinformationskampagne läuft üblicherweise auf eine bewusste Verbreitung einer Story oder eines Audio- bzw. Videomaterials hinaus, um existierende Ängste und Stereotypen einer bestimmten Zielgruppe anzusprechen. GLOBSEC konnte z.B. während der Wahlen zum EU-Parlament in den V4-Staaten (Visegrad-Staaten Polen, Slowakei, Tschechien und Ungarn) eine zunehmend höher entwickelte Kampagnenkultur beobachten, mit der verschiedenste Tools zur Manipulation von Fakten und zur Verbreitung konspirativer und spaltender Narrative verknüpft worden sind.
Danach verwies die slowakische Wissenschaftlerin auf die Vielzahl von Akteuren, die heute in der Desinformations-Arena umtriebig sind. Sie reichen von staatlichen Troll-Fabriken wie der in St. Petersburg ansässigen Internet Research Agency (IRA) des Kreml, über nicht-staatliche Akteure wie die mazedonischen Jugendlichen, die massenhaft Desinformation für Werbeeinnahmen produzierten, lokale Influencer mit einer großen Anzahl an Followern bis hin zu innerstaatlichen Akteuren wie z.B. der chinesischen Regierung, die Informationsoperationen gegen die eigene Bevölkerung zur Sanktionierung abweichenden Systemverhaltens durchführt und internationalen (Terror)-Netzwerken wie ISIS, die mit Propaganda versuchen, westliche Gesellschaften zu schädigen und neue Mitglieder zu rekrutieren.
Für Miroslova Sawiris haben die Informations-Operationen sowohl unmittelbare als auch langfristige Folgen. So werden z.B. die Beeinflussung von Wahlen und Referenden oder die Gestaltung rechtlicher Maßnahmen in Europa als unmittelbare Ziele anvisiert. Langfristig gesehen sorgen Desinformationskampagnen für öffentliche Verwirrung, Polarisierung und Radikalisierung, was letztlich in eine Paralyse auf höchstem Niveau münden kann.
Für die Forscherin liegen die größten Gefahren von Desinformation und Informationskriegen in der Erosion des Vertrauens der Bürgerinnen und Bürger in demokratische Institutionen, in einem Anstieg der Bewegungen an den politischen Rändern (rechts- und linksextremer Populismus), in einer wachsenden Spaltung der Gesellschaft durch das Schüren von Hass und Extremismus, in der Entmenschlichung von verletzlichen Minderheiten (wie z.B. LGBT), im in Zweifel ziehen von wissenschaftlicher Expertise sowie in Gewalt und Zerfall der Menschenrechte.
Verlieren wir diese Auseinandersetzung mit dem Ökosystem „Desinformation“ war dann auch ihre folgerichtige Schlussfrage. Gemäß dem Oxford Internet Institute erlebte die Welt im vergangenen Jahr einen massiven Anstieg bei „Computational Propaganda“ (COMPROP). Die Anzahl der organisierten Social Media-Manipulationskampagnen stieg binnen Jahresfrist von 48 im Jahr 2018 auf 70 im laufenden Jahr.
Was die Lage noch verschlimmert ist die Tatsache, dass für Desinformationskampagnen zunehmend mehr Kommunikationskanäle wie z.B. WhatsApp, die schwer nachzuverfolgen sind, genutzt werden.
Aber in Europa ist das Bewusstsein um die Gefährdung unserer Gesellschaften durch Fake News in der letzten Zeit klar gestiegen. So hat z.B. die EU im Dezember 2018 ihren „Action Plan Against Disinformation“ verabschiedet, um die Aufmerksamkeit gegenüber ausländischen Propagandaanstrengungen gegen die Union weiter zu verbessern und auch die Kapazitäten der East Stratcom Task Force des EEAS (European External Action Service) aufzustocken.
Informationsoperationen werden nun auf gesamteuropäischen Level, vor allem aber in den baltischen und nordischen Ländern in geografischer Nähe zu Russland, konsequenter wahrgenommen. Eine neue Resolution gegen ausländische Einflussnahme in Wahlen und gegen Desinformation in nationalen und europäischen demokratischen Prozessen wurde von der EU im Oktober verabschiedet.
Und auch die Anstrengungen ziviler, sozialer Initiativen wie z.B. der slowakischen „konspiratori.sk“ oder von „blbec.online“, welche die problematische Generierung von Umsatz durch Desinformations-Outlets adressieren, machen Mut. So genannte „Elven“, die als anonyme Freiwillige die Aktivitäten von Internet Trolls offenlegen und damit Desinformation und andere Formen schädigenden Verhaltens bekämpfen, tragen mit ihren Bemühungen zu einer gesünderen Informationsumgebung für jedermann/frau bei.
Für Frau Sawiris gehen die Selbstregulierungsansätze in Form eines „Code of Practice“ für digitale Plattformen nicht weit genug, um die Impacts von Desinformationskampagnen auf unsere Demokratien und Gesellschaften effektiv zu bekämpfen. Diese Delegation der Verantwortung über die Content-Regulierung an private, digitale Plattformen ist ihrer Ansicht nach sehr problematisch.
Daher muss die Europäische Union, so ihre Conclusio, vor allem das Problem der Transparenz in Bezug auf politische Werbung, auf Empfehlungsalgorithmen und die Schließung von Accounts adressieren und den CSOs (zivilgesellschaftliche Organisationen) Zugang zu öffentlich verfügbaren Daten ermöglichen. In die langfristige Strategie müssen auch die Entwicklung einer verbesserten Resilienz gegen Falschinformation durch Entwicklung von entsprechender Medienliteralität und eines Konzeptes der „Digitalen Bürgerschaft“ miteinfließen.
Technologie: Desinformation und authentische digitale Medien
Dr. Ross King, Senior Scientist AIT Austrian Institute of Technology
Den Schlusspunkt unter die Präsentationen des vierten NGI-Talks setze Ross King, der als Senior Scientist am AIT Austrian Institute of Technology das „Digital Insight Lab“ leitet und sich seit Jahren mit quantitativen Methoden und Techniken der skalierten Datenverarbeitung und der Erarbeitung vorausschauender Analyseverfahren für Big Data befasst.
Seine Vorgehensweise bei der Beurteilung von Desinformation und ihrer Eindämmung folgte einer ähnlichen Dramaturgie wie die zuvor referierten Darstellungen, nur aus vorherrschend technologischer Perspektive: Problemfestlegung, State-of-the-art der Auseinandersetzung der Medienbranche mit Fake News, Eingrenzung der aktuellen Herausforderungen und schließlich Hilfestellungen durch Data Science.
Für Ross King ist das Internet als grundlegende Infrastruktur einmalig in der Menschheitsgeschichte. Es ermöglicht weltweite Kommunikation und die Verbreitung von Information, kann aber im gleichen Maße auch für verfälschte Kommunikation und Desinformation genutzt werden.
In Übereinstimmung mit den beiden anderen Vortragenden haben auch für den Forscher am AIT die Social Media-Kanäle das Problem der Verbreitung von Fake News potenziert. Heute tauchen täglich neue Fake Stories auf und auch „Deepfakes“, Fälschungen in Bewegtbildinformation, oder Audioverfälschungen nehmen immer mehr zu, wie die Aufdeckungserfolge digitaler Medienforensik bestätigen.
Nach dieser Einführung zeigte Ross King an den Bespielen Video-Inhalt und Fact-Checking wie die Medienbranche heute gegen Desinformation in der Praxis vorgeht.
Die Prüfung des Wahrgehalts eines Videos ist ein sehr aufwendiges, mehrstufiges Verfahren der Sammlung und anschließenden Verifikation anhand der Extraktion zahlreicher Kriterien wie Ort, Datum, Uhrzeit, involvierte Akteure und des tatsächlichen Geschehens. Entscheidend ist darüber hinaus die Provenienz des Filmmaterials, weil authentische Aufnahmen entsprechende Metadaten aufweisen, ihre Nachbearbeitung durch z.B. Apps diese jedoch verändern können und damit die Entdeckung von Manipulationen schwierig machen.
Beim Fact-Checking setzt die Medienbranche verschiedenste Ressourcen wie z.B. eigenes Vollzeitpersonal, Aussagen von wenigen namhaften Politikern oder Crowd Sourcing-Methoden ein, um entlang der Prozesskette Überwachen relevanter Quellen, eindeutiges Identifizieren von Sprechern und Verifizieren der Aussagen, Rückschlüsse auf die tatsächliche Faktenlage ziehen zu können.
Die größten Herausforderungen bei der Erkennung und Eindämmung von Fake News sind heute die Vervielfachung von Informationskanälen sowie ein exponentiell steigendes Volumen bei Medien mit immer mehr politisch motivierten Verfälschungen wie zahlreiche Beispiele rund um die Information zum Brexit-Referendum oder der auch Missbrauch von in sozialen Medien veröffentlichten Selfies für Terrorpropaganda und ideologische Grabenkämpfe belegen. Vor diesem Hintergrund greifen die aktuellen Medienansätze nicht mehr. Für Ross King sind daher Ansätze gefordert, welche eine Skalierbarkeit der Forensik ermöglichen, die Reaktionszeit bei der Analyse beschleunigen, automatisierte Prozesse unterstützen und insgesamt den Medien ihre Aufgabe als vertraute Prüfer erleichtern.
Als Beispiele für Hilfestellungen durch Data Science bei der Aufdeckung von Fake News nannte Ross King einerseits die Medienforensik und andererseits Methoden der Künstlichen Intelligenz.
In der Medienforensik kommen verschiedenste Analyseverfahren zum Einsatz, um die Konsistenz von Metadaten oder die Bildqualität zu überprüfen und um mit kontextbezogenen Suchvorgängen abzuklären, ob die betreffenden Inhalte in der Internetlandschaft bereits vorhanden sind. Auch für Deepfakes gibt es Erkennungsmerkmale für Fälschungen wie z.B. Gesichtsverzerrungseffekte, Blinzel-Verhalten oder Hautfarbeänderungen. Bei Bewegtbild-Manipulationen läuft es jedoch letztlich auf einen permanenten Rüstungswettlauf zwischen Fälschern und Forensik-Experten hinaus.
Für die Erkennung von Desinformation können auch Methoden der Künstlichen Intelligenz wie Machine Learning und neuronale Netzwerke eingesetzt werden. Dafür ist aber eine umfangreiche Testphase notwendig, die einen repräsentativen Satz an Bilddaten verwendet, die so genannte „Ground Truth“, damit die entwickelten Algorithmen in Folge automatisch die Merkmale manipulierter Medien lernen können. Für Videoinhalte ist der Vergleich abstrakter Merkmale (z.B. Fingerabdruck) über eine Bildfrequenz notwendig.
Für die Analyse von Text kommen textbasierte Ansätze der Künstlichen Intelligenz wie NLP (Natural Language Processing) zum Einsatz. Für die Untersuchung von Emotionen oder Vorurteilen, die insbesondere z.B. im Vorfeld von Wahlen angesprochen werden, eignet sich das Verfahren der „Sentiment Analysis“, für Erkennung von Autoren und ihres spezifischen Schreibstils die „Stylometry“, mit der dann Postings von Fake News-Produzenten identifiziert werden können
KI-Ansätze sind herausfordernd, weil es ein Paradoxon gibt, erläuterte King: Zum einen können sich Menschen nicht darauf verständigen, was Fake News sind, und daher ist es schwierig, dies den Maschinen beizubringen, zum anderen erfordert Fact-Checking aber beinahe eine „generelle AI“ auf dem level menschlicher Intelligenz betreffend die Erfordernisse für Verstehen und von allgemeiner Weltsicht.
Ross King zog folgende Schlussfolgerungen: Das Thema Desinformation ist von entscheidender Bedeutung für die Demokratie und auch unsere Zivilgesellschaft, die auf Vertrauen aufgebaut ist. Bei der Technik darf man sich keine Wunder erwarten, weil es immer einen Rüstungswettlauf geben wird und bei der Gesetzgebung besteht die Herausforderung vor allem in der Wahrung einer Balance zwischen Regulierung und freier Meinungsäußerung, damit nicht neue Zensuransätze die Demokratie aushöhlen. Die Überprüfung digitaler Quellen ist daher wichtiger als jemals zuvor, damit wir vertrauenswürdige Quellen und vertrauenswürdige Prüfer wieder etablieren können.