Mario Drobics

NGI Talk #4 – Fake News

NGI Talk #4 – Fake News

This event was organized in cooperation with

Am 10. Oktober 2019 ging am Standort der Österreichischen Computer Gesellschaft (OCG) in Wien der vierte Talk der „Next Generation Internet“-Gesprächsreihe zum hochaktuellen Thema „Fake News and Echo Chambers“ über die Bühne. Dabei wurden die Konsequenzen einer permanenten „postfaktischen“ Desinformation vor allem im Wege der sozialen Medien von einem hochkarätig besetzten Podium aus kommunikationswissenschaftlicher, demokratiepolitischer und technologischer Perspektive diskutiert und mögliche Lösungsansätze aufgezeigt.

Media: Fake News – das süße Gift der Informationsgesellschaft
Univ.-Prof. Dr. Josef TRAPPEL, Universität Salzburg

Im Auftakt-Vortrag ging Univ.-Prof. Dr. Josef Trappel, Leiter des Fachbereichs Kommunikationswissenschaft an der Universität Salzburg und Direktor des Erasmus Masterstudiengangs „Digital Communication Leadership“ der Frage nach, was überhaupt unter Desinformation verstanden werden kann und wie diese im Verlauf der Menschheitsgeschichte entstanden ist.

Nach Ansicht des Kommunikationswissenschaftlers sind Fake News absichtsvoll in die Welt gesetzte Falschmeldungen, die nicht auf den ersten Blick als solche erkennbar sind. Für Prof. Trappel sind Täuschung und List quasi in der Genetik der Menschheit mitangelegt. Schon im „tapferen Schneiderlein“ der Gebrüder Grimm kommen sie vor und mit der Einführung des Buchdrucks war Falschmeldungen eine nicht mehr endende glanzvolle Karriere beschieden.

Für Prof. Trappel sind Fake News somit sowohl ein Kind des Krieges als auch der Politik und auch in der Wirtschaft angekommen. Selbst im persönlichen kommunikativen Umfeld sind sie heute an der Tagesordnung. Problematisch werden sie allerdings durch die Schwächung des Journalismus, weil damit eine Bedrohung unserer Demokratie einhergeht.

Durch die heute mögliche schnelle Übermittlung von Falschmeldungen über verschiedenste Nachrichtenplattformen und die große Resonanz dieser neuen Medien gerade bei einem jungen Publikum hat der traditionelle Journalismus sein Deutungsmonopol bei laufendem Rückgang von Auflagen und Einschaltziffern weitgehend eingebüßt.

Das Glaubwürdigkeitsproblem und der damit einhergehende ökonomische Niedergang haben zu einer Ressorcenknappheit in den Medien geführt und dem Publikationsprinzip „Lieber schnell als richtig“ den Weg bereitet, so dass es aus dem Teufelskreis von wegbrechender Funktionsmacht und Verschärfung der wirtschaftlichen Situation bei den „seriösen“ Medien kaum mehr ein Entrinnen gibt.

Die Lösungsansätze zur Bewältigung des allgegenwärtigen Fake News-Problems reichen von einer Verbesserung der Rechtsdurchsetzung in den sozialen Medien und einer gesetzlichen Handhabe gegen Hasskriminalität wie dies Deutschland mit dem Netzwerkdurchsetzungsgesetz (NetzDG) 2018 versucht hat, über die Verpflichtung von Plattformen zur Entfernung offensichtlich rechtwidriger Urteile innerhalb von 24 Stunden (EUGH-Urteil im Verfahren Eva Glawischnig vs. Facebook) bis zur Einhaltung eines Ehrenkodex des Österreichischen Presserates betreffend Richtigstellungen von Falschmeldungen durch die Redaktionen.

Die ersten beiden Ansätze ernteten massive Kritik durch Menschrechts-NGOs wegen der mit diesen Gesetzesvorlagen und Erkenntnissen einhergehenden Gefahr für die Meinungsfreiheit bzw. durch die Delegation der Rechtsdurchsetzung an private Werbeunternehmen.

Für Prof. Josef Trappel ist das mittlerweile in der Qualitätspresse und bei Rundfunk- und Fernsehanstalten weitgehend etablierte Fact-Checking ein guter Ansatz, der jedoch durch das Problem der Filterblasen und Echokammern, in denen gar kein Interesse an objektiven Wahrheiten besteht, sondern nur „Fakten“, die ins eigene Weltbild passen, perpetuiert werden, seine beabsichtigte Wirkung nicht voll entfalten kann.

Um Fake News wirkungsvoller bekämpfen zu können, sind parallel die Mediennutzer mit größerer Medienkompetenz auszustatten und alle verfügbaren rechtsstaatlichen Mittel zu ihrer Eindämmung zu ergreifen, ohne dabei das Menschenrecht der freien Meinungsäußerung zu verletzen, so die Conclusio des Universitätsprofessors für Kommunikationswissenschaft.

Impact: People vs. Disinformation: who is winning the battle?
Miroslava SAWIRIS, Research Fellow, GLOBSEC Bratislava

Im zweiten Vortrag des Talks fragte Frau Miroslawa Sawiris, ein Research Fellow im Strategic Communication Programme des Think Tanks GLOBSEC aus Bratislava, die sich seit Jahren mit den Methoden der subversiven Unterwanderung demokratischer Gesellschaften durch Informationskampagnen ausländischer Akteure auseinandersetzt, nach den Folgen von Fake News und ob der Kampf gegen sie noch zugunsten der Demokratie entschieden werden kann.

Zuerst zeigte sie auf wie die heute omnipräsenten sozialen Plattformen die Hauptwerkzeuge für soziale und politische Kommunikation geworden sind und dabei die Produktionsbedingungen und die Konsumgewohnheiten gleichzeitig dramatisch verändert haben. Danach konstatierte die Forscherin, dass der Einsatz von Relevanzalgorithmen für die Bereitstellung personalisierter News-Feeds der Entstehung von Echokammern und in weiterer Folge der Polarisierung des öffentlichen Meinungsspektrums massiv Vorschub geleistet hat. Die Metadaten, welche die User in ihren Interaktionen mit den Plattformen dabei hinterlassen, werden über zielgerichtete Werbung monetarisiert und für kommerzielle wie politische Zwecke genutzt.

Danach erklärte Frau Sawiris wie die intrinsischen Features der heutigen Medienlandschaft das Absetzen und Verbreiten von Falschinformationen billiger und schneller gemacht haben und quasi jedem, der über eine Internet-Verbindung verfügt, offenstehen.

Eine Desinformationskampagne läuft üblicherweise auf eine bewusste Verbreitung einer Story oder eines Audio- bzw. Videomaterials hinaus, um existierende Ängste und Stereotypen einer bestimmten Zielgruppe anzusprechen. GLOBSEC konnte z.B. während der Wahlen zum EU-Parlament in den V4-Staaten (Visegrad-Staaten Polen, Slowakei, Tschechien und Ungarn) eine zunehmend höher entwickelte Kampagnenkultur beobachten, mit der verschiedenste Tools zur Manipulation von Fakten und zur Verbreitung konspirativer und spaltender Narrative verknüpft worden sind.

Danach verwies die slowakische Wissenschaftlerin auf die Vielzahl von Akteuren, die heute in der Desinformations-Arena umtriebig sind. Sie reichen von staatlichen Troll-Fabriken wie der in St. Petersburg ansässigen Internet Research Agency (IRA) des Kreml, über nicht-staatliche Akteure wie die mazedonischen Jugendlichen, die massenhaft Desinformation für Werbeeinnahmen produzierten, lokale Influencer mit einer großen Anzahl an Followern bis hin zu innerstaatlichen Akteuren wie z.B. der chinesischen Regierung, die Informationsoperationen gegen die eigene Bevölkerung zur Sanktionierung abweichenden Systemverhaltens durchführt und internationalen (Terror)-Netzwerken wie ISIS, die mit Propaganda versuchen, westliche Gesellschaften zu schädigen und neue Mitglieder zu rekrutieren.

Für Miroslova Sawiris haben die Informations-Operationen sowohl unmittelbare als auch langfristige Folgen. So werden z.B. die Beeinflussung von Wahlen und Referenden oder die Gestaltung rechtlicher Maßnahmen in Europa als unmittelbare Ziele anvisiert. Langfristig gesehen sorgen Desinformationskampagnen für öffentliche Verwirrung, Polarisierung und Radikalisierung, was letztlich in eine Paralyse auf höchstem Niveau münden kann.

Für die Forscherin liegen die größten Gefahren von Desinformation und Informationskriegen in der Erosion des Vertrauens der Bürgerinnen und Bürger in demokratische Institutionen, in einem Anstieg der Bewegungen an den politischen Rändern (rechts- und linksextremer Populismus), in einer wachsenden Spaltung der Gesellschaft durch das Schüren von Hass und Extremismus, in der Entmenschlichung von verletzlichen Minderheiten (wie z.B. LGBT), im in Zweifel ziehen von wissenschaftlicher Expertise sowie in Gewalt und Zerfall der Menschenrechte.

Verlieren wir diese Auseinandersetzung mit dem Ökosystem „Desinformation“ war dann auch ihre folgerichtige Schlussfrage. Gemäß dem Oxford Internet Institute erlebte die Welt im vergangenen Jahr einen massiven Anstieg bei „Computational Propaganda“ (COMPROP). Die Anzahl der organisierten Social Media-Manipulationskampagnen stieg binnen Jahresfrist von 48 im Jahr 2018 auf 70 im laufenden Jahr.

Was die Lage noch verschlimmert ist die Tatsache, dass für Desinformationskampagnen zunehmend mehr Kommunikationskanäle wie z.B. WhatsApp, die schwer nachzuverfolgen sind, genutzt werden.

Aber in Europa ist das Bewusstsein um die Gefährdung unserer Gesellschaften durch Fake News in der letzten Zeit klar gestiegen. So hat z.B. die EU im Dezember 2018 ihren „Action Plan Against Disinformation“ verabschiedet, um die Aufmerksamkeit gegenüber ausländischen Propagandaanstrengungen gegen die Union weiter zu verbessern und auch die Kapazitäten der East Stratcom Task Force des EEAS (European External Action Service) aufzustocken.

Informationsoperationen werden nun auf gesamteuropäischen Level, vor allem aber in den baltischen und nordischen Ländern in geografischer Nähe zu Russland, konsequenter wahrgenommen. Eine neue Resolution gegen ausländische Einflussnahme in Wahlen und gegen Desinformation in nationalen und europäischen demokratischen Prozessen wurde von der EU im Oktober verabschiedet.

Und auch die Anstrengungen ziviler, sozialer Initiativen wie z.B. der slowakischen „konspiratori.sk“ oder von „blbec.online“, welche  die problematische Generierung von Umsatz durch Desinformations-Outlets adressieren, machen Mut. So genannte „Elven“, die als anonyme Freiwillige die Aktivitäten von Internet Trolls offenlegen  und damit Desinformation und andere Formen schädigenden Verhaltens bekämpfen, tragen mit ihren Bemühungen zu einer gesünderen Informationsumgebung für jedermann/frau bei.

Für Frau Sawiris gehen die Selbstregulierungsansätze in Form eines „Code of Practice“ für digitale Plattformen nicht weit genug, um die Impacts von Desinformationskampagnen auf unsere Demokratien und Gesellschaften effektiv zu bekämpfen. Diese Delegation der Verantwortung über die Content-Regulierung an private, digitale Plattformen ist ihrer Ansicht nach sehr problematisch.

Daher muss die Europäische Union, so ihre Conclusio, vor allem das Problem der Transparenz in Bezug auf politische Werbung, auf Empfehlungsalgorithmen und die Schließung von Accounts adressieren und den CSOs (zivilgesellschaftliche Organisationen) Zugang zu öffentlich verfügbaren Daten ermöglichen. In die langfristige Strategie müssen auch die Entwicklung einer verbesserten Resilienz gegen Falschinformation durch Entwicklung von entsprechender Medienliteralität und eines Konzeptes der „Digitalen Bürgerschaft“ miteinfließen.

Technologie: Desinformation und authentische digitale Medien
Dr. Ross King, Senior Scientist AIT Austrian Institute of Technology

Den Schlusspunkt unter die Präsentationen des vierten NGI-Talks setze Ross King, der als Senior Scientist am AIT Austrian Institute of Technology das „Digital Insight Lab“ leitet und sich seit Jahren mit quantitativen Methoden und Techniken der skalierten Datenverarbeitung und der Erarbeitung vorausschauender Analyseverfahren für Big Data befasst.

Seine Vorgehensweise bei der Beurteilung von Desinformation und ihrer Eindämmung folgte einer ähnlichen Dramaturgie wie die zuvor referierten Darstellungen, nur aus vorherrschend technologischer Perspektive: Problemfestlegung, State-of-the-art der Auseinandersetzung der Medienbranche mit Fake News, Eingrenzung der aktuellen Herausforderungen und schließlich Hilfestellungen durch Data Science.

Für Ross King ist das Internet als grundlegende Infrastruktur einmalig in der Menschheitsgeschichte. Es ermöglicht weltweite Kommunikation und die Verbreitung von Information, kann aber im gleichen Maße auch für verfälschte Kommunikation und Desinformation genutzt werden.

In Übereinstimmung mit den beiden anderen Vortragenden haben auch für den Forscher am AIT die Social Media-Kanäle das Problem der Verbreitung von Fake News potenziert. Heute tauchen täglich neue Fake Stories auf und auch „Deepfakes“, Fälschungen in Bewegtbildinformation, oder Audioverfälschungen nehmen immer mehr zu, wie die Aufdeckungserfolge digitaler Medienforensik bestätigen.

Nach  dieser Einführung zeigte Ross King an den Bespielen Video-Inhalt und Fact-Checking wie die Medienbranche heute gegen Desinformation in der Praxis vorgeht.

Die Prüfung des Wahrgehalts eines Videos ist ein sehr aufwendiges, mehrstufiges Verfahren der Sammlung und anschließenden Verifikation anhand der Extraktion zahlreicher Kriterien wie Ort, Datum, Uhrzeit, involvierte Akteure und des tatsächlichen Geschehens. Entscheidend ist darüber hinaus die Provenienz des Filmmaterials, weil authentische Aufnahmen entsprechende Metadaten aufweisen, ihre Nachbearbeitung durch z.B. Apps diese jedoch verändern können und damit die Entdeckung von Manipulationen schwierig machen.

Beim Fact-Checking setzt die Medienbranche verschiedenste Ressourcen wie z.B. eigenes Vollzeitpersonal, Aussagen von wenigen namhaften Politikern oder Crowd Sourcing-Methoden ein, um entlang der Prozesskette Überwachen relevanter Quellen, eindeutiges Identifizieren von Sprechern und Verifizieren der Aussagen, Rückschlüsse auf die tatsächliche Faktenlage ziehen zu können.

Die größten Herausforderungen bei der Erkennung und Eindämmung von Fake News sind heute die Vervielfachung von Informationskanälen sowie ein exponentiell steigendes Volumen bei Medien mit immer mehr politisch motivierten Verfälschungen wie zahlreiche Beispiele rund um die Information zum Brexit-Referendum oder der auch Missbrauch von in sozialen Medien veröffentlichten Selfies für Terrorpropaganda und ideologische Grabenkämpfe belegen. Vor diesem Hintergrund greifen die aktuellen Medienansätze nicht mehr. Für Ross King sind daher Ansätze gefordert, welche eine Skalierbarkeit der Forensik ermöglichen, die Reaktionszeit bei der Analyse beschleunigen, automatisierte Prozesse unterstützen und insgesamt den Medien ihre Aufgabe als vertraute Prüfer erleichtern.

Als Beispiele für Hilfestellungen durch Data Science bei der Aufdeckung von Fake News nannte Ross King einerseits die Medienforensik und andererseits Methoden der Künstlichen Intelligenz.

In der Medienforensik kommen verschiedenste Analyseverfahren zum Einsatz, um die Konsistenz von Metadaten oder die Bildqualität zu überprüfen und um mit kontextbezogenen Suchvorgängen abzuklären, ob die betreffenden Inhalte in der Internetlandschaft bereits vorhanden sind. Auch für Deepfakes gibt es Erkennungsmerkmale für Fälschungen wie z.B. Gesichtsverzerrungseffekte, Blinzel-Verhalten oder Hautfarbeänderungen. Bei Bewegtbild-Manipulationen läuft es jedoch letztlich auf einen permanenten Rüstungswettlauf zwischen Fälschern und Forensik-Experten hinaus.

Für die Erkennung von Desinformation können auch Methoden der Künstlichen Intelligenz wie Machine Learning und neuronale Netzwerke eingesetzt werden. Dafür ist aber eine umfangreiche Testphase notwendig, die einen repräsentativen Satz an Bilddaten verwendet, die so genannte „Ground Truth“, damit die entwickelten Algorithmen in Folge automatisch die Merkmale manipulierter Medien lernen können. Für Videoinhalte ist der Vergleich abstrakter Merkmale (z.B. Fingerabdruck) über eine Bildfrequenz notwendig.

Für die Analyse von Text kommen textbasierte Ansätze der Künstlichen Intelligenz wie NLP (Natural Language Processing) zum Einsatz. Für die Untersuchung von Emotionen oder Vorurteilen, die insbesondere z.B. im Vorfeld von Wahlen angesprochen werden, eignet sich das Verfahren der „Sentiment Analysis“, für Erkennung von Autoren und ihres spezifischen Schreibstils die „Stylometry“, mit der dann Postings von Fake News-Produzenten identifiziert werden können

KI-Ansätze sind herausfordernd, weil es ein Paradoxon gibt, erläuterte King: Zum einen können sich Menschen nicht darauf verständigen, was Fake News sind, und daher ist es schwierig, dies den Maschinen beizubringen, zum anderen erfordert Fact-Checking aber beinahe eine „generelle AI“ auf dem level menschlicher Intelligenz betreffend die Erfordernisse für Verstehen und von allgemeiner Weltsicht.

Ross King zog folgende Schlussfolgerungen: Das Thema Desinformation ist von entscheidender Bedeutung für die Demokratie und auch unsere Zivilgesellschaft, die auf Vertrauen aufgebaut ist. Bei der Technik darf man sich keine Wunder erwarten, weil es immer einen Rüstungswettlauf geben wird und bei der Gesetzgebung besteht die Herausforderung vor allem in der Wahrung einer Balance zwischen Regulierung und freier Meinungsäußerung, damit nicht neue Zensuransätze die Demokratie aushöhlen. Die Überprüfung digitaler Quellen ist daher wichtiger als jemals zuvor, damit wir vertrauenswürdige Quellen und vertrauenswürdige Prüfer wieder etablieren können.

Posted by Mario Drobics
NGI Talk #2 zum Thema „Digitales Vertrauen“

NGI Talk #2 zum Thema „Digitales Vertrauen“

This event was organized in cooperation with

 

Thema des zweiten NGI Talks war das aktuelle Thema Vertrauen und die je nach Perspektive unterschiedlichen Bedeutungen von Vertrauen. So kann Vertrauen aus einer rechtlichen Deutung heraus klare Verhaltensregeln erstellen, die es Akteure im digitalen ermöglicht beispielweise Haftungsfragen transparent zu regeln und somit Handlungsräume zu ermöglichen. Für das gesellschaftliche digitale Zusammenleben ist die Etablierung vertrauter Mechanismen eine relevante Größe, doch steht sie aktuell noch sehr stark unter den wirtschaftlichen Zwängen. Aktuelle Entwicklungen wie Filterblasen, gezielte Desinformation oder Datenmissbrauch zeigen einerseits, dass bisher mit viel Vorschusslorbeeren im digitalen Bereich gearbeitet wurde und anderseits, dass die bisherigen technologischen Entwicklungen das Thema stiefmütterlich behandelt haben.

Aus technologischer Perspektive sind Forschungsvorhaben ein wichtiger Treiber, aber auch die Politik und Wirtschaft stehen in der Verantwortung. Es wurde jedoch auch sehr schnell klar, dass der/dem Endanwender*innen eine tragende Rolle zukommt. Das Einfordern von Transparenz und Nachvollziehbarkeit hat dabei hohe Priorität, verlangt gleichzeitig aber auch ein hohes Maß an Aufgeklärtheit der Bürger*innen. Unterstützend können dabei beispielsweise staatliche Regulierung, Standardisierung und Zertifizierung mitwirken um Vertrauen in neue Lösungen und Technologie zu manifestieren. Jedoch erschweren hier die zentralen und dezentralen Substrukturen und Teilbereiche des digitalen Raums ein einheitliches und nachvollziehbares Vorgehen, da die Gesetzgebung in Wirklichkeit global gedacht werden muss.

An Hand der Blockchain Technologie wurde für alle Diskutanten und Zuhörerinnen die Vielseitigkeit der Problemstellung rund um den „digital Trust“ deutlich gemacht. So bestimmen Nutzerzahlen von zwei bis mehrere Millionen Endanwender die Anforderungen an die Technologie. Ebenso wie der konkrete Anwendungsfall, der sich über Szenarien aus der Finanzbranche bis hin zu privaten Anwendungsfällen erstrecken kann. Deutlich wurde wieder, dass auch hier die Lösung nicht nur in der Technologie gesucht werden kann, sondern es den gemeinsamen Diskurs bedarf, um den Anforderungen, die an das digitale Zusammenleben und arbeiten gestellt werden, gerecht zu werden.

Reportage zum 2. NGI-Talk im österreichischen B2B Medium „Report.at“:
https://ngi.ait.ac.at/wp-content/uploads/2019/04/32-35-Podium-NGI-Talk-2-_Report-Plus-April-2019_v1.pdf

Fotos (c) Sela Krobath, Video (c) Bernhard Schojer

Posted by Mario Drobics

Nachbericht zum ersten NGI-Talk „Privacy“

Der erste NGI Talk fand erfolgreich am 27. November in den Räumlichkeiten der OVE in Wien statt. In den drei Präsentationen und der daran anschließenden Diskussion waren „Werte“ ein zentrales Element.

Die Folien der Vorträge können auf der Veranstaltungsseite heruntergeladen werden. Einen ausführlicher Bericht über die Veranstaltung finden Sie in der Computerwelt.

Zusammenfassung

Der eigentliche Initiator der „NGI Talks“, Helmut Leopold, Head of Center for Digital Safety & Security am AIT, betonte in seiner Begrüßung die Wichtigkeit der Zusammenarbeit aller relevanten Akteure in der Internet-Arena, damit technologische Innovationen aus der Forschung auch ihren Weg in die Märkte finden. „Die jetzt angelaufene Dialogplattform ist dazu gedacht, die Zukunft unserer digitalen Umgebung aktiv mitzugestalten und dabei Vorsorge zu tragen, dass unsere gesellschaftlichen Grundwerte wie Privatsphäre, Freiheit und Unabhängigkeit auch im Internet von morgen nachhaltig sichergestellt sind“, so Leopold.

Auch Oliver Hoffmann vom Partner bmvit gab sich in seinen Begrüßungsworten überzeugt, „dass die Umsetzung eines zukunftsfähigen Internets auf Basis unserer europäischen Werte die interdisziplinäre Zusammenarbeit der besten Köpfe im Land erfordert.“

Der Projektverantwortliche und Moderator der NGI Talks, Senior Research Engineer am AIT und IoT-Experte, Mario Drobics, setzt mit der Themenwahl für die 5 Talks auf unterschiedlichste Perspektiven, die einen breiten Diskurs zwischen Industrie, Politik, Wissenschaft und vor allem auch der Gesellschaft ermöglichen sollen.

Zum Einstieg stand die wohl drängendste Frage bei der allgegenwärtigen Nutzung des Internets im Brennpunkt der Diskussion: Der Schutz unserer privaten Daten. In den weiteren Talk-Runden wird sich die Gesprächsreihe Themen wie „Vertrauen“, „Künstliche Intelligenz“, „Echokammern und Fake News“ sowie dem „Dezentralisierten Internet“ widmen.

Das Format der NGI-Talks wurde so konzipiert, dass 3 Sprecherinnen bzw. Sprecher mit unterschiedlichem beruflichen Hintergrund und damit auch Themenzugang die Kernfrage des jeweiligen Talks in ihren Impuls-Referaten aus verschiedenen Perspektiven beleuchten, damit das Auditorium am Ende immer mit einem vielschichtigen Bild des Problems und möglicher Lösungen nach Hause gehen kann.

Beim Thema „Data Privacy“ des ersten Talks hat es sich daher quasi von selbst angeboten, den Themenkreis gesellschaftlich, technologisch und rechtlich zu erörtern.

Für die NGI-Talks gilt der Anspruch, die 3 Perspektiven des Themenzugangs sprachbildlich eingängig aufzulösen. So wurde dann im Talk #1 das Metathema „Data Privacy“ auch mit Blick auf den Wert von Daten (Value), den Schutz von Daten (Protection) und die rechtliche Einfassung der Thematik (Policy) diskutiert.

Für diese 3 Blickwinkel konnten mit Axel Quitt (T-Systems Austria), Thomas Lorünser (AIT) und Christof Tschohl (Research Institute AG & Co KG Zentrum für digitale Menschenrechte) drei Experten gewonnen werden, die mit ihrem Know how zusammen alle Aspekte des NGI Talks #1 zum Thema „Data Privacy“ abdeckten:

  • Big Data-Plattformen, Daten-Analyse, Künstliche Intelligenz (Axel Quitt),
  • Digitalisierungsexpertise, IT-Security und angewandte Kryptografie (Thomas Lorünser)
  • Datenschutz, Daten- und Informationssicherheit sowie Cybercrime, Medien- und E-Commerce-Recht und letztlich „Privacy by design“ und begleitende Technologiefolgenabschätzung (Christof Tschohl).

Value – Was ist der Wert von Daten und wie beeinflusst Privacy die entsprechenden Business-Modelle

Der Senior Sales Manager für Big Data-Plattformen bei T-Systems Austria und Partner von Data Market Austria, einem Projekt zur Etablierung eines Daten-Services Ökosystems in Österreich mit den Stoßrichtungen verbesserte Technologiebasis, Cloud-Interoperabilität und Schaffung eines Daten-Innovationsumfeldes, Axel Quitt, begann sein Impulsreferat mit einer aktuellen Bestandsaufnahme: „Täglich werden bis zu 3 Trillionen Bytes an Daten generiert, sie kommen von überall her und wissen alles, ihr Name ist „Big Data“ und sie leben in der Cloud“.

Das ist semantisch nur etwas anders dargestellt die Situation in der wir uns heute befinden. Daten sind das Öl oder Gold des 21. Jahrhunderts. Wenn dem so ist, muss man sich auch fragen, haben Daten einen Wert? Ist Big Data gleich Big Value?

Axel Quitt blieb vorerst noch bei einem ökonomischen Beispiel: Big Data ist charakterisiert durch die vier „V“: Volume, Velocity. Variety und Value. In diesem Zusammenhang hat er dem Konzernbericht 2015 der UNIQA Group ein paar interessante Zahlen entnommen:

In den Kernmärkten der Versicherungsgruppe gab es pro Tag mehr als 1 Million versicherungsbezogene Suchanfragen (Volume), Positive Interneterfahrung motiviert weltweit zu Empfehlungen und Zusatzkäufen; 47 – 48 % würden ihren Versicherer weiterempfehlen (Variety) und Der Einsatz intelligenter Geräte könnte die Versicherungsrisiken im Haushalt um 40 – 60 % und im Kfz-Bereich um 15 -20 % reduzieren (Value).

Und wenn man der Stimme des Kunden traut, dann empfinden viele Unsicherheiten in den Bereichen Bildung, Status, persönlicher Ruf, Daten und Mobilität, doch die Versicherungsbranche hat diese Bereiche bisher kaum mit Produktangeboten bedient. Fazit: Die Monetarisierung von Daten ist noch nicht überall sehr ausgeprägt.

Dieses Beispiel veranlasste den Big Data-Experten die Wertefrage philosophisch anzugehen. Dann ergeben sich so elementare Fragen wie „Wofür steht Wert eigentlich?“ „Von welchem Wert sprechen wir?“ Ein Wert lässt sich als Zahl, als Funktionswert (mathematisch), als Messwert, als Größenwert (physikalisch) oder wirtschaftlich im Sinne der Bedeutung von Gütern ausweisen.

Diese letzte Klassifizierung von Wert muss jedoch näher betrachtet werden. Ein Gut bekommt erst einen Wert, wenn man es besitzt oder besitzen möchte. Aristoteles unterschied in diesem Zusammenhang zwischen Tauschwert und Gebrauchswert. Noch intrinsischer klingt das Axiom von Hildebrand: „Der Wert einer Sache existiert nur für und durch die Menschen.“

Auf die Frage nach dem Wert von Daten umgelegt, müsste man nach diesen Definitionen wohl zuallererst klären, ob man Daten besitzen kann wie andere Güter, wie z.B. Öl oder Gold, denn erst im Besitz, wie wir mittlerweile wissen, entfalten Güter ihren Wert. Sind Daten demnach Güter, oder geht ihre Konsistenz darüber hinaus?

Wenn man sich darauf geeinigt hat, dass Daten einen Wert haben bzw. annehmen können, dann muss man allerdings auch fragen ob der Wert vorhanden, konstant, variabel bzw. Zeit/Ortsabhängig ist und in weiterer Folge, wie sich der Datenwert verändert, wenn man Daten verkauft, vermietet, verschenkt, teilt, den Zugang öffnet oder beschränkt. Wirken die Mechanismen des Handels/Marktes auch bei Daten? Ist Wertschöpfung eine Grundlage der wissenschaftlichen Wertetheorie?

Zum Abschluss der Wertdiskussion warf Axel Quitt noch die Frage auf, ob es einen Zusammenhang zwischen Datenmenge und Wert gibt. Um eine Wertrelation zu bestimmen, griff er ein Beispiel aus der Gamification Industry heraus. Mit dem Spiel „Sea Hero“ wurde die Weltgesundheitsherausforderung „Demenz-Erkrankung“ mit steigender Inzidenz von 47 Millionen Erkrankten 2016 und hochgerechneten 135 Millionen Erkrankten im Jahr 2050 adressiert. Durch freiwillige Teilnahme von 2,7 Millionen Betroffenen in 193 Ländern konnte in 70 Jahren Spielzeit durch spielinhärente Datenerhebung ein Äquivalent im Daten-Outcome erzielt werden, welches über 10.000 Jahren ähnlich gelagerter Labor basierter Forschung entspricht.

Zum Abschluss seiner Kurzpräsentation ging Axel Quitt noch den Fragen nach, welchen Grad an Vertrauen Konsumenten verschiedenen Dienstleistern entgegenbringen, dass diese ihre privaten Daten vertraulich und sicher behandeln und warum Menschen Anonymität online wertschätzen.

Sehr zuversichtlich zeigten sich die Befragten einer Pew Research Center Umfrage vom Sommer 2014 was den Schutz ihrer Privatsphäre entspricht gegenüber Kreditkartenunternehmen (9 % sehr hoher Vertrauenslevel, 29 % hoher Vertrauenslevel). Gute Werte erhielten auch Behörden sowie die Telefon- und Mobilfunkanbieter. Am unteren Ende der Skala rangieren Social Media-Kanäle und Online-Werbeunternehmen, denen gegenüber 46 % bzw. 53 % überhaupt kein Vertrauen in die Geheimhaltung ihrer persönlichen Daten aufbringen.

Bezüglich der zweiten Frage (Zusammenhang Value/Privacy) sehen 21 % der Befragten Anonymität als wertvoll, weil sie befürchten, dass ihr E-Mail oder Social Networking Account durch jemanden ohne Erlaubnis kompromittiert werden könnte. An zweiter Stelle (13 %) rangiert hier die Angst, dass man durch irgendwelche Online-Postings Schwierigkeiten in familiären und freundschaftlichen Beziehungen bekommt. Und schon an dritter Stelle wird Anonymität geschätzt, weil man online schon einmal Stalking oder Belästigung erlebt hat (12 %).

Sein Abschluss war jedoch sehr versöhnlich: „Don’t Forget: Data is beautiful!!!

Protection – Wie können Daten geschützt werden während man sie weiter teilt

 Der zweite Impuls-Talk zur Auftaktveranstaltung der NGI Talk Serie über Data Privacy widmete sich dem Thema „Protection“. Der AIT Scientist Thomas Lorünser, der sich in seiner Arbeit mit den Schwerpunkten Digitalisierung, IT Security und angewandte Verschlüsselung befasst, subsummierte in seiner Präsentation unter dem Metathema „Protection“ (Schutz) die dominanten Forschungsherausforderungen für die Entwicklung des Next Generation Internet wie „Dezentralisierung“, „Privatheit“ und „Vertrauen und Security“. „Das NGN muss ein Internet der menschlichen Werte sein – widerstandsfähig, vertrauenswürdig und nachhaltig“, so der AIT Sicherheitsexperte.

Dezentralisierung darf man ruhig im doppelten Wortsinn verstehen: Dezentralisierung der Macht und der Infrastrukturen. Dazu sind Technologien im Vormarsch wie Edge Computing, Blockchain, IoT und end-to-end Security. Und es wird Forschung gebraucht, um festzustellen, welche sozioökonomischen Implikationen von großen Unternehmen ausgehen, die über ein Monopol verfügen. Dabei gilt es nach möglichen Optionen zu fragen, wie diese Implikationen adressiert werden können, ausgehend von Lernerfahrungen früherer ökonomischer Situationen, in denen Monopole nach Kontrolle verlangten.

Für Dezentralisierung muss man disruptiven Technologien und Innovationen kleinerer Player Raum, Freiheit und Sichtbarkeit schaffen, damit sie ihr Potenzial demonstrieren können. Darüber hinaus müssen die Chancen für positive Regulierungseffekte der EU herausgearbeitet und ein gesetzlicher Ausgleich gegenüber den Kosten einer Verfolgung dieser Chancen geschaffen werden. Eine besonders wichtige Forschungsfrage ist letztendlich, wie Regulierung Diversität, Pluralität und Wahlfreiheit fördern kann, ohne die Serviceangebote zu kompromittieren, die von Incumbents bereitgestellt werden und in der allgemeinen Öffentlichkeit populär sind.

Beim zweiten Schwerpunkt „Privatheit“ geht es vor allem darum, die Bürger und Unternehmen dazu zu ermächtigen, wieder die Kontrolle und damit die Hoheit über ihre Daten zurück zu gewinnen. Eingesetzte, Privatheit verstärkende, Technologien verlangen nach Datenminimierung und nach „Privacy by design“ bzw. „default“. Gefordert sind zudem eine verbesserte Transparenz über Datenverarbeitungsvorgänge und auch eine größere Bewusstheit im Umgang mit Daten auf Seiten der Anwender. Das Endziel müssen hier einfach zu bedienende Mechanismen, Protokolle sowie eine verständliche Rechtslage sein, damit „Privatheit“ im Sinne der GDPR (General Data Protection Regulation) auch praktisch umgesetzt werden kann.

Der dritte Building Block für Data Security zielt auf die Beherrschung von Sicherheitsbedrohungen und den Aufbau von Vertrauen in eingesetzte Technologien. Experten sprechen beim Status Quo letztverfügbarer Netztechnologien heute von einer Trinität an Schwierigkeiten, welche die Einlösung von Vertrauen und Cyber Security erschweren: Komplexität, Vernetzung und Dynamik. Diese Eigenschaften zeitgemäßer IKT finden derzeit z.B. im Übergang von der Cloud zu IoT ihren unmittelbaren Ausdruck.

In Amerika versuchte man mit dem „Internet of Things (IoT) Cybersecurity Improvement Act of 2017“ einen Cybersecurity Minimal Betriebsstandard für mit dem Internet verbundene Endgeräte zu etablieren. Die dort eingeschlagene Richtung stimmt.

Transparenz ist der zentrale Enabler von Privatheit und Vertrauen. Daher müssen wir die Forschungsanstrengungen betreffend die Impacts jüngster Technologieentwicklungen deutlich verstärken. Wir müssen hinterfragen welchen Einfluss und welche Auswirkungen eingesetzte IoT Devices und physikalische und zusammengeschaltete Systeme (Netze, Endgeräte, Ressourcen, Menschen) auf die Qualität der Cybersecurity haben. Auch bei AI (Artificial Intelligence) ist künftig Transparenz ein ganz großes Thema. Neben all den wissenschaftlichen Untersuchungen über mögliche Sicherheitskonsequenzen durch Nutzung fortschrittlicher IT (Thema: Technologiefolgenabschätzung) müssen wir uns soziologisch auch mit den Vertrauensfolgen bestehender Machtkonzentrationen im Netz auseinandersetzen.

Für Lorünser steht Kryptographie im Mittelpunkt einer widerstandsfähigen Netz-Gesellschaft. Im letzten Drittel seiner Präsentation stellte er daher heute bereits existierende und auch kommende Verschlüsselungsmethoden vor, die der Komplexität des NGN in punkto Data Security gewachsen sind bzw. sein werden.

Die Zukunft gehört sicher daten- und kryptoagilen Lösungen, wo man Daten auch in der Cloud verschlüsselt abspeichern und gleichzeitig jedoch mit ihnen arbeiten bzw. über verteilte Systeme auch verschiedene Sichtweisen auf Daten entwickeln kann. Die übergeordneten Ziele dabei sind bestmögliche Privatheit durch Datenminimierung und ein präventiver Schutz durch echte Ende-zu-Ende-Sicherheit.

Heute bereits verfügbare Systeme betreffen z.B. Distributed Storage (z,B LIN:BIT, SETL, fragementiX) oder dezentralisierte Web-Applikationen wie OpenBazaar, Graphite Docs, CryptPad, Textile Photos, Matrix, DTube oder Akasha und Diaspora (allesamt offene Dokumenten- und Social Media-Alternativen). Multi-Party Computation auf verteilten Systemen mit Bearbeitung verschlüsselter Daten und Sicherheit basierend auf Nichtkollision – Beispeil IPFS (Interplanetary File System) – oder mit Attribute-Based Encryption oder Anonymous Authentication stehen neue Methoden der Datensicherheit technologisch bereits ante portas.

In Conclusio wird es im Next Generation Internet vielfach darum gehen, schon bestehende Technologien mit neuen Ansätzen zu nutzen und damit die gesamte Verschlüsselungsthematik in eine neue Ära überzuführen.

Policy – Die Bedeutung der Datenschutz-Grundverordnung (DSGVO) und ein Ausblick in die künftige Technologie-Entwicklung

Zum Abschluss des Auftaktes der NGI Talk-Serie zum Meta-Thema „Data Privacy“ referierte Christof Tschohl, Wissenschaftlicher Leiter und Gesellschafter der Resarch Institute AG & Co KG Zentrum für digitale Menschenrechte, der sich als Nachrichtentechniker und Jurist auf IT-Recht sowie Grund- und Menschenrechte spezialisierte, über die Bedeutung der seit 2018 in Kraft befindlichen DSGVO für einen funktionierenden Datenschutz und machte dabei insbesondere auf den Datenschutz durch Technikgestaltung (Privacy by design) aufmerksam.

Für Tschohl ist Datenschutz ein mehrfach verankertes Grundrecht, so z.B. in Art. 8 der Grundrechte der EU (GRC), in Art. 8 der Europäischen Menschenrechtskonvention (EMRK) und auch in $ 1 des Datenschutzgesetzes (DSG) im Verfassungsrang. Alle diese Grundrechtsakte folgen dem Grundsatz, dass die Verarbeitung personenbezogener Daten verboten ist, wenn sie nicht ausdrücklich erlaubt wird.

Mit Hinblick auf den angeführten Grundrechtsschutz markiert die EU-Datenschutzreform einen echten Meilenstein. Seit 24. Mai 2016 gehört die DSGVO zum Rechtsbestand der EU und seit 25. Mai 2018 gilt sie einheitlich im gesamten Gebiet der Europäischen Union. Sie hat die zuvor geltende EU-Datenschutzrichtlinie RL 95/46/EG abgelöst. In Österreich wurden ihre Bestimmungen durch umfassende Änderung des Datenschutzgesetzes (DSG) in nationales Datenschutzrecht übergeführt.

In seinem Ansatz des Datenschutzes zielte der Menschenrechtler zentral auf die Würde des Menschen, weil er den Datenschutz als eine Art Katalysator für alle Menschenrechte hält. Schutzgut sind dabei nicht die Daten selbst, sondern verschiedene grundrechtlich geschützte Sphären des Menschen, über die Informationen verarbeitet werden wie z.B. Privatsphäre, Opferschutz, Antidiskriminierung und ähnliches mehr.

„Human Dignity by Design“ ist damit der Anker guten Datenschutzes und in weiterer Folge auch der Garant dafür, dass er nicht bloßer Selbstzweck bleibt, sondern immer das Funktionieren einer freien demokratischen Gesellschaft und die Zuerkennung zahlreicher Grundrechte im Auge behält. Ferner ist Datenschutz einer Abwägung zugänglich, d.h. das Grundrecht gilt nicht vorbehaltlos, aber unter Gesetzesvorbehalt. Damit erfüllt Datenschutz auch die Qualität eines „Rule of Law by Design.“

Entschieden stellte sich Tschohl auch gegen die immer wieder vorgebrachte These „Wer nichts zu verbergen hat, hat auch nichts zu befürchten.“ Das ist eine Umkehrung der Rechtfertigungslast und verletzt das Prinzip der Europäischen Menschenrechtskonvention (EMRK).

Die DSGVO schützt „Personenbezogene Daten“, also alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen wie z.B. Alter, Beruf, Anschrift oder auch die IP-Adresse (EuGH C-582/14). Und im Besonderen geschützt sind dabei sensible Daten wie rassische und ethnische Herkunft, politische Meinungen, religiöse und weltanschauliche Überzeugungen, Gewerkschaftszugehörigkeit, Verarbeitung von genetischen und biometrischen Daten zur eindeutigen Identifizierung der Person, Gesundheitsdaten oder Daten zum Sexualleben oder der sexuellen Orientierung.

Daraus folgt, dass für die Verarbeitung personenbezogener Daten Grundlagen der Rechtfertigung erforderlich sind wie z.B. eine klare gesetzliche Grundlage, die Verarbeitung zur Erfüllung eines Vertrages erforderlich ist, der Betroffene seine Einwilligung erteilt hat oder überwiegende berechtigte Interessen eines Anderen an der Verarbeitung vorliegen. Am wichtigsten ist dabei die Zweckbindung, d.h. dass die Verarbeitung nur für eindeutige legitime Zwecke erfolgt. Die Datenverarbeitung durch Behörden ist nur aufgrund von Gesetzen möglich und sie muss im Sinne des Art. 8 Abs. 2 EMRK im öffentlichen Interesse liegen.

Die Einwilligung wird in Art. 4 Ziffer 11 DSGVO eindeutig definiert: „Einwilligung der betroffenen Person bedeutet, jede freiwillig für den bestimmten Fall in informierter Weise und unmissverständlich abgegebene Willensbekundung in Form einer Erklärung oder einer sonstigen eindeutigen bestätigenden Handlung, mit der die betroffene Person zu verstehen gibt, dass sie mit der Verarbeitung der sie betreffenden personenbezogenen Daten einverstanden ist.“

Eine besondere Herausforderung für den Datenschutz stellt nach Ansicht des Experten „Big Data“ dar. Dabei ist zuerst die Grundfrage entscheidend. Gibt es einen Personenbezug, denn nur personenbezogene Daten sind von der Jurisdiktion der DSGVO erfasst. Big Data kollidiert prima vista mit den Grundprinzipien des Datenschutzrechts wie z.B. Zweckbindung, Datenminimierung, Speicher(dauer)begrenzung, Richtigkeit, Rechtmäßigkeit oder Transparenz. Daher ist eine gesetzliche Grundlage wie z.B. die Zustimmung des Betroffenen zur Verarbeitung der Daten erforderlich.

Der Umgang mit Big Data erfordert eine ethische Position, bei der technische, legistische und organisatorische Maßnahmen zusammengeführt werden. Zentrale Maßnahme sollte die Datenminimierung oder Datensparsamkeit (Art der Daten, Umfang der Daten, Speicherdauer, Kreis der Zugriffsberechtigten) sein. Dafür braucht es die Etablierung einer Privacy by Design Mentalität in den Unternehmen, also einen unternehmenskulturellen Zugang. Die so definierten Einstellungen sollen dann im besten Fall in Prozesse über datenschutzkonforme Systembeschaffungen, die Dokumentation von Abschätzungen möglicher Datenschutzrisiken bei Systemplanungen sowie zur Verpflichtung von Systemherstellern zu „Privacy by Design“ münden.

Ganz am Schluss seiner Ausführungen skizzierte der Datenschutzexperte noch Wege der Rechtsdurchsetzung und führte dabei zuerst das aus den Medien bekannte Beispiel des „Data Protection Commissioner (DPC)-Verfahrens Max Schrems vs. Facebook“ an und schilderte dem Auditorium den Instanzenweg.

Danach erläuterte er die Option „Datenschutz NGOs vertreten nach Artikel 80“. Dieser Artikel erlaubt es mandatierten NGOs (z.B. Datenschutz-Vereinen) Datenschutzrechte mittels Verbandsklage durchzusetzen. Man kann ihn gut verwenden, wenn man aus Österreich heraus einen globalen Konzern klagen will. Die DSGVO hat damit NGOs ausdrücklich als Wächter der Bürgerrechte anerkannt.

In Österreich ist Christof Tschohl Gründungs- und Vorstandsmitglied im Datenschutzverein „noyb“ (non-of-your-business) von und mit Max Schrems, der als NGO nach Artikel 80 einzustufen ist.

Dieser Verein informiert im Detail über das Verfahren vor dem „European Data Protection Board“ (EDPB). Er vermittelt dabei Kenntnisse über die Verfahrensrechte vor der Einbringungsbehörde und vor der „Lead Authority“ und erläutert die Verfahrensregeln des Europäischen Datenschutzausschusses.

Sein Schlusswort betreffend den aktuellen Europäischen Datenschutz betraf den EuGH (Europäischer Gerichtshof): „Alle Wege führen nach Luxemburg.“

Posted by Mario Drobics