NGI Talk #4 – Fake News & Echo Chambers

NGI Talk #4 – Fake News & Echo Chambers

This event was organized in cooperation with

 

Posted by Mario Drobics, 0 comments
Aftermath to NGI#3 – AI and beyond

Aftermath to NGI#3 – AI and beyond

Artificial Intelligence ist bereits Realität, braucht aber verstärkte gesellschaftliche Auseinandersetzung!

Bei der dritten Auflage der „Next Generation Internet“-Talks wurden durch multi-disziplinäre Referenten aus der Software-Industrie, der öffentlichen Verwaltung und der Wissenschaft mögliche Nutzungspotenziale von Ai in Europa ausgelotet, Regulierungsmöglichkeiten für eine vertrauensvolle AI zu diskutiert und AI als komplexes Ökosystem begreifbar gemacht.

Die Schlacht um KI

Der Founder und CEO des Grazer Technologie Start-Ups Leftshift One, DI Patrick Ratheiser, sieht „Schwache AI“ mit den Funktionalitäten Zeichen-, Text-, Bild- und Spracherkennung wie sie in vielen Assistenz- und Support-Systemen bereits zum Einsatz kommt, längst in der Mitte der Wirtschaft und Gesellschaft angekommen. Die Zeit für „Starke AI“, die im Hinblick auf logisches Denken, Lernfähigkeit und Kommunikation in natürlicher Sprache der menschlichen Intelligenz ebenbürtig sein wird, sieht er allerdings erst ab 2040 gekommen.

„Die Schlacht um KI für Big Data“ sieht Ratheiser bereits an die US-amerikanischen Internet-Giganten Google, Amazon und Facebock verloren, aber bei autonomer KI, bei Perceptive KI und bei Business KI sind die Chancen für Europa durchaus intakt.

Sein Unternehmen Leftshift One hat mit der generischen AI-Plattform GAIA eine zukunftsträchtige, auf verschiedenen Modulen basierende Lösung für die Integration unterschiedlicher AI-Dienste wie Datenanalyse, Bilderkennung, NLP-Text und -Sprachverständnis, sowie Emotionserkennung und intelligente Prozessmodellierung aufgebaut, die mit ihrem „Conversational User Interface“ in Richtung AI und den dabei eingesetzten Visualisierungstechnologien eine natürliche Human-Computer-Interaction ermöglicht.

Wer trägt die Verantwortung?

Im zweiten Impulsreferat von Frau Mag.a Tünde Fülöp vom BMEIA ging es um die besonderen Anforderungen für einen rechtskonformen Einsatz von AI im Rahmen der öffentlichen Verwaltung. „Artificial neural networks“ besitzen heute bereits eine enorme Analysekraft und können auf der Grundlage zur Verfügung gestellter Trainingsdaten autonom Schlussfolgerungen ziehen, indem sie Korrelationen, Muster und Gesetzmäßigkeiten erkennen und bewerten.

Das „Black Box“-Problem schafft aber oft Intransparenz und damit fehlende Erklärbarkeit und sorgt für unerwünschte Bias. Um dem Legalitätsprinzip in der Verwaltung Rechnung tragen zu können, müssen schon vor dem Aufsetzen von AI-Lösungen umfassende Wirkungs- bzw. Risikofolgenabschätzungen durchgeführt und AI so konzipiert werden, dass keine automatisierten Entscheidungen getroffen werden, wenn diese eine rechtliche Wirkung entfalten. D.h. menschliche Intervention hat immer das Schlusswort.

Da so gut wie jede Rechtsmaterie durch einen AI-Einsatz tangiert wird, bringt die Inbetriebnahme von Künstlicher Intelligenz eine riesige Verantwortung für Gesetzgebung, Rechtsprechung und Verwaltung mit sich, die nur mit entsprechend angepassten Regulierungsmaßnehmen bewältigt werden kann. Natürlich braucht es bei der rechtlichen Einfassung von AI eine Art Balance zwischen Eingriffsintensität, Rechtswirkung und potentiellen Risiken auf der einen und Guidelines, Soft Law oder Gesetzen auf der anderen. Ein „Framework for Trustworthy AI“, das durch eine eingesetzten High-Level Expert Group der Europäischen Kommission entwickelt wurde, beruht auf  ethischen Prinzipien und darauf aufbauenden Kernanforderungen, die die erforderlichen Hilfestellungen geben könnten.

Eine Welt voller Vorurteile

Die Schlussvortragende, Dr. Christine Bauer, Senior Post-Doc am Institute of Computational Perception an der JKU Linz, ging der Frage nach, wie AI unsere Wahrnehmung und unseren Umgang mit Computern verändern wird.

Bei der Allgegenwärtigkeit unserer Smart Phones vergessen wir nur allzu leicht, dass in ihnen jede Menge AI steckt, weil uns die winzigen, digitalen Helfer längst zur Routine geworden sind.

AI polarisiert – die einen sprechen vom Ende der Menschheit, für die anderen ist alles super. Doch weder für den extremen AI-Hype, noch für eine Schwarzmalerei gibt es eine sachliche Grundlage. Was aber evident ist, ist die Tatsache, dass Anwendungsbereiche, in denen sensitive Daten analysiert und tiefgreifende und negative Folgen durch den AI-Einsatz zu erwarten sind, besonders im Fokus stehen. Dazu zählen bspw. die Einsatzszenarien Kriminalitätsbekämpfung, der Gesundheitsbereich und das Recruiting.

Es muss einer Gesellschaft zu denken geben, wenn man die Beurteilung der Rückfall-Wahrscheinlichkeit verurteilter Personen alleine einem Algorithmus überlässt. Im Gesundheitsbereich bildet das Phänomen der kognitiven Verzerrung, die sogenannte „Overconfidence“ eine bekannte Gefahrenquelle; speziell, wenn veraltete Trainingsdaten Änderungen in Krankheitsbildern bzw. neuere empirische Befunde und Medikationsmöglichkeiten außer Acht lassen. Auch tritt bspw. im Recruiting verstärkt das Problem eines Bias auf, da mit historischen Trainingsdaten Fehler aus der Vergangenheit nachgeahmt werden.

Es braucht also beim AI-Einsatz immer eine sorgfältige Prüfung der Basisdaten durch die Änderungen im Zeitverlauf erkannt und berücksichtigt werden können.

Hit-“produzierende” Algorithmen

Zum Abschluss ihres Vortrages zeigte Christine Bauer anhand eines Beispiels aus ihrem Kernforschungsgebiet, dem AI-Einsatz im Entertainment, auf, dass es sich bei AI immer auch um ein breit gefächertes Ökosystem mit diversen Playern handelt, die bei einem Fehlverhalten der AI mit unterschiedlichen Konsequenzen konfrontiert sind.

Im Hit-getriebenen Musik-Business entfaltet ein „falsch“ selektierter Song unterschiedlichste Auswirkungen. Ein mögliches Szenario könnte so aussehen: Der Endkonsument hört unpassende Musik, die Gesellschaft wird durch „Popularity Bias“ auf eine homogene Musikkonsumation eingeschworen, die Plattform-Provider werden durch konzentrierten Zugriff auf nur wenige Musikstücke vor Ressourcen-Probleme gestellt, die Labels sind von möglichen Umverteilungen am Markt betroffen, beim short head, also den wenigen Top-of-the-Top Superstars entscheidet die Anzahl der streams über die Anzahl der Werbedeals und bei der großen Menge der Long Artists ist das Vorkommen in main stream Medien der wichtigste Game changer für wirtschaftliche Unabhängigkeit.

AI hat nachweislich nicht nur eine Systemkomponente, sondern ist immer auch in einen Verwendungskontext eingebettet. Die Interaktion mit Menschen ist dabei oft der Input für den nächsten Schritt. Vielleicht als Resümee am Wichtigsten: Der Mensch ist Teil von Artificial Intelligence.

Foto:

vlnr.: Patrick Ratheiser, Tünde Fülöp, Christine Bauer, Mario Drobics (AIT); Bild: AIT / Raimund Appel

Posted by Andreas Martin, 0 comments

Successful NGI Talk #2 on “Digital Trust”

This event was organized in cooperation with

 

Thema des zweiten NGI Talks war das aktuelle Thema Vertrauen und die je nach Perspektive unterschiedlichen Bedeutungen von Vertrauen. So kann Vertrauen aus einer rechtlichen Deutung heraus klare Verhaltensregeln erstellen, die es Akteure im digitalen ermöglicht beispielweise Haftungsfragen transparent zu regeln und somit Handlungsräume zu ermöglichen. Für das gesellschaftliche digitale Zusammenleben ist die Etablierung vertrauter Mechanismen eine relevante Größe, doch steht sie aktuell noch sehr stark unter den wirtschaftlichen Zwängen. Aktuelle Entwicklungen wie Filterblasen, gezielte Desinformation oder Datenmissbrauch zeigen einerseits, dass bisher mit viel Vorschusslorbeeren im digitalen Bereich gearbeitet wurde und anderseits, dass die bisherigen technologischen Entwicklungen das Thema stiefmütterlich behandelt haben.

Aus technologischer Perspektive sind Forschungsvorhaben ein wichtiger Treiber, aber auch die Politik und Wirtschaft stehen in der Verantwortung. Es wurde jedoch auch sehr schnell klar, dass der/dem Endanwender*innen eine tragende Rolle zukommt. Das Einfordern von Transparenz und Nachvollziehbarkeit hat dabei hohe Priorität, verlangt gleichzeitig aber auch ein hohes Maß an Aufgeklärtheit der Bürger*innen. Unterstützend können dabei beispielsweise staatliche Regulierung, Standardisierung und Zertifizierung mitwirken um Vertrauen in neue Lösungen und Technologie zu manifestieren. Jedoch erschweren hier die zentralen und dezentralen Substrukturen und Teilbereiche des digitalen Raums ein einheitliches und nachvollziehbares Vorgehen, da die Gesetzgebung in Wirklichkeit global gedacht werden muss.

An Hand der Blockchain Technologie wurde für alle Diskutanten und Zuhörerinnen die Vielseitigkeit der Problemstellung rund um den „digital Trust“ deutlich gemacht. So bestimmen Nutzerzahlen von zwei bis mehrere Millionen Endanwender die Anforderungen an die Technologie. Ebenso wie der konkrete Anwendungsfall, der sich über Szenarien aus der Finanzbranche bis hin zu privaten Anwendungsfällen erstrecken kann. Deutlich wurde wieder, dass auch hier die Lösung nicht nur in der Technologie gesucht werden kann, sondern es den gemeinsamen Diskurs bedarf, um den Anforderungen, die an das digitale Zusammenleben und arbeiten gestellt werden, gerecht zu werden.

You can download the full article covering the event and including an interview with the speakers here:

Report Plus April 2019

Agenda

  • Impulse Talk #1: Introduction – NGI ist gut, Vertrauen ist besser – Remarks on Digital Trust
    Speaker: Prof. Peter Reichl (Univ. Wien)
  • Impulse Talk #2: Technologies – Can distributed concepts like blockchain solve the trust problem in the future internet and what would be alternatives? (slides)
    Speaker: Bernhard Haslhofer (AIT)
  • Impulse Talk #3: Liability – How is responsibility / liability handled in digital networks? (slides)
    Speaker: Prof. Erich Schweighofer (Univ. Wien)
  • Panel Discussion – Discuss the topic with the speakers
    Moderator: Martin Szelgrad (Report Verlag)

Images (c) Sela Krobath, Video (c) Bernhard Schojer

Posted by Mario Drobics, 0 comments

First NGI Event in the media

Our first NGI Talk took place on November 27th at OVE in Vienna. In the three talks and the following discussion “values” turned out the connecting element. You can download the slides from the event on the event web-page. A report about the event was also published in Computerwelt.

An extensive summary of the event is included in the german version of this post.

Posted by Mario Drobics, 0 comments