Zurück zur vorherigen Seite
2020_lutter_fake_news_hes_so_valais_wallis_idiap_ethique
Friday, 03. July 2020 - 12:16

Im September wird das europäische Projekt AI4MEDIA lanciert, an dem 30 Partner beteiligt sind, darunter das Forschungsinstitut Idiap in Martinach und das Forschungsinstitut Wirtschaftsinformatik der HES-SO Valais-Wallis in Siders. Forschende und Medienschaffende wollen damit zu einer ethischen künstlichen Intelligenz beitragen.

Um in den Milliarden von veröffentlichten Tweets, Online-Artikeln und geteilten Videos fragwürdige Inhalte aufzudecken, müssen Algorithmen verwendet werden, die diese automatisch analysieren. Die dazu verwendeten Technologien nutzen die künstliche Intelligenz. Voraussetzung dafür ist die vorgängige Analyse von grossen Datenmengen, was sich jedoch angesichts der Medienvielfalt – Video, Text, Bild – als kompliziert erweist. Weiter muss die ethische Dimension integriert werden, und zwar unter einem umfassenderen Ansatz als ausschliesslich demjenigen der grössten amerikanischen Technologieunternehmen. Ziel des europäischen Projekts AI4MEDIA ist die Gewährleistung eines transparenten und ethischen Ansatzes. Dazu wurde ein Konsortium aus 30 Partnern aus verschiedenen Fachbereichen gegründet. Das Forschungsinstitut Idiap und die HES-SO Valais-Wallis sind die einzigen Schweizer Vertreter.

Verständnis und Vertrauen

Das Forschungsteam Social Computing des Forschungsinstituts Idiap wird entscheidendes Fachwissen einbringen: die Evaluation des Verständnisses und des Vertrauens in die auf künstlicher Intelligenz basierenden Technologien. „Alle Nutzer – sowohl Einzelpersonen als auch Organisationen – müssen den Instrumenten, die sie verwenden, vertrauen können“, erklärt Professor Daniel Gatica-Perez, Leiter des Teams. „Dies bedeutet jedoch, dass ersichtlich sein muss, woher die eingesetzte Technologie stammt und wie sie funktioniert. Nur so können die Nutzer deren Zuverlässigkeit wirklich beurteilen“. Das Forschungsteam von Gatica-Perez ist gegenwärtig an einer Studie zur Untersuchung der Vertrauenswürdigkeit der Medien beteiligt, die von der Schweizer Organisation Initiative for Media Innovation unterstützt wird, sowie an einer weiteren nationalen Studie zu den psychosozialen Auswirkungen der Ausgangsbeschränkungen infolge von COVID-19.

Hohe Qualitätsstandards

„Medienerzeugnisse scheinen einfacher zu analysieren und zu nutzen als medizinische Daten, aber die automatische Analyse erfordert in beiden Fällen gleich viel Aufwand“, betont Professor Henning Müller des Forschungsinstituts Wirtschaftsinformatik der HES-SO Valais-Wallis. „Bei der Entwicklung eines Algorithmus müssen wir nicht nur technische, sondern auch ethische Aspekte berücksichtigen. Wir wollen kein Zensurinstrument entwickeln, sondern Tools zur Kontextprüfung.“ Dank der europäischen Dimension des Projekts können zahlreiche Quellen sowie unterschiedliche Sprachen und Kulturen berücksichtigt werden, wodurch mögliche Verzerrungen ausgeräumt werden können. So könnte zum Beispiel wie im medizinischen Bereich ein Label eingeführt werden, mit dem die Qualität der Informationen auf einer Website zertifiziert wird. „Wir wollen eine künstliche Intelligenz anbieten, die menschlicher ist und unsere Bedürfnisse besser berücksichtigt. Gleichzeitig sollen die