Die generative künstliche Intelligenz ist für die Welt der Medien gleich revolutionär wie das Internet für unsere Gesellschaft war. Die aktuelle Medienwelt ist geprägt von Fake News, Deepfakes und Desinformation. Damit die Medien die Öffentlichkeit weiterhin glaubwürdig informieren können, müssen sie über transparente und verständliche Hilfsmittel verfügen, die ihr die Forschung zur Verfügung stellen kann. Das über das EU-Rahmenprogramm Horizon 2020 finanzierte Projekt AI4Media, an dem auch das Team von Dr. Henning Müller des Instituts für Informatik der HES-SO Valais-Wallis beteiligt ist, baut ein Kompetenzzentrum für Medien, Gesellschaft und Demokratie auf. Durch KI-Forschung und das Angebot von Schulungen in diesem Bereich will das Projekt die Medienindustrie nachhaltig dabei unterstützen, die europäischen Werte einer ethischen und zuverlässigen KI in ihre Berichterstattung zu integrieren.
Das Projekt AI4Media hat sich zum Ziel gesetzt, die Medienlandschaft zu verändern, indem es die Entwicklung von Schlüsselkompetenzen fördert, die für die Bewältigung der aktuellen Herausforderungen im Informationsbereich erforderlich sind. Das Projekt will der Bevölkerung die Kontrolle über die Informationen zurückgeben und ihr Vertrauen in die öffentliche Berichterstattung stärken.
Empfehlungssysteme sind oft undurchsichtig und schliessen die Nutzenden in Filterblasen ein. AI4Media will die Transparenz solcher Systeme steigern, indem die Kenntnisse über die Nutzenden und die Inhalte visuell dargestellt werden. Algorithmen tragen dann dazu bei, Verzerrungen, manipulierte Inhalte und Deepfakes zu erkennen. Dies gibt den Nutzenden die Kontrolle zurück und kann zu einem besseren Verständnis von Empfehlungen sowie zu einer bewussteren Nutzung von Online-Plattformen beitragen.
Das International Fact-Checking Network (IFCN) bekämpft Desinformation, indem es eine transparente und unvoreingenommene Überprüfung von Fakten fördert. Die Zahl der zertifizierten Gutachter und Gutachterinnen ist angesichts der steigenden Nachfrage nicht ausreichend. AI4Media bietet deshalb AI-Tools, um sie bei diesem Prozess zu unterstützen, unter anderem durch die Analyse der sozialen Netzwerke und die Erkennung von Falschaussagen.
Medienkompetenz ist für Wählerinnen und Wähler in demokratischen Gesellschaften von zentraler Bedeutung. Desinformation, populistische Rhetorik sowie die Vermischung von Meinungen und wissenschaftlichen Fakten führen zunehmend zu Problemen. Aus diesem Grund hat AI4Media ImpACT entwickelt, eine KI-Technologie, die Aussagen während politischen Debatten in Echtzeit überprüft und so der Öffentlichkeit hilft, die Vertrauenswürdigkeit von Politikern und Politikerinnen zu beurteilen.
Wenn Medieninformationen auf grossen Anklang stossen, bedeutet dies noch lange nicht, dass sie auch wahr sind. AI4Media bietet Journalisten und Journalistinnen mit dem Media Score ein Hilfsmittel, mit dem Inhalte analysiert, ausgewogener über unterrepräsentierte Themen berichtet und Vorurteile erkannt werden können. Die erhöhte Transparenz trägt zu einer Verringerung der Polarisierung und einer Stärkung der Rolle der Medien in einer informierten und demokratischen Gesellschaft bei.
In unserer komplexen Welt müssen die Medien Inhalte produzieren, die für alle verständlich sind. Das KI-Tool ExplAIner von AI4Media passt Inhalte an verschiedene Kontexte an, ohne an Genauigkeit zu verlieren. Auf diese Weise können Berichte an unterschiedliche Zielgruppen angepasst, das allgemeine Verständnis gefördert und die Verbreitung abweichender „Wahrheiten“ vermieden werden.
Empfehlungssysteme sind zwar für Medien mit umfangreichen Inhaltsbibliotheken sehr vielversprechend, haben aber auch Nachteile, da sie oft die Konsumgewohnheiten von Mehrheiten begünstigen und Minderheiten vernachlässigen. Der Einsatz von Algorithmen erschwert die Prüfung und auch die Rechenschaftspflicht. Das AI4Media-Konsortium will Alternativen entwickeln, die eine ausgewogenere Navigation und Videosuche für öffentliche Medien ermöglichen.
Die Künstliche Intelligenz ist ein sehr leistungsstarkes Hilfsmittel, das jedoch noch zu oft undurchsichtige Erklärungen bietet. Neue KI-Tools sollen dabei helfen, diese Systeme besser zu verstehen, sind jedoch sehr technisch und für die breite Öffentlichkeit kaum zugänglich. Das AI4Media-Konsortium hat eine Explainable AI-Komponente entwickelt, die dabei hilft, die Antworten von tiefen neuronalen Netzen zu verstehen.