L’intelligence artificielle générative, comparable à la révolution d’Internet en termes d’impact sociétal, transforme radicalement le domaine des médias. Dans un monde où « vérités alternatives », deep fake et fake news prolifèrent, la recherche se doit de proposer des outils explicables et transparents pour que les médias continuent d’informer efficacement le public. Financé par le programme Horizon 2020 de l'Union européenne, le projet AI4Media auquel a participé l’équipe du Professeur Henning Müller de l’institut informatique de la HES-SO Valais-Wallis, aspire à devenir un centre d'excellence en mobilisant un vaste réseau de recherche. Ce projet se concentre sur les avancées et formations en IA pour le secteur des médias, tout en intégrant les valeurs européennes d'une IA éthique et fiable, afin de soutenir durablement l’industrie des médias.
Le projet AI4Media du programme de recherche et d'innovation Horizon 2020 de l'Union européenne s'engage à transformer le paysage médiatique en favorisant le développement de compétences essentielles pour faire face aux défis actuels de l'information. Il ambitionne ainsi de redonner le contrôle à la population et renforcer la confiance dans les médias publics.
Les systèmes de recommandation, souvent opaques, enferment les utilisateur-trices dans des bulles d’information. AI4Media propose des solutions pour plus de transparence : un graphe visuel intègre les connaissances sur les utilisateur-trices et le contenu, et des algorithmes détectent les biais, les contenus manipulés et les deepfakes. En substance, AI4Media redonne le contrôle aux citoyen-nes en améliorant la transparence des systèmes de recommandation. Cela pourrait contribuer à une meilleure compréhension des recommandations et à une utilisation plus éclairée des plateformes en ligne.
L’IFCN (International Fact-Checking Network) lutte contre la désinformation en promouvant une vérification des faits transparente et non partisane. Face à la demande croissante, l’IFCN a du mal à répondre avec suffisamment d’évaluateur-trices certifié-es. AI4Media propose des outils d’intelligence artificielle pour faciliter ce processus, notamment des analyses de réseaux sociaux et des détecteurs de faux discours.
L’éducation aux médias est essentielle pour les électeur-trices dans les sociétés démocratiques. La désinformation, la rhétorique populiste et l’amalgame entre opinions et faits scientifiques sont des problèmes croissants. AI4Media propose ImpACT, une technologie d’intelligence artificielle qui vérifie les arguments en temps réel lors de débats politiques, aidant ainsi le public à évaluer la fiabilité des dirigeant-es.
L’information médiatique est souvent influencée par la popularité, mais cela ne garantit pas sa véracité. Le consortium AI4Media propose une solution : le Media Score. Cet outil analyse les contenus multimodaux, permettant aux journalistes de mieux équilibrer la couverture des sujets sous-représentés et d’évaluer les préjugés. La transparence accrue aide à réduire la polarisation et à renforcer le rôle des médias dans une société informée et démocratique.
Dans un monde complexe, les médias doivent créer du contenu compréhensible pour tous. AI4Media propose ExplAIner, un outil IA qui adapte les contenus à différents contextes tout en conservant leur exactitude. Cette technologie permet de mieux raconter des histoires à des publics diversifiés, favorisant une compréhension partagée et évitant la multiplication de « vérités » divergentes.
Les systèmes de recommandation, bien que prometteurs pour les médias avec de vastes bibliothèques de contenus, ont des inconvénients. Ils favorisent souvent les habitudes de consommation des groupes majoritaires, laissant les groupes minoritaires exclus. Le voile algorithmique empêche l’audit et la responsabilisation. Le consortium AI4Media cherche à développer des alternatives pour les médias publics, offrant des outils de recherche et de navigation vidéo plus équilibrés.
L’IA, bien que puissante, reste souvent une “boîte noire” dont les explications sont opaques. Pourtant, des outils d’IA explicables émergent pour aider à comprendre ces systèmes. Malheureusement, ces explications restent souvent techniques et peu accessibles au grand public. Le consortium AI4Media a développé un composant Explainable AI pour aider à comprendre les réponses des réseaux neuronaux profonds.