Notre institut de recherche propose des prestations de recherche appliquée orientée solutions pour les PME et l’industrie au niveau local, régional ou national. En plus de nos compétences en recherche, nous proposons également une palette de services aux entreprises sous forme de mandats, notamment dans le domaine de l’optimisation et de l’organisation. Nos compétences et services permettent de répondre à de nombreux défis posés par la digitalisation croissante de notre société :
Nos équipes de recherche proposent ainsi des projets de recherche et des services variés dans des domaines tels que l’industrie, l’économie tertiaire, les médias ou encore les institutions socio-sanitaires :
L’institut informatique est un acteur clé dans la transformation digitale des entreprises, favorisant l’efficacité, la réactivité et la compétitivité grâce à des projets de recherche appliquée qui s’intéressent aux problématiques concrètes des entreprises. Nos laboratoires de recherche contribuent à la digitalisation des processus métiers et à l’optimisation de l’organisation des entreprises quelle que soit leur taille. Nos chercheur-euses s’intéressent notamment à la modélisation et à l’automatisation des processus métiers, ainsi qu’à l’optimisation de l’organisation et à l’amélioration continue des processus. Voici quelques exemples de domaines dans lesquels nos spécialistes peuvent assister les entreprises.
La réalité virtuelle est une technologie que l’on appelle « immersive » et qui permet de plonger une personne dans un environnement généré par ordinateur à l’aide d’un casque de réalité virtuelle. Cette expérience sensorielle donne la possibilité aux utilisateur-trices d’interagir avec des objets et des scènes virtuelles. Des projets de recherche en lien avec la formation ou le domaine médical ont été élaborés au sein de notre institut de recherche. Des jeunes en situation de handicap peuvent ainsi bénéficier de la réalité virtuelle pour s’entraîner et acquérir des compétences dans un environnement simulé avant de les appliquer dans le monde réel. Des médecins peuvent proposer à leurs patient-es des thérapies basées sur la réalité virtuelle, notamment afin de détecter plus précocement les cas de troubles du spectre autistique chez les jeunes filles qui sont sous diagnostiquées.
La réalité augmentée a pour principe de superposer des éléments numériques (images, vidéos, informations...) sur le monde réel et d’enrichir ainsi la perception de la réalité sans isoler complètement les personnes. Par exemple, il est possible de proposer à des technicien-nes de maintenance des lunettes intégrant de la réalité augmentée afin d’accéder à des instructions lors d’une intervention sur les infrastructures à réparer. Du côté de la médecine, ce type de technologie offre une visualisation en temps réel d’informations pertinentes lors d’une intervention chirurgicale.
La réalité mixte combine les éléments du monde numérique et réel afin de permettre une interaction entre les deux. Cette technologie bénéficie à de nombreuses entreprises et industries ; pensons aux bureaux d’architecte qui pourraient présenter une maquette virtuelle des bâtiments futurs dans leur contexte et emplacement futurs. Imaginons les étudiant-es en médecine bénéficier d’une exploration d’organes virtuels en 3D en même temps qu’ils et elles les manipulent dans la réalité d’un laboratoire.
Les applications sont multiples et infinies et permettent notamment une baisse des coûts et des risques. En effet, il s’agit d’abord d’entraîner des compétences dans le monde virtuel avant que de les tester dans le réel. Ainsi, tous les étudiant-es, apprenti-es ou entreprises qui souhaitent lancer un nouveau produit bénéficient de ces technologies. En outre, les personnes en situation de handicap ou souffrant d’un trouble du spectre autistique ou d’un trouble de l’attention peuvent tester des situations complexes pour elles dans un cadre virtuel sécurisant avant de se confronter au réel.
Les quantités massives de données générées par les entreprises et les particuliers sont aujourd’hui un enjeu économique majeur. Le Big Data est un domaine de la science informatique qui s’intéresse à l’exploration, à l’analyse et à la valorisation de ces données. En effet, il s’agit de permettre aux entreprises et à l’industrie d’exploiter et d’utiliser leurs données grâce à des algorithmes de Machine Learning. Le Big Data se fonde sur trois piliers :
Les projets de recherche de notre institut se concentrent sur l’agrégation, l’analyse, la structuration et l’exploitation de ces données grâce à des algorithmes personnalisés d’intelligence artificielle et répondant aux attentes des entreprises partenaires. Même les données structurées pouvant être stockées et traitées dans un format défini nécessitent souvent du Machine Learning, puisque leur volume est tel que le stockage et le traitement représentent un immense défi pour les entreprises. Certaines données sont, quant à elles, semi-structurées ou non structurées et nos chercheur-euses sont spécialisé-es dans le data mining (identifier des relations entre les données et de les transformer en informations exploitables) et travaillent au traitement et à l’exploitation de ces éléments qui proviennent souvent de sources hétérogènes (textes, images, vidéos…). L’informatique décisionnel ou Business Intelligence fait partie des compétences proposées par nos laboratoires de recherche. Nous proposons des processus, des technologies, des compétences et des applications pour transmettre des informations pertinentes aux responsables de PME ou d’entreprises industrielles.
La prise de décision basée sur les données représente un enjeu d’importance pour tous les pans de la société. En effet, le Big Data est notamment utilisé dans le domaine médical, par exemple pour identifier les facteurs de risque de maladie ou pour offrir des solutions d’aide à la décision diagnostique. Il peut aussi être utile dans le secteur de l’énergie en surveillant les données générées par les réseaux électriques. D’autres domaines tels que l’agriculture, la finance, les transports ou la gouvernance d’administrations publiques ou d’entreprises peuvent bénéficier de cette technologie qui permet une gestion efficiente des ressources, une aide à la décision basée sur les données ou encore des innovations en matière de produits ou de services.
Le traitement automatique du langage naturel ou NLP – Natural Language Processing est une compétence acquise au sein de notre institut. Combinant la linguistique informatique (modélisation du langage humain fondé sur des règles), des modèles statistiques et de Machine Learning, cette discipline permet de reconnaître, de comprendre et de générer du texte et de la parole. Nos systèmes GPS à commande vocale, nos assistants digitaux ou logiciels de reconnaissance vocale fonctionnent grâce à cette technologie. Toutefois, le NLP est également utilisé dans les entreprises afin de rationaliser et d’automatiser certaines tâches, comme la détection des spams, la traduction automatique, les agents virtuels (chatbots) ou la génération de résumés de textes. Le NLP est notamment composé des données textuelles et vocales et les décompose en tâches pour permettre à un algorithme de Machine Learning de donner du sens à ce qui lui est soumis. Ainsi, de nombreuses tâches peuvent être reproduite par un algorithme de NLP :
Les domaines d’applications sont nombreux et nos chercheur-euses ont notamment mis sur pied un algorithme de détection des fausses nouvelles ou fake news grâce à l’apprentissage automatique et au NLP. Les outils développés permettent l’analyse syntaxique, la segmentation des mots, la radicalisation ou lemmisation (réduction des mots à leur racine), la segmentation en unités de langage, la possibilité de proposer des conclusions logiques à partir d’extraits de texte. Le NLP statistique qui combine algorithmes, Machine Learning et Deep Learning (apprentissage profond) est utilisé pour extraire, classer et étiqueter automatiquement des données textuelles.
Les LLM – Large Language Model ou grands modèles de langage sont des modèles entraînés sur de très importantes quantité de données pour comprendre et générer du texte en langage naturel ou d’autres types de contenus (images, vidéos). Ces modèles sont connus, puisqu’ils ont introduit l’intelligence artificielle générative auprès du grand public. Les LLM peuvent saisir le contexte d’une demande, générer des réponses cohérentes et pertinentes, effectuer des traductions, résumer des textes, répondre à des questions ou même générer des contenus tels que du code informatique. Ces modèles s’appuient sur d’immenses quantités de données et des techniques de Deep Learning (apprentissage profond). Les couches de réseaux neuronaux s’entraînent à prédire le mot suivant dans une phrase en fonction du contexte fourni par les mots précédents. Il ne s’agit pas de conversation humaine, mais de modèles prédictifs basés sur des probabilités mathématiques. Les LLM sont entraînés sur un corpus étendu de textes afin qu’ils puissent apprendre la grammaire, la sémantique et les relations conceptuelles grâce à un mécanisme d’apprentissage exempt de données et à l’apprentissage autonome. Nos chercheur-euses possèdent notamment des compétences dans le domaine du prompt engineering (ingénierie des prompts), de fine-tuning (réglage fin) ou d’apprentissage par renforcement avec rétroaction humaine (RLHF). Cela permet, entre autres, de supprimer les biais dans les résultats attendus. Les entreprises peuvent elles aussi bénéficier de ce type de technologies d’intelligence artificielle comme l’optimisation de chatbots conversationnels ou assistants virtuels, la production de contenus, la synthèse de données, l’extraction d’informations à partir de bases de données importantes, la traduction ou la rédaction de code informatique. Les LLM permettent aussi d’améliorer l’accessibilité aux personnes en situation de handicap grâce à la synthèse vocale et à la production de contenus accessibles. Les LLM peuvent, dans le cadre d’une PME ou d’une entreprise industrielle répondre aux défis suivants :
L’intelligence artificielle générative, comparable à la révolution d’Internet en termes d’impact sociétal, transforme radicalement le domaine des médias. Dans un monde où « vérités alternatives », deep fake (hypertrucages vidéos) et fake news prolifèrent, la recherche se doit de proposer des outils explicables et transparents pour que les médias continuent d’informer efficacement le public. L’l’institut informatique de la HES-SO Valais-Wallis aspire à devenir un centre d'excellence en la matière en intégrant les valeurs européennes d'une IA éthique et fiable, afin de soutenir durablement l’industrie des médias.
Nos chercheur-euses ont notamment travaillé sur des projets permettant d’analyser le comportement des utilisateur-trices grâce au LLM et ainsi de soutenir le travail des journalistes afin de mieux comprendre les attentes du lectorat, notamment par la création de persona grâce aux données. Mais cette technologie permet aussi d’analyser de grandes quantités de données telles que des articles de journaux. L’un des projets menés consistait à faire analyser des articles en lien avec les violences sexistes et sexuelles dans la presse Suisse Romande afin de fournir un outil d’aide à la décision. La réflexion éthique concernant l’utilisation des LLM dans le cadre de projets de recherche à caractère sociétal permet aux chercheur-euses de proposer des outils innovants et performants qui se fondent sur des modèles robustes.
Les outils d’intelligence artificielle permettent de soutenir les médias, notamment au travers d’outils dédiés, de formation ou de programme de recherche. Voici quelques exemples des possibilités offertes par notre institut :
Le déploiement éthique des systèmes d'IA dépend de leur transparence et de leur explicabilité. La transparence et l’explicabilité sont primordiales, puisqu’il s’agit de trouver un équilibre avec les principes de protection de la vie privée, de sûreté et de sécurité. En effet, les progrès des capacités d’autonomie, de prise de décision et d’action des systèmes informatiques ou robotiques sont liés à la responsabilité des sujets humains (informaticien-nes, développeur-euses, vendeur-euses, etc.) et des systèmes informatiques eux-mêmes. De systèmes automatisés, programmés pour des tâches simples et répétitives, nous sommes passés à des systèmes autonomes qui peuvent prendre des décisions qui ne sont pas toujours aisées à comprendre au vu de la complexité des algorithmes utilisés. Ainsi, les équipes de recherche de l’institut informatique sont dotées de spécialistes des questions d’éthique et d’explicabilité de l’IA, notamment dans le domaine sensible de la santé. Ces systèmes intelligents interagissent avec des professionnel-les humains qui doivent comprendre comment les décisions sont prises et pourquoi tel ou tel diagnostic est délivré par l’intelligence artificielle. Cela se complique encore lorsque des systèmes autonomes sont composés de sous-systèmes (tels que l’apprentissage distribué par commérage). Des sous-agents autonomes sont reliés pour former un systèmes multi-agents. Plus résistant aux pannes en cas de défaillance et moins onéreux, il reste difficile d’analyser leur fonctionnement global et de prouver l’acuité des décisions prises. L’architecture de ces systèmes peut même changer, se basant sur des algorithmes différents et rendant leur transparence et leur explicabilité encore plus complexe.
Les questions éthiques parcourent tous le processus de recherche, de la construction des modèles à l’acquisition des données, de la prise de décision jusqu’à l’usage des décisions et l’intervention humaine. Les objectifs de l’explicabilité des algorithmes d’intelligence artificielle visent à :
Les approches externes d’explicabilité s’attachent à observer le système autonome et à l’expliquer, en simulant des entrées dans le système, en observant les résultats et en produisant une analyse statistique ou en reproduisant un arbre de décision. Quant aux approches internes, elles visent à concevoir un système autonome autour de la production d’explications en dotant ce système de propriété de réflexivité, le rendant capable d’observer son propre comportement et de fournir des explications formalisées. Cette approche ne propose pas d’explications a posteriori, mais durant le processus de raisonnement, se servant de ces explications pour prendre sa décision.
La difficulté à expliquer les modèles vient du fait qu’ils apprennent à reproduire la relation entre les exemples d’apprentissage (des données patient-es, des informations de production…), le résultat (le diagnostic, le produit fini…) et les caractéristiques (données biologiques, caractéristiques d’un produit…). Cette relation peut revêtir une grande complexité qui est proportionnelle au nombre de variables ainsi qu’aux paramètres du modèle. Toutes ces informations peuvent se compter en milliards ! Finalement, il faut indiquer que l’approche éthique est d’autant plus importante et nécessaire dans des modèles à la performance prédictive élevée (réseaux de neurones, Machine Learning, Deep Learning), car ceux-ci sont extrêmement complexes et peuvent alors être perçus comme de véritables boîtes noires.
Prof. Laurent Sciboz, Responsable de l'institut Informatique