Retour à la page précédente
Photo de Nataliia Molchanova, doctorante à l'institut Informatique de la HES-SO Valais-Wallis
Monday 14 October 2024 08:00

Nataliia Molchanova a effectué son Bachelor en physique à l’Université d’Etat de Moscou, puis a poursuivi avec un Master en science de l’informatique à l’EPFL. Les membres de sa famille possèdent en grande majorité une formation technique et scientifique, ce qui lui a permis de se sentir à l’aise dans ces branches. Elle a souhaité poursuivre ses études avec un doctorat à l’institut informatique de la HES-SO Valais-Wallis. Le sujet de son travail représente pour elle un véritable défi car elle a décidé de se lancer dans une nouvelle thématique, à savoir celle de l’explicabilité des algorithmes destinés au domaine médical. Comment rendre les mathématiques théoriques applicables et utiles à la population ? Nataliia a trouvé la réponse en poursuivant ses études dans le domaine de l’informatique. Elle est une chercheuse impliquée et curieuse qui se questionne sur la technologie, ses bienfaits, ses limites et ses dangers, notamment en ce qui concerne l’intelligence artificielle. 

Collaborer, comprendre et expliquer : l’informatique au service de médecine

Pratiquante d’arts martiaux depuis l’enfance, elle est attentive à sa santé et ce, d’autant plus qu’elle travaille dans le domaine de la eSanté au sein du laboratoire Medgift du Professeur Henning Müller, co-tuteur de sa thèse effectuée sur le projet MSxplain (partenariat CHUV-UNIL, HES-SO Valais-Wallis et UNIBAS). Sa thèse est supervisée par la Doctoresse Meritxell Bach Cuadra, responsable du CIBM (Centre pour l’imagerie biomédicale). Lorsqu’elle a choisi son sujet de doctorat, elle souhaitait s’approcher d’un thème appliqué qui permettrait non seulement de collaborer avec les utilisateur-trices, mais aussi d’être utile aux patient-es. Le projet qui l’occupe est celui de l’explicabilité des algorithmes d’intelligence artificielle pour le domaine de la santé. Ainsi, elle travaille de concert avec les ingénieur-es informatiques et le personnel médical. Les algorithmes sur lesquels œuvre Nataliia devraient aider au diagnostic de la sclérose en plaques. Elle s'intéresse particulièrement aux aspects psychologiques liés à l'IA afin de comprendre les indécisions concomittantes aux décisions prises par l’IA. Il s’agit pour elle de réfléchir aux moyens d’augmenter fiabilité et confiance de l’humain vis-à-vis des algorithmes d’intelligence artificielle. Son travail est à la frontière entre l’informatique et les sciences de la vie et c’est pourquoi son doctorat se déroule en co-tutelle entre la HES-SO Valais-Wallis et l’Université de Lausanne. 

Elle récupère les retours d’informations des médecins et radiologues afin d’améliorer la lisibilité des résultats obtenus par les algorithmes. Ainsi, elle espère simplifier leur vie en leur permettant d’accéder à une aide au diagnostic de la sclérose en plaques ainsi qu’au suivi des patient-es grâce à l’automatisation de la détection des biomarqueurs IRM. Intégrer de l’intelligence artificielle dans le domaine médical pourrait dégager du temps aux soignant-es qui l’utiliseraient pour la relation patient-es. Toutefois, Nataliia précise l’importance d’intégrer une IA de manière responsable. « Comment faire confiance à une IA et à ses prédictions ? », questionne-t-elle. Voilà tout l’enjeu de son travail de quantification du degré d’incertitude des prévisions d’un modèle d’IA et d’interprétation de ces valeurs. Les utilisateur-trices potentiel-les attribuent ainsi des scores aux résultats obtenus grâce à l’IA et Nataliia utilise des méthodes spécifiques qui lui permettent de décrire le comportement des algorithmes afin de savoir dans quelles situations ceux-ci fonctionnent et s’ils le font de manière adéquate ou non. Les algorithmes développés détectent non seulement les biomarqueurs IRM importants, mais quantifient également le degré de fiabilité de ces prédictions automatiques. En gardant les utilisateur-trices à l'esprit, un cadre qui résume les informations sur la fiabilité du modèle à l'échelle du patient est proposé, servant d'indicateur de la qualité de la prédiction du modèle. Les travaux actuels se concentrent sur la détermination des facteurs cliniquement pertinents qui entraînent une grande incertitude dans les prédictions. La transparence est au cœur de son travail de doctorat, car l’IA ne doit pas être une boîte noire indéchiffrable afin d’être adoptée par les praticien-nes d’un domaine aussi sensible que celui de la santé.  

Toutefois, même si les algorithmes sont complexes et peu compréhensibles, le travail de Nataliia tente de quantifier le degré de confiance que l’on peut accorder à ces modèles, même si le processus de décision n’est pas forcément rendu plus transparent. « Les ingénieur-es ont tendance à produire des outils très techniques et à se questionner ultérieurement sur l’utilité potentielle ; je préfère concevoir des outils plus simples, mais utiles en me concentrant sur les besoins de mes interlocuteur-trices. », détaille Nataliia qui n’oublie pas que son travail consiste à venir en aide aux gens.

Développer des technologies de manière responsable

Elle pense d’ailleurs souvent à la science et à ses buts. Elle indique qu’il est possible de prouver des choses, mais qu’il est impossible de tout décrire car le monde est vaste et complexe. Plus elle avance et plus elle se rend compte que les théories précédentes sur lesquelles elle s’appuie ne sont plus forcément valables aujourd’hui. Elle se questionne beaucoup au sujet de l’intelligence artificielle qui est un sujet clivant. Personne ne peut prédire si l’avènement de cette technologie sera positif ou négatif pour l’humanité. Elle ressent d’ailleurs une pression sociale lorsqu’elle dit travailler dans le domaine de l’IA car les gens peuvent se montrer critiques et sceptiques. Son espoir réside dans le fait que ce sur quoi elle travaille apportera du bon en gardant à l’esprit qu’il est difficile de savoir ce qui sera fait avec les algorithmes développés. Elle met en doute la manière dont la technologie est développée et déployée aujourd’hui. Cela devient dangereux de développer des technologies et de se questionner ensuite sur leur utilité ou leur dangerosité. Pensons à l’intelligence artificielle générative qui permet un gain de temps pour certaines tâches, mais qui aide à produire des vidéos truquées ou des fausses nouvelles ! Nataliia ne veut pas tomber dans le cliché qui voit des ingénieur-es développer des outils et les mettre sur le marché sans penser aux conséquences. Elle milite pour une approche des technologies plus responsable et centrée sur les besoins réels des personnes.