Retour à la page précédente
JohanRochel_mod

ChatGPT et plusieurs autres logiciels d’intelligence artificielle à destination du grand public vont transformer en profondeur notre manière d’apprendre et d’enseigner. Ces nouveaux outils exceptionnellement puissants posent également de nombreuses questions éthiques sur les valeurs que nous désirons, ou non, prioriser dans notre société. Afin d’y voir plus clair, nous avons rencontré Johan Rochel, éthicien du numérique, qui intervient régulièrement dans les Hautes Ecoles de Gestion (HEG) et d’Ingénierie (HEI).


Selon vous, quel sera l'impact de l'IA sur l'éducation ?

Elle a déjà un impact majeur ! Je pense principalement à la création de contenu, mais aussi à l'évaluation des connaissances. Ces nouveaux outils modifient la manière dont nous enseignons et évaluons les étudiant∙e∙s. Nous devons collectivement réfléchir aux modalités de futurs examens, à ce que nous voulons vraiment évaluer chez les étudiant∙e∙s, et si nous autorisons l'utilisation de supports technologiques ou non. Pour l’instant, nous sommes encore dans une phase de joyeuse anarchie.

Quelle est la responsabilité de l'étudiant·e lors de l'utilisation de ChatGPT ?

Il faut, selon moi, partir des principes de responsabilité et d’honnêteté. Les étudiant∙e∙s sont responsables du contenu du travail rendu. ChatGPT est un outil et la responsabilité incombe à l’utilisateur·trice. De plus, les étudiant∙e∙s doivent faire preuve d’honnêteté intellectuelle, cela comprend une obligation d’annonce et d’explication lors de l’utilisation d’outils comme ChatGPT. Quant aux professeur∙e∙s, leur rôle consiste entre autres à rendre attentif les étudiant∙e∙s aux limites de ces outils.

Comment l'IA peut-elle influencer l'accès à l'éducation et à la recherche ?

Il existe de véritables enjeux d'égalité des chances en ce qui concerne l'accès à la technologie. De plus, la stabilité des outils pose des questions. Nous devons nous demander si les outils ont atteint une maturité suffisante pour être utilisés officiellement dans l'éducation publique. Je nourris également quelques inquiétudes quant au renforcement des inégalités existantes, notamment en lien avec les ressources.

Quels sont les défis liés à la protection de la vie privée des étudiant∙e∙s lors de l'utilisation de l'IA?

Nous ne comprenons pas encore pleinement ce que ChatGPT fait des données, ce qui soulève des questions majeures sur la protection de celles-ci. Il y a actuellement une phase d'euphorie autour de l'IA, il faut s’y intéresser sous peine de paraître ringard·e, de manquer un soi-disant « train » technologique. Malgré cette pression, nous devons être prudent·e·s et conscient·e·s des risques.

L'IA est-elle une technologie disruptive puissante ?

Oui, certainement. Cependant, contrairement à Internet, elle n'est pas une infrastructure en elle-même. L'intégration de l'IA dans des applications courantes, telles que la suite Office de Microsoft, peut accélérer considérablement son adoption. Il est important de noter que l'IA intégrée à des outils couramment utilisés sera omniprésente.

Comment pouvons-nous garantir l'intégrité académique dans un environnement où l'IA permet des manipulations de contenu sophistiquées ?

Il s'agit d'une préoccupation importante. Les outils basés sur l'IA ne sont pas responsables en eux-mêmes, c'est l'humain qui les utilise qui en est responsable, notamment pour assurer l’exactitude des citations et des références. Cela peut accélérer le processus de production et créer des défis, mais les véritables avancées continueront à être le fruit du travail humain.

Comment les enseignant·e·s, les chercheurs·euses et les institutions peuvent-ils·elles être formé·e·s pour comprendre les enjeux éthiques de l'IA ?

Il est essentiel de sensibiliser non seulement les étudiant·e·s, mais aussi les enseignant·e·s et les chercheurs·euses aux enjeux éthiques de l'IA. Cela peut être intégré à l'éducation au numérique et nécessite une formation adéquate. La capacité d’identifier et de gérer des défis éthiques doit faire partie intégrante de la formation des ingénieur·e·s et des chercheurs·euses.

Quels sujets abordez-vous avec vos étudiant∙e∙s ?

Nous abordons différents sujets liés à l'éthique de l'innovation et de la technologie. Je distingue les questions d’éthique dans la technologie, notamment l'éthique des données, des questions d’impact sur la société et sur les relations humaines. Ces questions sont abordées comme des défis de justice sociale. Finalement, nous discutons des sujets plus fondamentaux, comme ce que signifie être intelligent·e, créatif·ve, autonome, etc.

Pourquoi est-il important d'aborder l'éthique dans la formation des ingénieur·e·s ?

L'éthique est une compétence fondamentale dans le travail des ingénieur∙e∙s. Ils∙elles sont constamment confronté·e·s à des décisions éthiques lorsqu'ils∙elles évaluent différentes options et font des choix. Mon rôle est de les aider à rendre ces décisions explicites et à comprendre les enjeux éthiques liés à la protection des données, au choix des modèles d'algorithmes, etc.

Qu'est-ce que les ingénieur∙e∙s oublient souvent en matière d'éthique ?

Les ingénieur∙e∙s sont souvent formé∙e∙s à repérer et à résoudre les problèmes techniques, ce qui est important. Cependant, une question technique n’est jamais seulement technique. Il est crucial de ne pas isoler ces problèmes de leur contexte et de leur environnement.  Les questions éthiques sont inévitables et nous devons nous demander quel impact elles ont sur les autres aspects du puzzle technologique.

 

 

 

 

Courte biographie

Le Dr Johan Rochel est chercheur au CDH (Collège des Humanités, EPFL). Il enseigne le "Droit et éthique de l'IA". Il a une formation à la fois de philosophe et de juriste. En plus de ses activités académiques, il est co-fondateur et co-directeur d'une société de conseil appelée "ethix - lab for innovation ethics".