PAROLES D'ÉTUDIANT∙ES - L’IA fait aujourd’hui partie intégrante des processus de recrutement de certaines entreprises. Cette nouvelle technologie redéfinit les codes de l'embauche. Alliance prometteuse ou source d’inquiétude légitime ?
Alors que les entreprises se tournent de plus en plus vers l'intelligence artificielle pour faciliter leurs processus de recrutement, une question cruciale émerge : jusqu'où l'IA peut-elle aller dans la sélection des candidat∙es ? Entre efficacité accrue et biais potentiels, les enjeux complexes de cette révolution technologique apparaissent. Justine Dima, professeure associée à la Haute école d’ingénierie et de gestion du canton de Vaud (HEIG-VD) s’est penchée sur la question.
Dans les processus de recrutement, l'IA est utilisée pour trier et analyser de grandes quantités de CV, en identifiant les compétences clés et en sélectionnant les profils les plus pertinents. Elle peut également être employée pour mener des entretiens virtuels, évaluer les réponses des candidat∙e∙s et fournir des recommandations basées sur des critères prédéfinis. Selon la professeure en management des ressources humaines, les systèmes d’intelligence artificielle apportent avant tout un gain de temps dans le traitement administratif des candidatures. Elles sont parfois utilisées, lors d’entretiens vidéo, pour analyser le débit de parole, l’intonation de la voix, la richesse du vocabulaire ou encore pour percevoir les émotions du·de la candidat·e.
Un des premiers avantages est la rapidité dans les réponses mais aussi dans les « tâches administratives et rébarbatives ». Toutefois, des biais peuvent survenir et ainsi discriminer certaines candidatures. « Une IA, si elle est bien programmée, peut supprimer ces aspects (genre, origine, formation, etc…), mais le risque zéro n’existe pas, tout comme il est utopiste de penser que tous·toutes les recruteurs·euses humain·e·s ne sont pas racistes et misogynes » nuance la professeure.
Afin de limiter les biais et tirer pleinement profit de cette technologie, un comité d’éthique peut être intégré aux réflexions. C’est le cas notamment de AIRUDI, une start-up québécoise dont la mission consiste à faciliter l’intégration et l’adoption de l’IA dans la gestion des RH.
Dans un autre registre, une IA de recrutement doit être entraînée et adaptée à son lieu d’utilisation et à ses sujets. Si une IA issue d’une culture différente est utilisée pour détecter les émotions des candidat∙e∙s, des décalages pourraient survenir, car « elles sont mal entraînées au niveau de la diversité des cultures. En Amérique, on n’exprime pas les émotions de la même manière qu’en Asie».
L’encadrement de la technologie dans ce domaine est donc capital, selon Justine Dima. Actuellement, il n’est pas obligatoire de stipuler qu’une IA est utilisée lors d’un entretien. C’est un processus itératif, dans lequel de nombreux tests doivent avoir lieu.
Quelles sont alors les prochaines étapes avec le recrutement numérique ? Selon Justine Dima, l’automatisation de toutes les tâches administratives et l’information des futur∙e∙s candidat∙e∙s sont un futur envisageable. Ceux∙celles-ci sont les premier∙ère∙s concerné∙e∙s et doivent apprendre à interagir avec les IA lors de leur recrutement. Cependant, la technologie ne va pas remplacer tous les entretiens, car il est important de mieux comprendre les choix de vie et les parcours atypiques. L’IA devrait aider les recruteur∙euse∙s à prendre plus de temps pour mieux comprendre les candidat∙e∙s. Au contraire, si aucun cadre n’est posé, une IA discriminative pourrait voir le jour.
La clé pour ne pas arriver à ce résultat : s’informer, comprendre les systèmes d’IA ainsi que les entraîner de manière éthique et responsable… mais ne pas avoir peur de l’évolution.
Loïc Le Deunff, Luna Galster et Marie Jeanningros