Entreprise

Les entretiens vidéos et l’IA risquent-ils d’augmenter les discriminations ?

Dans une étude parue fin novembre 2019, le sociologue du travail Jean-François Amadieu s’intéresse à l’utilisation des nouvelles technologies par les recruteurs. Selon lui, les entretiens vidéo et l’intelligence artificielle risquent de renforcer les discriminations au physique (directes et indirectes). Il nous en dit plus sur les risques de ce recrutement “algorithmique”.

 

De quelles techniques de recrutement parlons-nous, exactement ?

Des start-ups, aux USA comme en France, proposent actuellement d’utiliser de l’intelligence artificielle aux différents stades de recrutement, du sourcing au matching, jusqu’aux entretiens vidéos. Une tendance préoccupante se développe dans ce dernier cas : l’utilisation d’algorithmes, qui analysent le contenu verbal des entretiens vidéos, mais aussi la voix, les gestes et les visages des candidats.

En raison d’un flou entretenu, il est difficile de connaître précisément les variables traitées par les logiciels. Les critères examinés par l’IA varient d’une start-up à l’autre, mais la plupart du temps, ils traitent la prosodie (tonalités, accents, modulations), les regards, les mouvements, les expressions faciales et parfois même la forme des visages. Ils entendent détecter les candidats “compétents”, et sélectionner les “meilleurs profils” pour les recruteurs.

 

Pourquoi ces systèmes sont-ils dangereux, selon vous ?

J’étudie la question de l’impact de l’apparence sur le recrutement depuis des années. La prise en compte des aspects non-verbaux pour sélectionner un candidat ne date pas d’hier : l’apparition des photos sur les CV allait déjà en ce sens. Mais aujourd’hui, il y a une vraie accélération du phénomène avec ces systèmes d’IA. Ils sont de plus en plus utilisés par des entreprises qui, bien souvent, n’ont pas conscience des enjeux, et ne voient que la promesse de gagner du temps.

Les risques de dérives sont pourtant grands. Le droit français est limpide en ce qui concerne les discriminations directes : sélectionner un candidat selon son apparence physique (corporelle, vestimentaire) est prohibé depuis la loi du 16 novembre 2001. L’analyse par des algorithmes du visage des candidats ne peut donc, légalement, pas être utilisée en France.

Mais le vrai problème, que je soulève dans mon étude, ce sont les discriminations indirectes. Sans s’en rendre compte, sans que ce soit l’objectif du logiciel, on va défavoriser certains candidats, en particulier ceux qui ont des handicaps psychiques ou des problèmes de santé qui influent sur leur façon de parler, leurs gestes ou les expressions du visage. Et les études montrent que les analyses automatiques ne peuvent pas pour le moment interpréter ces différences. En France, même si la start-up Easyrecrue n’exploite pas la gestuelle du candidat, elle analyse sa voix. Or, celle-ci varie en fonction de l’état de santé d’une personne.

Au delà du handicap et des maladies, quelqu’un de timide ou de stressé est aussi susceptible d’être discriminé par de tels systèmes. Des recruteurs vous diront que la résistance à la pression est une soft skill essentielle. Mais si pour certains postes (communication, marketing, commerce), il est possible d’admettre ce raisonnement, il ne s’agit pas d’une vérité absolue. Des études démontrent que les recruteurs écartent fréquemment les candidats timides ou anxieux, et que les algorithmes risquent de reproduire cela. Les mêmes études montrent que l’anxiété et la timidité sont sans lien avec la performance, et qu’il est possible de faire très bien son travail malgré cela.
IA-management-2

Nous savons aussi que la communication non verbale et l’expression orale varient selon les origines sociales ou les cultures. Avoir un accent étranger ou des expressions régionales peut être mal perçu par les recruteurs – un critère de discrimination reconnu par le Défenseur des droits depuis 2017.

Mais ce n’est pas l’IA en elle-même qui interroge, ni le fait d’automatiser les recrutements. Un ordinateur ne se fatigue pas et peut se révéler moins subjectif et discriminant. Mais pour cela, il faut remplir quelques conditions qui, si elles ne sont pas réunies, conduisent à une catastrophe.

 

L’IA appliquée aux entretiens vidéo ne risque-t-elle pas aussi de conduire à une certaine uniformisation ?

La qualité du recrutement est aussi en cause. Les algorithmes de tels systèmes se basent sur les profils des candidats “favoris” des recruteurs, et écartent les autres. Le risque, c’est un “clonage”, une reproduction des profils. Les start-up comme Hirevue et Easyrecrue s’en défendent, et disent au contraire qu’elles permettent de diversifier le recrutement en détectant des profils qui n’auraient pas été retenus autrement. Mais par construction, compte tenu de la manière dont sont entraînés les algorithmes (à partir des profils de personnes déjà recrutées, ou d’entretiens qui ont déjà eu lieu), ces logiciels auront forcément tendance à reproduire l’existant.

 

Pour vous, il est urgent de réguler cette exploitation des photos et des vidéos dans le domaine de l’emploi…

Nous avons la chance, en France, d’avoir un droit des discriminations étendu, qui inclut notamment l’apparence physique. Mais ce qui nous manque, c’est sans doute un label, indépendant, des produits proposés par les start-up : une analyse des technologies vendues. Les concepteurs de ces logiciels pourraient jouer le jeu de la transparence en présentant dans le détail les critères et les variables utilisés, mais il semble difficile d’imaginer un tel cas de figure, car les fabricants tiennent à garder le secret sur leurs technologies, face à leurs concurrents. Les pouvoirs publics, notamment le Défenseur des droits, pourraient aussi élaborer de nouvelles règles, rappeler ce qui est permis ou non.

Les entreprises clientes pourraient aussi exiger davantage de transparence de la part des fabricants, et organiser des audits indépendants pour vérifier la légalité de ces systèmes. Il s’agit pour elles d’un devoir légal, mais aussi éthique : elles ne peuvent pas se contenter de recevoir des commerciaux et d’acheter des produits, sans avoir essayé d’en savoir un peu plus. À elles, donc, d’être vigilantes.

 

MAJ – 30/12 – Easyrecrue, citée dans l’étude de JF Amadieu, a tenu à rectifier auprès de nous plusieurs faits :

Mickaël Cabrol a fondé EasyRecrue en 2013 pour proposer des outils d’entretien vidéo permettant d’optimiser la présélection de candidats lors des recrutements. La jeune start-up française permet aux recruteurs de réaliser des entretiens vidéo différés, durant lesquels les candidats sont invités à répondre à un questionnaire. Par la suite, les vidéos reçues sont centralisées sur l’interface du recruteur, ce qui permet à ce dernier de les comparer de manière collaborative avec son équipe, tout en retenant les meilleures candidatures.

Depuis 2017, l’IA a été ajoutée au système. Mais selon Mickaël Cabrol, contrairement à ce qu’affirme Jean-François Amadieu dans son étude (qui selon lui n’aurait pas consulté l’entreprise), Easyrecrue n’analyse pas la gestuelle ou les expressions du visage des candidats en vidéo. Easyrecrue précise ainsi qu’elle “se distingue sur le sujet d’acteurs américains” tels que Hirevue, dans la mesure où seul le discours du candidat est analysé par des algorithmes, et non la vidéo elle-même.

Pourquoi ne pas analyser les vidéos, et se borner à exploiter le son ? “Lors de nos recherches, nous nous sommes rendu compte que cela n’améliorait pas les performances de l’outil, et que cela risquait de poser des problèmes en matière de discrimination physique”, note Mickaël Cabrol. Easyrecrue précise que ses travaux de R&D ont été menés, entre 2017 et 2019, en partenariat avec des Laboratoires publics (CentraleSupelec, Télécom ParisTech et le CNRS), et que c’est dans ce cadre que des interrogations sur la façon de ne pas “amplifier ou reproduire des biais dans le recrutement via l’IA”.

Le logiciel “speech-to-text” d’Easyrecrue se borne donc à analyser le son de l’entretien : la richesse du vocabulaire du candidat, ainsi que la prosodie, c’est-à-dire les variations dans le rythme et l’intensité de la voix, la fluidité du discours et le débit de parole. Mais Jean-François Amadieu, la voix “varie en fonction de l’état de santé d’une personne”, de son état de stress ou de sa personnalité. Comment éviter un tel écueil ? “D’abord, tous les candidats sont dans la même position au départ : ils répondent tous aux mêmes questions et peuvent réaliser leur entretien quand ils le souhaitent, de façon différée. Ils sont donc dans les meilleures conditions pour le réaliser”, explique Mickaël Cabrol.

 

IA-Cadres

“L’IA est peut être une chance pour certains candidats”

Concernant la prosodie, “nous essayons d’analyser surtout si le candidat est confiant dans la manière dont il exprime son sujet, ou s’il hésite beaucoup et se répète. Les candidats qui sont les mieux évalués par les recruteurs sont en général ceux qui utilisent une plus grande diversité lexicale (un vocabulaire plus vaste signifie une meilleure maîtrise du sujet abordé), et dont le discours est fluide”, indique le fondateur d’Easyrecrue. D’après lui, “un candidat qui va répéter souvent les mêmes mots, et dont le discours sera entrecoupé de mots parasites, maîtrise moins son sujet, selon les recherches en la matière : c’est pourquoi nous essayons d’interpréter ce genre de signaux pour les recruteurs”.

En outre, Mickaël Cabrol précise que ses algorithmes ne “font pas le choix pour le recruteur”, et n’éliminent pas de candidats, mais les “classent” simplement selon leur diversité lexicale et la fluidité de leur discours. Selon lui, plutôt que de “cloner” les candidats sélectionner, ce type de système permettrait au contraire de diversifier les profils : “il arrive fréquemment que des candidats dont la diversité lexicale est faible se distinguent des autres de par la qualité de leur discours, et inversement. Ainsi, même celui qui a des difficultés d’élocution peut compenser son handicap grâce à sa maîtrise du sujet et aux mots qu’il utilise”.

Certains critères dits “adversariaux” ont également été intégrés à l’outils, “pour s’assurer que certains critères potentiellement discriminants dans le cadre d’un recrutement ne puissent être pris en compte”, précise Easyrecrue. Ainsi, “notre algorithme ne prend pas en compte certains critères, tels le genre du candidat ou sa séniorité”, précise Mickaël Cabrol.

Selon lui, “notre outil permet au contraire de débiaiser les processus de recrutement. Quand on interroge nos clients, tous nous disent qu’ils ont pu identifier des profils qu’ils n’auraient pas repéré sur la base d’un CV ou qu’ils n’auraient pas reçus en temps normal. L’IA est peut être une chance pour certains candidats n’ayant pas un profil idéal à la base.”

 

 

Ajouter un commentaire

Votre adresse IP ne sera pas collectée Vous pouvez renseigner votre prénom ou votre pseudo si vous êtes un humain. (Votre commentaire sera soumis à une modération)