Actualité Professionnelle

Recrutement : les algorithmes dans le viseur des régulateurs US

Recrutement : les algorithmes dans le viseur des régulateurs US A l’heure où ces solutions gagnent en popularité, les Américains votent des lois pour encadrer leur usage, et notamment limiter les risques de discrimination pointés par certains.

Si les solutions proposant de recourir à l’intelligence artificielle pour faciliter le recrutement se multiplient depuis plusieurs années, le coronavirus a largement favorisé leur adoption. L’entreprise HireVue, qui propose un logiciel analysant les vidéos d’entretiens à l’aide de l’IA pour sélectionner les meilleurs candidats, rapporte que le nombre d’entretiens en direct analysés par ses soins a augmenté de 80% l’an passé par rapport à 2019. Dès mars 2020, 89% des employeurs américains ont commencé à réaliser des entretiens en ligne, formule qui se prête plus facilement à l’usage de solutions du type HireVue.

A New York, un projet de loi prévoit d’obliger les entreprises utilisant des algorithmes de recommandation à en informer les candidats

Les entreprises qui mettent en place des outils mobilisant l’intelligence artificielle au service du recrutement promettent un processus non seulement plus efficace, mais aussi plus juste, la neutralité des algorithmes étant censée permettre de s’affranchir des biais humains. D’autres voix affirment au contraire que ces algorithmes risquent de perpétuer, voire d’amplifier les discriminations existantes. Face à cette controverse, l’idée d’instaurer des régulations visant à s’assurer de leur transparence et de leur effet bénéfique fait son chemin outre-Atlantique.

New York s’en prend aux algorithmes de recrutement

La dernière entité à avoir agi dans ce sens est la ville de New York. Une loi actuellement en cours de préparation prévoit ainsi d’obliger les entreprises utilisant des algorithmes de recommandation durant leur processus de recrutement à en informer les candidats. Celles qui conçoivent et commercialisent ces algorithmes devront pour leur part se soumettre à un audit annuel visant à prouver qu’ils n’entraînent pas de discriminations.

Le projet de texte prévoit de soumettre les entreprises qui conçoivent et commercialisent ces algorithmes à un audit annuel visant à prouver qu’ils n’entraînent pas de discriminations

Pas encore votée, la loi suscite d’âpres débats, certains partisans d’une régulation stricte de ces algorithmes trouvant notamment qu’elle ne va pas assez loin. Une douzaine d’organisations, dont le Surveillance Technology Oversight Project (qui défend la vie privée face aux nouvelles technologies), la National Association for the Advancement of Colored People (défense des droits civiques) et l’AI Now Institute (institut de recherche de l’université de New York qui étudie l’impact de l’intelligence artificielle sur la société), ont ainsi cosigné une lettre critiquant ce projet de loi.

Ces associations jugent notamment qu’il n’est pas suffisamment précis quant à la nature de l’audit auquel devraient se soumettre les concepteurs d’algorithmes. Ce manque de précision ouvre selon eux la voie à des audits souples qui permettraient aux entreprises de donner un verdict de respectabilité à des algorithmes en réalité discriminants.

Tout en partageant ces inquiétudes, Julia Stoyanovich, directrice du Center for Responsible AI de l’Université de New York, trouve que la loi a le mérite de susciter le débat autour de ces problématiques. “Cela va permettre d’informer le public du fait qu’on est aujourd’hui évalués en partie par des machines et en partie par des humains”, affirme-t-elle. Nombre de personnes ignorent totalement, selon elle, l’existence de ces algorithmes et l’impact qu’ils peuvent avoir sur leur carrière. HiredScore et Pymetrics, deux jeunes pousses de New York qui proposent des solutions pour automatiser le recrutement, soutiennent également la mesure.

Vers des actions à l’échelon fédéral sous Joe Biden ?

L’initiative de New York n’est que la dernière en date, et plusieurs avancées législatives ont déjà été mises en place outre-Atlantique. Depuis le 1er janvier 2019, l’Artificial Intelligence Video Interview Act est entré en vigueur dans l’Etat de l’Illinois. Les entreprises de l’Etat qui enregistrent les vidéos d’entretien et utilisent des algorithmes d’IA pour les analyser doivent désormais avertir les postulants de la procédure, leur expliquer comment l’intelligence artificielle fonctionne, ses critères d’évaluation, et obtenir leur consentement. La vidéo ne peut être partagée qu’aux personnes chargées d’évaluer le candidat, et la loi donne également aux individus interviewés la possibilité de demander la suppression de la vidéo. Suite à quoi les entreprises ont 30 jours maximum pour s’exécuter. Une loi similaire votée dans le Maryland encadre également l’usage des technologies de reconnaissance faciale pour le recrutement.

En décembre 2020, dix sénateurs ont demandé une enquête sur les discriminations entraînées par l’usage de l’intelligence artificielle au service du recrutement

A l’échelon fédéral, aucune initiative n’a encore été prise en la matière. L’Algorithmic Accountability Act, proposé en avril 2019, était un projet de loi visant à réguler l’usage des algorithmes par les entreprises privées. Il n’a finalement pas été adopté, mais montre que le pouvoir législatif américain suit ce domaine de très près. Le titre 7 du Civil Rights Act of 1964 rend pour sa part illégale toute discrimination à l’embauche, et certains souhaitent aujourd’hui s’appuyer dessus pour réguler les algorithmes de recrutement.

En décembre 2020, dix sénateurs américains ont ainsi écrit à Janet Dhillon, présidente de l’Equal Employment Opportunity Commission, chargée de contrôler l’application de la loi de 1964, pour lui demander d’enquêter sur les discriminations entraînées par l’usage de l’intelligence artificielle au service du recrutement. Les entreprises fabriquant et utilisant cette technologie peuvent donc s’attendre à davantage d’attention de la part des autorités sous l’administration Biden.

A noter que ces différentes initiatives politiques ne rejettent pas en bloc l’usage de l’intelligence artificielle dans le recrutement. Les dix sénateurs susnommés reconnaissent ainsi que “les technologies de recrutement peuvent parfois limiter l’impact des biais des recruteurs”, mais affirment également qu’il subsiste de nombreuses inconnues, et qu’il est capital que ces technologies “rendent le recrutement plus égalitaire, plutôt que d’ériger des barrières artificielles et discriminatoires à l’emploi”.

En Europe, le RGPD pose certaines obligations

Dans l’Union européenne, la question commence également à éveiller l’attention des régulateurs. Un livre blanc paru l’an passé, consacré à l’éthique de l’intelligence artificielle, contient ainsi des propositions qui, parmi d’autres technologies, concerneraient les algorithmes de recrutement. Certaines suggèrent notamment l’établissement de standards pour l’IA, comme la nécessité d’utiliser des jeux de données représentatifs, d’autres des impératifs de transparence des algorithmes et un possible audit des modèles par les autorités.

Les entreprises européennes qui recourent à ce type de solutions doivent également s’assurer que le concepteur de l’algorithme respecte certaines règles

En vertu du RGPD, les entreprises européennes qui recourent à ce type de solutions doivent également s’assurer que le concepteur de l’algorithme respecte certaines règles. Par exemple, si la technologie recourt à l’apprentissage machine, l’entreprise qui l’utilise doit se renseigner sur “le degré d’équilibre des bases de données”. L’objectif : éviter que certaines catégories de personnes soient sous-représentées, ce qui pourrait conduire l’algorithme à discriminer envers elles. Dans le cas d’un tri de candidatures par un algorithme, le client doit obtenir du fournisseur qu’il explique “en termes généraux” les méthodes utilisées pour évaluer les candidats.

En Europe comme aux Etats-Unis, un certain flou juridique plane toutefois sur ces solutions de pointe. Qui est juridiquement responsable quand un algorithme est coupable de discrimination ? Comment se partage la responsabilité entre l’entreprise qui l’a conçu et celle qui l’a utilisé ? Tout comme pour les voitures autonomes, en l’absence de régulations plus précises, de véritables casse-têtes juridiques s’annoncent à l’horizon.

Leave a Reply

Your email address will not be published. Required fields are marked *

S’abonner à La Newsletter