Les outils d’intelligence artificielle pour le processus d’embauche sont devenus une catégorie brûlante, mais le ministère de la Justice prévient qu’une utilisation négligente de ces processus pourrait entraîner des violations des lois américaines protégeant l’égalité d’accès pour les personnes handicapées. Si votre entreprise utilise le tri algorithmique, le suivi facial ou d’autres méthodes de haute technologie pour trier et évaluer les candidats, vous voudrez peut-être examiner de plus près ce qu’ils font.
La Commission pour l’égalité des chances en matière d’emploi du département, qui surveille et conseille sur les tendances et les actions du secteur concernant les questions éponymes, a publié des conseils sur la manière dont l’entreprise peut utiliser en toute sécurité des outils basés sur des algorithmes sans risquer l’exclusion systématique des personnes handicapées.
« Les nouvelles technologies ne doivent pas devenir de nouveaux moyens de discriminer. Si les employeurs sont conscients de la manière dont l’IA et d’autres technologies peuvent discriminer les personnes handicapées, ils peuvent prendre des mesures pour l’empêcher », a déclaré la présidente de l’EEOC, Charlotte A. Burrows, dans le communiqué de presse annonçant les orientations.
Le sens général des conseils est de réfléchir sérieusement (et de solliciter les opinions des groupes concernés) pour savoir si ces filtres, tests, mesures, etc. mesurent des qualités ou des quantités pertinentes pour faire le travail. Ils proposent quelques exemples :
- Un candidat ayant une déficience visuelle doit réussir un test ou une tâche avec une composante visuelle pour se qualifier pour une entrevue, comme un jeu. À moins que le travail n’ait une composante visuelle, cela exclut injustement les candidats aveugles.
- Un filtreur de chatbot pose des questions qui ont été mal formulées ou mal conçues, comme si une personne peut rester debout pendant plusieurs heures d’affilée, les réponses « non » disqualifiant le candidat. Une personne en fauteuil roulant pourrait certainement faire de nombreux travaux que certains peuvent assumer, simplement en position assise.
- Un service d’analyse de CV basé sur l’IA déclasse une candidature en raison d’un écart d’emploi, mais cet écart peut être dû à des raisons liées à un handicap ou à une condition pour laquelle il est inapproprié de pénaliser.
- Un filtre vocal automatisé demande aux candidats de répondre vocalement aux questions ou aux problèmes de test. Naturellement, cela exclut les sourds et les malentendants, ainsi que toute personne souffrant de troubles de la parole. À moins que le travail n’implique beaucoup de discours, c’est inapproprié.
- Un algorithme de reconnaissance faciale évalue les émotions d’une personne lors d’une interview vidéo. Mais la personne est neurodivergente, ou souffre de paralysie faciale suite à un accident vasculaire cérébral ; leurs scores seront des valeurs aberrantes.
Cela ne veut pas dire qu’aucun de ces outils ou méthodes n’est mauvais ou fondamentalement discriminatoire d’une manière qui viole la loi. Mais les entreprises qui les utilisent doivent reconnaître leurs limites et proposer des aménagements raisonnables au cas où un algorithme, un modèle d’apprentissage automatique ou un autre processus automatisé serait inapproprié pour un candidat donné.
Avoir des alternatives accessibles en fait partie, mais aussi être transparent sur le processus d’embauche et déclarer à l’avance quelles compétences seront testées et comment. Les personnes handicapées sont les meilleurs juges de leurs besoins et des aménagements à demander, le cas échéant.
Si une entreprise ne fournit pas ou ne peut pas fournir d’aménagements raisonnables pour ces processus – et oui, cela inclut les processus construits et exploités par des tiers – elle peut être poursuivie ou autrement tenue responsable de cet échec.
Comme d’habitude, plus tôt ce genre de chose est pris en considération, mieux c’est; Si votre entreprise n’a pas consulté un expert en accessibilité sur des questions telles que le recrutement, l’accès aux sites Web et aux applications, ainsi que les outils et politiques internes, n’hésitez pas à le faire.
En attendant, vous pouvez lire les directives complètes du DOJ ici, avec une brève version destinée aux travailleurs qui estiment qu’ils peuvent être victimes de discrimination ici, et pour une raison quelconque, il existe une autre version tronquée des directives ici.