mardi, novembre 19, 2024

L’IA pourrait transformer les politiques DEI pour le meilleur – ou les aggraver

Les experts affirment que les entreprises doivent agir avec prudence lorsqu’elles utilisent l’IA pour améliorer la diversité, l’équité et l’inclusion.

Contenu de l’article

Dans la quête d’un lieu de travail diversifié, équitable et inclusif, certaines entreprises se tournent vers l’intelligence artificielle pour se sauver.

L’IA pourrait être l’objectif dont les dirigeants d’entreprises de recrutement axés sur les données rêvent depuis longtemps : être capable de voir uniquement les compétences et les qualifications d’un candidat potentiel sans juger en fonction de la race, du sexe, de l’accent ou de l’apparence, et d’élaborer des descriptions de poste exemptes de langage biaisé.

Publicité 2

Contenu de l’article

Contenu de l’article

L’IA pourrait rendre un lieu de travail plus accessible aux personnes handicapées, par exemple grâce aux systèmes de reconnaissance vocale, et pourrait mettre en évidence des schémas négatifs ayant un impact sur certains groupes, conduisant à des évaluations de performance et à des promotions plus équitables.

Mais cela pourrait aussi avoir l’effet inverse, c’est pourquoi de nombreux experts avertissent les entreprises de procéder avec prudence lorsqu’elles utilisent l’IA.

« Les avantages n’existent que lorsque l’IA est conçue de manière efficace et c’est une très grande mise en garde », a déclaré Thomas Sasso, professeur adjoint à la Gordon S. Lang School of Business and Economics de l’Université de Guelph.

Des cas où l’IA perpétue les préjugés, au lieu de les éliminer, sont apparus en raison des limites de la manière dont la technologie est programmée. Selon le rapport 2024 sur l’IA de Telus Corp., un Canadien sur cinq a personnellement été victime de discrimination liée à la technologie de l’IA, notamment de fausses déclarations, des stéréotypes et un accès réduit aux ressources et aux opportunités. Les gens craignent qu’elle puisse nuire, et parmi ceux qui s’identifient comme LGBTQ+, 61 % craignent que l’IA puisse être utilisée contre des individus ou des communautés.

Contenu de l’article

Publicité 3

Contenu de l’article

Les responsables du recrutement doivent être prudents lorsqu’ils utilisent l’IA pour pourvoir des postes. Bien que la technologie ait dépassé les gaffes telles que la suggestion de candidats uniquement masculins, les programmes sont toujours formés sur des données historiques et peuvent refléter une époque où le recrutement sur le lieu de travail était moins diversifié. « Un utilisateur de cette technologie pourrait penser que vous identifiez le meilleur candidat, mais il s’agit plutôt d’identifier les candidats généralement retenus pour les organisations », a déclaré Sasso.

Ce qui est encore plus inquiétant, selon Sasso, c’est que les organisations s’exposent à des risques juridiques si les managers ne peuvent pas expliquer pourquoi ils ont embauché quelqu’un. « Nous parlons souvent des systèmes d’IA comme d’une boîte noire et nous ne savons donc pas comment les décisions sont prises ni quelles informations y sont contenues », a-t-il déclaré. « Si vous ne pouvez pas justifier une décision, si vous comptez sur cette technologie, vous vous exposez désormais à un cas potentiel important de violation des droits de l’homme. »

Pourtant, de nombreuses entreprises utilisent l’IA dans le cadre de leurs stratégies DEI. Par exemple, la plateforme d’IA Diversio Inc. promet de prendre le « pouls » DEI d’une entreprise et de fournir les outils nécessaires pour créer un « lieu de travail plus inclusif et engagé ». Un tel logiciel est attrayant pour les entreprises, car il a la capacité d’analyser et d’analyser de vastes pans de données rapidement et efficacement.

Publicité 4

Contenu de l’article

Certains dirigeants peuvent penser que l’IA est un bon remplacement pour les employés dédiés à la DEI. Mais Sasso a déclaré qu’un robot IA ne pourra jamais remplacer les compétences innées d’un humain. « Il sera capable d’identifier certains problèmes si ces problèmes ressemblent à ceux du passé, mais être capable d’identifier de nouveaux problèmes ou de nouvelles façons dont ces préjugés émergent sera très compliqué pour ces systèmes », a-t-il déclaré. Par exemple, il a déclaré que les problèmes LGTBQ+ restent un angle mort pour de nombreuses entreprises que l’IA n’a pas la capacité de résoudre.

Un élément clé de toute stratégie DEI, ajoute-t-il, consiste à créer un moyen permettant aux gens d’apprendre de leurs erreurs. « Une grande partie du DEI repose sur la connexion humaine et l’établissement de la confiance. Il est vraiment difficile de ressentir cette confiance lorsqu’on parle à un algorithme », a déclaré Sasso. «Nous savons que parler à un manager, parler à un humain, peut parfois être problématique ou difficile, mais cela peut aussi être un espace de guérison grâce à cette conversation.»

Les personnes chargées de coder les programmes d’IA tentent depuis des années de corriger les biais en diversifiant légèrement les équipes de codage, en mettant à jour les ensembles de données sur lesquels les algorithmes sont formés ou en codant délibérément des mesures de protection dans la technologie. Mais dans leurs efforts pour y parvenir, certains ont surcorrigé. Par exemple, Gemini, le chatbot génératif d’IA de Google d’Alphabet Inc., a récemment été critiqué pour avoir créé des images historiquement inexactes, telles que des Vikings noirs et une femme pape.

Publicité 5

Contenu de l’article

La leçon à retenir pour les chefs d’entreprise qui souhaitent utiliser l’IA à quelque titre que ce soit – que ce soit pour créer une présentation, recruter ou favoriser la DEI – est qu’ils doivent comprendre ce qu’ils achètent. « Si les entreprises achètent quelque chose dans le commerce, elles n’ont aucune idée (dans quoi elles s’embarquent). Cela dépend de ce que le développeur ou le fournisseur leur dit », explique Eddy Ng, professeur Smith d’équité et d’inclusion dans les entreprises à l’Université Queen’s. « Nous ne pouvons pas compter sur Google. »

Cela ne veut pas dire qu’il n’y a pas de place pour l’IA sur le lieu de travail. Sasso et Ng se décrivent tous deux comme des adeptes prudents de la technologie. En effet, Ng a déclaré que l’utilisation de l’IA est cruciale pour que les futurs ensembles de données puissent mieux refléter la diversité actuelle du lieu de travail. « Si vous n’êtes pas inclus dans cet ensemble de données, alors au fur et à mesure qu’ils se développeront, lorsqu’ils trouveront des solutions, vos besoins seront exclus », a-t-il déclaré. « Nous devons adopter l’IA pour que nos données soient incluses, mais en même temps nous devons être attentifs. »

Sasso a déclaré que les entreprises peuvent utiliser un processus en trois étapes pour se prémunir contre les biais inhérents à l’IA. Tout d’abord, les dirigeants d’entreprise doivent se demander pourquoi et dans quelle mesure ils souhaitent utiliser l’IA, puis reconnaître ses limites. Pour ce faire, ils auront besoin de personnes hautement qualifiées, capables de comprendre quelles informations l’IA collecte et comment elles seront utilisées.

Publicité 6

Contenu de l’article

Ensuite, au lieu de se précipiter dans un déploiement à l’échelle de l’entreprise, les entreprises devraient tester la technologie dans des situations à faible risque pendant quelques mois. Cela permet à une entreprise d’évaluer si les résultats correspondent à ses valeurs et à ses pratiques et de déterminer si cela contribue à la productivité de l’entreprise ou améliore l’expérience des clients et des employés, a-t-il déclaré.

Recommandé par l’éditorial

Enfin, les entreprises doivent systématiquement évaluer si l’IA fonctionne toujours à leur avantage.

« Grâce à ce processus, vous pouvez avoir une manière plus éthique, contrôlée et responsable d’utiliser l’IA dans les pratiques organisationnelles », a déclaré Sasso.

Contenu de l’article

Source link-30

- Advertisement -

Latest