Howard Levitt : Garder l’humain dans les ressources humaines alors que l’IA s’impose

Nous sommes loin de pouvoir nous fier uniquement à l’intelligence artificielle pour prendre des décisions qui nécessitent une discrétion individuelle.

Contenu de l’article

Par Howard Levitt et Jeff Buchan

À mesure que la technologie de l’intelligence artificielle continue de se développer à un rythme accéléré, son utilisation par les employeurs continuera également. Après tout, l’attrait des économies de coûts, de l’efficacité accrue et du fait d’être à la pointe pousse de nombreuses personnes à chercher de nouvelles façons de les exploiter.

Contenu de l’article

Mais lorsqu’il s’agit d’appliquer l’IA aux ressources humaines, les employeurs doivent être conscients des risques.

Publicité 2

Contenu de l’article

De nombreux modèles d’IA utilisés dans les RH fonctionnent grâce à l’utilisation d’algorithmes d’apprentissage automatique qui, en termes simples, sont « entraînés » en fonction de la saisie des informations fournies par leur utilisateur. Si un employeur fournit à son modèle d’IA un échantillon d’informations biaisé ou de petite taille, ou ne lui fournit que des données historiques sur l’entreprise, cela crée, entre autres choses, un risque de discrimination illégale dans les processus d’embauche et de licenciement.

À titre d’exemple, si le modèle d’IA est formé à l’aide des données historiques de l’entreprise et que cette entreprise a une main-d’œuvre à prédominance masculine, le modèle d’IA peut commencer à considérer plus favorablement les candidats masculins.

Ces problèmes s’appliquent également lors de l’utilisation de l’IA pour déterminer qui licencier.

En Ontario, s’il peut être établi que si une partie (c’est-à-dire ne serait-ce qu’un pour cent) de la décision d’un employeur de congédier un employé était fondée sur un motif protégé en vertu du Code des droits de la personne (par exemple, le sexe), cet employé aura motifs pour déposer une plainte pour discrimination.

Vous pouvez imaginer le degré de discrimination qui pourrait survenir si le modèle d’IA d’un employeur commençait à prendre en compte dans les processus décisionnels des caractéristiques qui sont par ailleurs protégées par les lois sur les droits de la personne ou les normes d’emploi.

Contenu de l’article

Publicité 3

Contenu de l’article

Face à une telle plainte pour discrimination, un employeur aura du mal à convaincre qui que ce soit, et encore moins un juge ou un arbitre, qu’il ne devrait pas être responsable parce que c’était « la faute d’AI » et que cela n’était pas délibéré – même si cela s’avérait vrai, cela il n’y aura pas de défense.

Un cas très récent impliquant Air Canada et son chatbot IA en ligne qui a fourni de fausses informations à un client nous rappelle brutalement que les employeurs doivent être prudents lorsqu’ils dépendent trop de l’IA.

Air Canada a tenté de suggérer au Tribunal de résolution civile de la Colombie-Britannique que le chatbot trouvé sur son site Web était une entité juridique distincte et responsable de ses propres actions et des informations qu’il fournissait aux clients — ce qui a eu pour effet qu’Air Canada ne peut être tenue responsable des fausses informations. informations fournies au client. Sans surprise, le tribunal n’a pas été d’accord et Air Canada a été tenue responsable des actes de son chatbot.

Même si l’affaire Air Canada n’impliquait pas de discrimination, elle démontrait la propension des arbitres à tenir les employeurs responsables des actions de leurs technologies d’IA, ce que les employeurs ne devraient pas prendre à la légère compte tenu de l’expansion rapide des applications de l’IA en milieu de travail.

Publicité 4

Contenu de l’article

Outre l’application de l’IA dans les processus d’embauche et de licenciement, elle est également de plus en plus utilisée pour surveiller la productivité des employés, en particulier dans les bureaux et ceux qui travaillent à domicile. Il peut être utilisé pour tout suivre, du nombre de frappes au clavier jusqu’aux mouvements oculaires d’un employé, pour s’assurer qu’il regarde bien son écran.

À leur tour, ces informations peuvent ensuite être utilisées pour prendre des décisions concernant les promotions et les augmentations de salaire. Une conséquence inévitable est que les employés ont le sentiment qu’on ne leur fait pas confiance pour accomplir leurs tâches sans une surveillance constante et/ou que leur situation particulière n’est pas prise en compte lors de l’évaluation de leur productivité. Ils auraient généralement tort.

Il est donc important pour les employeurs de trouver un équilibre entre la mise en œuvre de l’IA tout en préservant l’aspect humain des ressources humaines. Ceux qui cherchent à mettre en œuvre ou à étendre leur utilisation des technologies d’IA sur leur lieu de travail devraient prendre en compte les éléments suivants :

  • Établir une politique en matière d’IA qui décrit les manières dont l’IA est utilisée et mettre cette politique à la disposition des candidats à un emploi et des employés dans un souci de transparence.
  • Auditez régulièrement vos outils d’IA pour vous assurer que des préjugés involontaires ne sont pas créés ou perpétués dans les processus liés aux RH.
  • Dans la mesure du possible, assurez-vous que les modèles d’IA sont formés sur des données représentatives, diverses et impartiales.
  • Et veillez à ne pas trop dépendre de l’IA, car les employeurs seront responsables des actions du logiciel utilisé.

Publicité 5

Contenu de l’article

Recommandé par l’éditorial

Compte tenu des complexités liées à la gestion des personnes, nous sommes loin de pouvoir nous fier uniquement à l’IA sur le lieu de travail pour prendre des décisions qui nécessitent une discrétion individuelle et la prise en compte de caractéristiques qui échappent à ce dont l’IA est capable aujourd’hui.

Howard Levitt est associé principal de Levitt Cheikh, avocats spécialisés en droit du travail et en droit du travail ayant des bureaux à Toronto et à Hamilton. Il pratique le droit du travail dans huit provinces. Il est l’auteur de six livres, dont Law of Dismissal in Canada. Jeff Buchan est avocat chez Levitt Sheikh.

Ajoutez notre site Web à vos favoris et soutenez notre journalisme : Ne manquez pas l’actualité économique que vous devez connaître : ajoutez Financialpost.com à vos favoris et inscrivez-vous à nos newsletters ici.

Contenu de l’article

Source link-30