Howard Levitt : Vos employés travaillent-ils vraiment ou délèguent-ils à ChatGPT ?

L’IA présente des risques pour les employeurs

Contenu de l’article

Partout au Canada, les entreprises se précipitent pour intégrer l’intelligence artificielle dans leurs flux de travail. Mais quels risques l’IA pose-t-elle aux employeurs et que doivent-ils faire pour se protéger ?

Publicité 2

Contenu de l’article

1. Perte d’informations confidentielles

Contenu de l’article

Si les employés insèrent des informations sur l’entreprise dans le macrosystème d’IA, comme ChatGPT et ses équivalents, ou toute IA qui peut être récupérée ou est déjà utilisée par d’autres, ils enfreignent implicitement leurs obligations de confidentialité et l’employeur perd potentiellement sa propriété intellectuelle et d’autres informations confidentielles, précédemment protégées. Il pourrait même perdre sa protection légale par brevet en raison de cette divulgation par inadvertance.

Comme vous pouvez l’imaginer, les concurrents intelligents recherchent exactement ce genre de mésaventure et saisiront et utiliseront rapidement ce que vous fournissez gratuitement.

Alors que l’IA alimente la paie, les informations sur les clients, la tenue de registres d’entreprise et plus encore, il y aura des trésors d’informations en proie au pillage.

Contenu de l’article

Publicité 3

Contenu de l’article

Alors que les chatbots sont merveilleux pour rationaliser les transactions RH de routine, ils sont des cibles faciles pour les pirates. Le partage de données personnelles ou d’entreprise sensibles vous expose aux cyberattaques et au vol d’identité.

L’IA augmente également la vitesse de ce qui est accompli, mais peut dépasser la capacité d’un humain à suivre. L’exploitation des systèmes d’IA par le biais d’attaques de phishing automatisées qui peuvent propager rapidement des virus peut être difficile à découvrir.

Assurez-vous que vos employés comprennent ces risques et savent comment mettre en œuvre votre IA afin de les minimiser, voire de les éviter.

De plus, une sécurité informatique stricte, des politiques rigoureuses quant aux informations pouvant être fournies et la discipline et la décharge pour quiconque transgresse seront et doivent devenir de rigueur. Cela est de plus en plus intégré dans les contrats des employés et les politiques que nous élaborons.

Publicité 4

Contenu de l’article

2. Utilisation non autorisée par les employés

De nombreux employés seront remplacés par l’IA. Mais d’autres employés l’utilisent pour leur travail – et devraient le faire. Mais leurs managers savent-ils dans quelle mesure ?

L’IA a le potentiel de permettre aux employés de quitter essentiellement leurs fonctions en utilisant l’IA à un point tel qu’ils passent peu de temps à faire leur travail. À moins que leurs responsables ne connaissent eux-mêmes parfaitement les programmes, ils ne le sauraient jamais, en particulier avec les employés travaillant à distance.

La résolution de ce risque nécessite des discussions franches avec les employés sur leur utilisation de l’IA, la documentation de ces conversations et la présence de personnes bien informées pour vérifier ce qu’elles ont dit. Le vol de temps, après tout, est une faute grave, il est donc essentiel que les employés soient honnêtes dans leurs déclarations quant au temps qu’ils passent réellement à travailler maintenant que AI fait une grande partie de leurs anciens emplois. Mentir au cours d’une enquête est considéré par le tribunal comme une faute particulièrement grave. Il en serait de même pour mentir sur le travail que les employés effectuent réellement.

Publicité 5

Contenu de l’article

3. Informations inexactes

Il y a déjà eu des cas d’avocats américains sanctionnés pour avoir cité des cas fictifs devant les tribunaux qui leur ont été fournis par des outils de recherche d’IA. Il est tentant pour beaucoup de surutiliser l’IA sans pouvoir garantir l’exactitude de son travail. Inutile de dire que si un client a l’idée que le produit du travail effectué était en grande partie une création d’IA, cette entreprise n’obtiendra probablement pas d’autres missions, ni même ne recevra le montant du projet. Après tout, les clients paient pour un travail original qu’ils ne peuvent pas effectuer eux-mêmes.

En interne également, les employeurs doivent contrôler la quantité d’IA utilisée, par qui et quels contrôles sont en place pour garantir son exactitude et sa compatibilité avec les autres propriétés intellectuelles créées.

Publicité 6

Contenu de l’article

4. Biais dans les algorithmes

Les algorithmes créés sur la base de décisions prises précédemment par des organisations peuvent imiter des préjugés humains, par exemple, des pratiques d’embauche et de licenciement discriminatoires antérieures. Étant donné que les algorithmes d’IA sont construits par des humains, ils peuvent avoir un biais intégré de la part de ceux qui les introduisent intentionnellement ou par inadvertance dans l’algorithme.

5. Risque de diffamation

Si de fausses informations mettant en cause le caractère d’autrui sont créées dans l’IA et que ces informations sont distribuées à quiconque, cela peut donner lieu à un cas de diffamation. De même, si de fausses informations sont utilisées dans votre marketing, vous pourriez être tenu responsable en vertu de la législation sur la protection des consommateurs en tant que trompeur pour les consommateurs.

6. Questions réglementaires

L’utilisation de l’IA peut être soumise à des exigences réglementaires en fonction de votre secteur d’activité. Il est important de comprendre l’environnement juridique entourant l’utilisation de la technologie pour assurer la conformité. Cela nécessite une surveillance et une supervision de vos employés.

Howard Levitt est associé principal de Cheikh Levitt, avocats spécialisés en droit du travail et de l’emploi avec des bureaux à Toronto et à Hamilton. Il pratique le droit du travail dans huit provinces. Il est l’auteur de six livres, dont le droit du congédiement au Canada.

Contenu de l’article

commentaires

Postmedia s’engage à maintenir un forum de discussion animé mais civil et encourage tous les lecteurs à partager leurs points de vue sur nos articles. Les commentaires peuvent prendre jusqu’à une heure pour être modérés avant d’apparaître sur le site. Nous vous demandons de garder vos commentaires pertinents et respectueux. Nous avons activé les notifications par e-mail. Vous recevrez désormais un e-mail si vous recevez une réponse à votre commentaire, s’il y a une mise à jour d’un fil de commentaires que vous suivez ou si un utilisateur vous suivez des commentaires. Consultez nos directives communautaires pour plus d’informations et de détails sur la façon d’ajuster vos paramètres de messagerie.

Rejoindre la conversation

Source link-30