vendredi, novembre 8, 2024

Plan stratégique critique en matière d’IA pour 2024 : Libérer le potentiel et se prémunir contre les risques sur le lieu de travail

Beaucoup ont décrit 2023 est l’année de l’IA, et le terme a figuré sur plusieurs listes de « mots de l’année ». Même si elle a eu un impact positif sur la productivité et l’efficacité sur le lieu de travail, l’IA présente également un certain nombre de risques émergents pour les entreprises.

Par exemple, une récente enquête Harris Poll commandée par AuditBoard a révélé qu’environ la moitié des Américains employés (51 %) utilisent actuellement des outils basés sur l’IA pour leur travail, sans aucun doute pilotés par ChatGPT et d’autres solutions d’IA générative. Dans le même temps, cependant, près de la moitié (48 %) ont déclaré saisir les données de l’entreprise dans des outils d’IA non fournis par leur entreprise pour les aider dans leur travail.

Cette intégration rapide des outils d’IA générative au travail présente des défis éthiques, juridiques, en matière de confidentialité et pratiques, créant un besoin pour les entreprises de mettre en œuvre de nouvelles politiques robustes concernant les outils d’IA générative. À l’heure actuelle, la plupart ne l’ont pas encore fait : une récente enquête Gartner a révélé que plus de la moitié des organisations ne disposent pas d’une politique interne en matière d’IA générative, et le sondage Harris a révélé que seulement 37 % des employés américains ont une politique formelle concernant l’utilisation de l’IA générative. outils basés sur l’IA non fournis par l’entreprise.

Même si cela peut paraître une tâche ardue, l’élaboration dès maintenant d’un ensemble de politiques et de normes peut épargner aux organisations des maux de tête majeurs à l’avenir.

Utilisation et gouvernance de l’IA : risques et défis

L’élaboration dès maintenant d’un ensemble de politiques et de normes peut épargner aux organisations des problèmes majeurs à l’avenir.

L’adoption rapide de l’IA générative a rendu difficile pour les entreprises de suivre le rythme de la gestion des risques et de la gouvernance de l’IA, et il existe un décalage évident entre l’adoption et les politiques formelles. Le sondage Harris mentionné précédemment a révélé que 64 % des personnes interrogées perçoivent l’utilisation des outils d’IA comme sûre, ce qui indique que de nombreux travailleurs et organisations pourraient négliger les risques.

Ces risques et défis peuvent varier, mais trois des plus courants sont les suivants :

  1. Excès de confiance. L’effet Dunning-Kruger est un biais qui se produit lorsque nos propres connaissances ou capacités sont surestimées. Nous avons vu cela se manifester par rapport à l’utilisation de l’IA ; beaucoup surestiment les capacités de l’IA sans comprendre ses limites. Cela pourrait produire des résultats relativement inoffensifs, comme fournir une sortie incomplète ou inexacte, mais cela pourrait également conduire à des situations beaucoup plus graves, comme une sortie violant les restrictions légales d’utilisation ou créant un risque de propriété intellectuelle.
  2. Sécurité et confidentialité. L’IA a besoin d’accéder à de grandes quantités de données pour être pleinement efficace, mais cela inclut parfois des données personnelles ou d’autres informations sensibles. L’utilisation d’outils d’IA non approuvés comporte des risques inhérents. Les organisations doivent donc s’assurer qu’elles utilisent des outils qui répondent à leurs normes de sécurité des données.

Source-146

- Advertisement -

Latest