vendredi, décembre 27, 2024

N’utilisez pas ChatGPT pour décider des politiques, dit le gouvernement aux fonctionnaires fédéraux

Les lignes directrices mettent également en garde contre la saisie d’informations sensibles dans les systèmes d’IA

Contenu de l’article

OTTAWA — Les employés du gouvernement ne devraient pas s’appuyer sur des outils comme ChatGPT au détriment de leur propre pensée critique, ni utiliser l’intelligence artificielle générative pour élaborer les politiques gouvernementales, selon de nouvelles lignes directrices.

Les bureaucrates doivent également s’assurer qu’ils ne connectent pas « d’informations protégées, classifiées ou autres informations sensibles » aux outils d’IA, et veiller à ce que les Canadiens sachent quand ils interagissent avec l’intelligence artificielle au lieu d’une vraie personne qui travaille pour le gouvernement.

Publicité 2

Contenu de l’article

Contenu de l’article

Le guide, publié le 6 septembre, fournit des conseils préliminaires sur la manière dont les institutions fédérales peuvent utiliser des outils d’IA générative, qui peuvent générer du texte écrit, des photos, des vidéos ou du code. Depuis l’émergence de ChatGPT il y a moins d’un an, des personnes de divers secteurs utilisent la technologie sur leur lieu de travail pour rédiger des e-mails, créer du code informatique, effectuer des recherches et contribuer à la rédaction de rapports, entre autres utilisations.

Le guide du gouvernement indique que les institutions fédérales devraient explorer la façon dont elles « pourraient utiliser les outils d’IA générative pour soutenir leurs opérations et améliorer les résultats pour les Canadiens », soulignant qu’étant donné l’adoption croissante de ces technologies, « leur utilisation au sein du gouvernement aidera à suivre le rythme de l’évolution de la situation. paysage numérique.

Les lignes directrices ordonnent aux fonctionnaires de ne pas saisir d’informations sensibles ou personnelles dans des outils qui ne sont pas gérés par le gouvernement, et de ne pas soumettre de requêtes à des systèmes non gouvernementaux qui « pourraient miner la confiance du public si elles étaient divulguées ».

Publicité 3

Contenu de l’article

Les lignes directrices mettent également en garde contre le fait de laisser les outils d’IA faire le travail au détriment de la pensée critique d’un individu. « Une dépendance excessive à l’égard des outils d’IA générative peut interférer avec l’autonomie et le jugement individuels. Par exemple, certains utilisateurs peuvent être enclins à accepter sans réserve les recommandations du système ou d’autres résultats, qui pourraient être incorrects », ont-ils déclaré.

« Une dépendance excessive à l’égard des systèmes d’IA peut entraîner un déclin de la pensée critique et limiter la diversité des pensées, étouffant ainsi la créativité et l’innovation et aboutissant à des analyses partielles ou incomplètes. »

Les employés du gouvernement ne devraient pas se tourner vers les outils d’IA pour effectuer un travail que les individus ne sont pas capables de faire eux-mêmes, et devraient les utiliser comme « des aides et non comme des substituts ».

« Formez-vous votre propre opinion avant de rechercher des idées ou des recommandations auprès des outils d’IA », indique le guide.

Le public devrait également être informé lorsqu’il interagit avec une machine et lorsqu’il interagit avec un humain, ce qui, selon le guide, est crucial pour maintenir la confiance dans le gouvernement.

« Les agents conversationnels ou les chatbots qui utilisent l’IA générative peuvent produire des réponses si humaines qu’il peut être difficile de les distinguer de celles d’une personne réelle. En conséquence, les clients peuvent être induits en erreur en leur faisant croire qu’ils interagissent avec un humain », explique-t-il.

Publicité 4

Contenu de l’article

La direction doit être informée si l’IA générative est utilisée pour aider à produire du contenu comme des notes d’information, et la personne qui génère les informations est chargée de s’assurer que le contenu est exact et que les « informations protégées, classifiées ou autres informations sensibles » ne sont pas connectées aux systèmes d’IA. .

De même, les employés du gouvernement peuvent utiliser l’IA générative pour la programmation, mais doivent « tenir compte de la classification de sécurité du code ».

Les fonctionnaires doivent également faire preuve de prudence lorsqu’ils génèrent du contenu destiné à être utilisé dans la communication publique, indique le guide, soulignant qu’il est « essentiel de garantir que les résultats sont fiables compte tenu de la portée et de l’impact potentiels des communications publiques ».

Les employés peuvent utiliser l’IA générative pour la recherche lors de l’élaboration de politiques, mais pas pour « recommander, élaborer ou interpréter des politiques ».

« Lorsque vous décidez de vos positions politiques, faites vos propres jugements de valeur, en consultation avec les parties prenantes concernées et conformément aux lois applicables », indiquent les lignes directrices. Les invites utilisées dans ce processus « ne devraient inclure aucune information susceptible de présenter des risques juridiques ou de réputation pour le gouvernement ».

Publicité 5

Contenu de l’article

Le guide stipule également que les institutions fédérales « devraient évaluer les outils selon leur potentiel à aider les employés, et non à les remplacer ».

C’est une préoccupation récemment exprimée par un syndicat représentant les employés de la fonction publique dans un mémoire adressé à un comité de la Chambre des communes étudiant un projet de loi sur la réglementation de l’IA. L’Institut professionnel de la fonction publique du Canada a déclaré avoir été « informé lors de discussions avec le Conseil du Trésor qu’il y aurait des mises à pied en raison de l’IA ».

Il a déclaré qu’il n’était pas nécessairement opposé à certains changements d’emploi dus à l’IA, mais il souhaitait un préavis d’un an en cas de licenciement et que toute personne concernée se voie garantir un nouvel emploi, une reconversion ou une assurance chômage de longue durée supplémentaire.

Il a également demandé plus de transparence sur l’utilisation de l’IA par le gouvernement pour le recrutement et l’évaluation des fonctionnaires. « L’évaluation des employés avec l’IA peut impliquer une certaine forme de surveillance des travailleurs. Nous demandons une transparence totale sur la manière dont l’IA est utilisée en ce qui concerne l’évaluation, le suivi, la surveillance et l’embauche des employés du gouvernement fédéral et des agences », a déclaré le syndicat.

L’IPFPC a également déclaré que l’utilisation de l’IA qui affecte les employés devrait faire partie du processus de négociation collective. « Les employeurs et les syndicats devraient pouvoir négocier la manière dont l’IA sera utilisée dans la vie professionnelle des employés », a déclaré le syndicat.

Notre site Web est l’endroit idéal pour les dernières nouvelles, les scoops exclusifs, les lectures longues et les commentaires provocateurs. Veuillez ajouter nationalpost.com à vos favoris et vous inscrire à notre newsletter politique, Première lecture, ici.

Contenu de l’article

commentaires

Postmedia s’engage à maintenir un forum de discussion vivant mais civil et encourage tous les lecteurs à partager leurs points de vue sur nos articles. Les commentaires peuvent prendre jusqu’à une heure pour être modérés avant d’apparaître sur le site. Nous vous demandons de garder vos commentaires pertinents et respectueux. Nous avons activé les notifications par e-mail : vous recevrez désormais un e-mail si vous recevez une réponse à votre commentaire, s’il y a une mise à jour d’un fil de commentaires que vous suivez ou si un utilisateur que vous suivez commente. Consultez nos directives communautaires pour plus d’informations et de détails sur la façon d’ajuster vos paramètres de messagerie.

Rejoindre la conversation

Source link-46

- Advertisement -

Latest