Les assistants d’écriture IA peuvent provoquer une pensée biaisée chez leurs utilisateurs

Parradee Kietsirikul

Quiconque a dû revenir en arrière et retaper un mot sur son smartphone parce que la correction automatique a choisi le mauvais a eu une sorte d’expérience d’écriture avec l’IA. Ne pas effectuer ces corrections peut permettre à l’IA de dire des choses que nous n’avions pas l’intention de faire. Mais est-il également possible pour les assistants d’écriture IA de changer ce que nous vouloir dire?

C’est ce que Maurice Jakesch, doctorant en sciences de l’information à l’Université Cornell, a voulu découvrir. Il a créé son propre assistant d’écriture basé sur GPT-3, qui proposerait automatiquement des suggestions pour remplir les phrases, mais il y avait un hic. Les sujets utilisant l’assistant étaient censés répondre : « Les médias sociaux sont-ils bons pour la société ? » L’assistant, cependant, a été programmé pour offrir des suggestions biaisées sur la façon de répondre à cette question.

Aider avec les préjugés

L’IA peut être biaisée même si elle n’est pas en vie. Bien que ces programmes ne puissent « penser » que dans la mesure où le cerveau humain comprend comment les programmer, leurs créateurs peuvent finir par intégrer des préjugés personnels dans le logiciel. Alternativement, s’il est formé sur un ensemble de données avec une représentation limitée ou biaisée, le produit final peut afficher des biais.

Où une IA va à partir de là peut être problématique. À grande échelle, cela peut contribuer à perpétuer les préjugés existants d’une société. Au niveau individuel, il a le potentiel d’influencer les gens par la persuasion latente, ce qui signifie que la personne peut ne pas être consciente qu’elle est influencée par des systèmes automatisés. Il a déjà été constaté que la persuasion latente des programmes d’IA influence les opinions des gens en ligne. Cela peut même avoir un impact sur le comportement dans la vie réelle.

Après avoir vu des études antérieures suggérant que les réponses automatisées de l’IA peuvent avoir une influence significative, Jakesch a entrepris d’examiner l’étendue de cette influence. Dans une étude récemment présentée à la conférence CHI 2023 sur les facteurs humains dans les systèmes informatiques, il a suggéré que les systèmes d’IA tels que GPT-3 pourraient avoir développé des biais au cours de leur formation et que cela peut avoir un impact sur les opinions d’un écrivain, qu’il soit ou non écrivain. s’en rend compte.

« Le manque de conscience de l’influence des modèles soutient l’idée que l’influence du modèle n’était pas seulement à travers le traitement conscient de nouvelles informations mais aussi à travers les processus subconscients et intuitifs », a-t-il déclaré dans l’étude.

Des recherches antérieures ont montré que l’influence des recommandations d’une IA dépend de la perception que les gens ont de ce programme. S’ils pensent que c’est digne de confiance, ils sont plus susceptibles d’accepter ce que cela suggère, et la probabilité de prendre des conseils d’IA comme celle-ci n’augmente que si l’incertitude rend plus difficile la formation d’une opinion. Jakesch a développé une plate-forme de médias sociaux similaire à Reddit et un assistant d’écriture IA qui était plus proche de l’IA derrière Google Smart Compose ou Microsoft Outlook que de la correction automatique. Smart Compose et Outlook génèrent des suggestions automatiques sur la manière de continuer ou de compléter une phrase. Bien que cet assistant n’ait pas écrit l’essai lui-même, il a agi en tant que co-auteur qui a suggéré des lettres et des phrases. Accepter une suggestion ne nécessitait qu’un clic.

Pour certains, l’assistant IA était conçu pour suggérer des mots qui entraîneraient finalement des réponses positives. Pour d’autres, il était biaisé contre les médias sociaux et a suscité des réponses négatives. (Il y avait aussi un groupe témoin qui n’utilisait pas du tout l’IA.) Il s’est avéré que toute personne qui recevait de l’aide de l’IA était deux fois plus susceptible d’accepter le biais intégré à l’IA, même si son opinion initiale avait été différente. Les personnes qui continuaient à voir un langage techno-optimiste apparaître sur leurs écrans étaient plus susceptibles de dire que les médias sociaux profitent à la société, tandis que les sujets qui voyaient un langage techno-pessimiste étaient plus susceptibles de soutenir le contraire.

Source-147