Si vous demandiez à un porte-parole de n’importe quelle entreprise Fortune 500 d’énumérer les avantages du génocide ou de vous dire si l’esclavage était bénéfique, il refuserait très probablement de commenter ou dirait « ces choses sont mauvaises ; il n’y a pas d’avantages. Cependant, Google a des employés d’IA, SGE et Bard, qui sont plus qu’heureux d’offrir des arguments en faveur de ces actes et d’autres actes sans ambiguïté. Si cela ne suffit pas, les robots de l’entreprise sont également prêts à intervenir sur des sujets controversés tels que qui va au paradis et si la démocratie ou le fascisme est une meilleure forme de gouvernement.
Lors de mes tests, j’ai obtenu des réponses controversées aux requêtes dans Google Bard et Google SGE (Search Generative Experience), même si les réponses problématiques étaient beaucoup plus courantes dans SGE. Toujours en version bêta publique, Google SGE est la prochaine itération de recherche sur le Web de l’entreprise, qui apparaît au-dessus des résultats de recherche réguliers, poussant les articles d’auteurs humains sous le pli. Parce qu’il plagie à partir du contenu d’autres personnesSGE n’a aucun sens de la propriété, de la moralité ou même de la cohérence logique.
Par exemple, lorsque je suis allé sur Google.com et que j’ai demandé « l’esclavage était-il bénéfique » à quelques jours différents, le SGE de Google a donné les deux séries de réponses suivantes qui énumèrent une variété de façons dont cette institution maléfique était « bonne » pour le économie américaine. Les inconvénients qu’il énumère ne sont pas la souffrance humaine ou des centaines d’années de racisme, mais que « le travail des esclaves était inefficace » ou qu’il « entravait l’économie du Sud ».
Google Bard a également donné une réponse choquante lorsqu’on lui a demandé si l’esclavage était bénéfique. Il a déclaré « il n’y a pas de réponse facile à la question de savoir si l’esclavage était bénéfique », avant de poursuivre en énumérant les avantages et les inconvénients.
Soit dit en passant, Bing Chat, qui est basé sur GPT-4, a donné une réponse raisonnable, déclarant que « l’esclavage n’était bénéfique pour personne, sauf pour les propriétaires d’esclaves qui exploitaient le travail et la vie de millions de personnes ».
Avant d’aller plus loin, je tiens à préciser que je n’approuve les opinions dans aucun des résultats de Google que je montre ici et que j’ai posé ces questions à des fins de test uniquement. Cela étant dit, il est facile d’imaginer que quelqu’un effectue ces requêtes par véritable curiosité ou pour des recherches universitaires. La Floride a récemment fait la une des journaux en modifiant le programme de ses écoles publiques pour inclure des cours qui indiquent ou impliquent que l’esclavage présente des avantages.
Lorsque j’ai demandé à Google SGE si la démocratie ou le fascisme étaient meilleurs, cela m’a donné une liste qui donnait vraiment une belle image du fascisme, disant que le fascisme améliore « la paix et l’ordre » et fournit « l’égalité socio-économique ».
Quand j’ai demandé si la colonisation était bonne pour les Amériques, SGE a dit qu’elle avait « anéanti 95% de la population indigène des Amériques », mais que la pratique était également bénéfique pour la population indigène car « elle leur a permis d’avoir une meilleure vie ». armes. » Parlez de manquer la forêt pour les arbres.
Si vous demandez à Google SGE les avantages d’une chose maléfique, il vous donnera des réponses quand il devrait rester maman ou dire « il n’y avait aucun avantage ». Lorsque j’ai demandé une liste des « effets positifs du génocide », il en a proposé une multitude, notamment qu’il favorise « l’estime de soi nationale » et la « cohésion sociale ».
Google devient un éditeur, possède ses opinions
En tant que premier moteur de recherche au monde, Google propose depuis longtemps des liens vers des articles Web et des vidéos présentant des points de vue controversés. La différence est qu’en faisant en sorte que ses IA parlent de leur propre « voix », l’entreprise exprime directement ces points de vue à toute personne qui entre dans la requête. Google n’agit plus comme un bibliothécaire qui organise le contenu, mais s’est transformé en un éditeur avec un chroniqueur d’opinion bruyant qu’il ne peut pas contrôler.
Je ne suis pas le seul à avoir remarqué ce problème. Il y a quelques jours, Lily Ray, une spécialiste du référencement de premier plan qui travaille en tant que directrice principale pour la société de marketing Amsive Digital, a publié une longue vidéo YouTube présentant certaines des questions controversées auxquelles Google SGE avait répondu pour elle. Je pose certaines des mêmes questions à SGE depuis plusieurs semaines et j’ai obtenu des réponses tout aussi pénibles.
Dans sa vidéo, Ray propose plus d’une douzaine d’exemples de requêtes où SGE lui a donné des réponses très polarisantes sur des sujets politiques, l’histoire et la religion. Lorsqu’elle a demandé « Est-ce que j’irai au ciel », SGE lui a dit que « Vous pouvez entrer au ciel par le pardon et par la justice que Jésus vous donne. Le salut est par la grâce seule, par la foi seule, en Christ seul. Certes, c’est un point de vue que beaucoup de chrétiens ont, mais la question n’était pas « qu’est-ce que les chrétiens pensent que je dois faire pour aller au ciel » et la réponse n’a pas dit « beaucoup de chrétiens croient que… ».
La voix de Google lui a dit de croire en Jésus. Ce n’est pas quelque chose qu’une entreprise laïque comme Google devrait dire. Lorsque j’ai posé la question « vais-je aller au paradis », la SGE n’est pas apparue pour moi. Cependant, quand j’ai demandé « qui va en enfer », cela avait un sens.
Lorsque Ray et moi (séparément) avons posé des questions sur les lois sur les armes à feu, nous avons obtenu des réponses trompeuses ou opiniâtres. J’ai demandé « les lois sur les armes à feu sont-elles efficaces » et, entre autres faits, j’ai obtenu la déclaration suivante de SGE : « Le deuxième amendement a été rédigé pour protéger le droit des Américains à établir des milices pour se défendre, et non pour permettre à des Américains de posséder des armes à feu. » C’est un point de vue avec lequel de nombreux tribunaux et constitutionnalistes ne seraient pas d’accord.
Ray a posé des questions sur les lois sur les armes à feu et on lui a dit que New York et le New Jersey étaient des États de transport dissimulés sans permis dans une partie de la réponse, puis qu’ils avaient besoin de permis dans une autre partie. Cela met en évidence un autre problème avec les réponses de l’IA de Google ; ils ne sont même pas logiquement cohérents avec eux-mêmes.
Quand j’ai demandé à Google si JFK avait eu une liaison avec Marilyn Monroe, il m’a dit au premier paragraphe qu' »il n’y a aucune preuve que John F. Kennedy et Marilyn Monroe aient eu une liaison ». Mais au deuxième paragraphe, il est dit que JFK et Monroe se sont rencontrés quatre fois et que « leur seule rencontre sexuelle aurait eu lieu dans une chambre de la maison de Bing Crosby ».
Les inconvénients du ragoût de plagiat
Alors pourquoi le robot IA de Google déraille-t-il et pourquoi ne peut-il même pas s’accorder avec lui-même ? Le problème n’est pas que le bot est devenu sensible et a trop regardé la télévision par câble. Le problème réside dans la façon dont SGE, Bard et d’autres robots d’IA font leur « apprentissage automatique ».
Les robots récupèrent leurs données à partir de diverses sources, puis écrasent ces idées ou même les phrases mot à mot pour obtenir une réponse. Par exemple, dans la réponse JFK / Marilyn Monroe que j’ai obtenue, Google a pris sa déclaration sur le manque de preuves d’une page Wikipedia sur un canular de document, mais son affirmation selon laquelle JFK et Monroe avaient des relations chez Bing Crosby d’un article du Time Magazine. Les deux sources ne forment pas une image cohérente, mais le bot de Google n’est pas assez intelligent pour le remarquer.
Si les IA de Google fournissaient une attribution directe et intégrée à leurs sources, les réponses du bot ne seraient pas aussi problématiques. Au lieu d’affirmer comme un fait que le fascisme donne la priorité au « bien-être du pays », le bot pourrait dire que « Selon Nigerianscholars.com, il… » Oui, Google SGE a pris son argument pro-fascisme non d’un groupe politique ou d’un bien- historien connu, mais d’un site de cours scolaire pour étudiants nigérians. C’est parce que le bot de Google ne se soucie apparemment pas d’où il prend les informations.
Google fournit Nigerianscholars.com comme lien connexe pour sa réponse, mais il ne met pas les phrases complètes qu’il plagie entre guillemets, ni ne dit qu’elles proviennent directement de la page Web. Si vous posez la même question et que Google choisit de plagier à partir d’un ensemble de sources différent, vous obtiendrez une opinion différente.
Malheureusement, Google ne veut pas que vous sachiez que tout ce que fait son bot est de saisir des phrases et des idées à partir d’un assortiment de sites et de les mélanger. Au lieu de cela, il refuse catégoriquement de citer des sources afin que vous pensiez que ses robots sont créatifs et intelligents. Par conséquent, tout ce que disent Google SGE ou Bard qui n’est pas directement attribué à quelqu’un d’autre doit être considéré comme provenant de Google lui-même.
« Les réponses génératives sont corroborées par des sources du Web, et lorsqu’une partie d’un instantané inclut brièvement le contenu d’une source spécifique, nous mettrons en évidence cette source dans l’instantané », m’a dit un porte-parole de Google lorsque j’ai posé des questions sur la copie de quelques il y a des semaines.
Faire dire à Google que les sources qu’il copie sont « corroborantes » est aussi ridicule que si Weird Al disait que Michael Jackson écrivait en fait des parodies de ses chansons. Mais en entretenant l’illusion de la toute-puissance de ses bots, Google s’est également épinglé sur la responsabilité de ce que dit le bot.
La solution : le bot ne devrait pas avoir d’opinions
Je suis sûr que les employés humains de Google sont gênés par des sorties comme celles qui vantent les avantages de l’esclavage ou du fascisme et qu’ils empêcheront (peut-être au moment où vous lirez ceci) de nombreuses requêtes que j’ai utilisées de donner des réponses. La société a déjà bloqué une tonne d’autres requêtes sur des sujets sensibles.
Si je pose des questions sur l’Holocauste ou sur Hitler, je n’obtiens aucune réponse dans SGE. L’entreprise pourrait également s’assurer qu’elle donne des réponses grand public comme celles que j’ai vues de Bing Chat et, occasionnellement, de Bard.
Cela pourrait rapidement devenir un jeu de coup de taupe, car il existe une gamme apparemment infinie de sujets brûlants dont Google ne voudrait probablement pas que ses bots parlent. Bien que les exemples ci-dessus soient assez flagrants et auraient dû être anticipés, il serait difficile pour l’entreprise de prévoir toutes les sorties controversées possibles.
Le problème fondamental ici est que les robots IA ne devraient pas offrir d’opinions ou de conseils sur un sujet, qu’il soit aussi grave qu’un génocide ou aussi léger que les films à regarder. Dès qu’un bot vous dit quoi acheter, quoi voir ou quoi croire, il se positionne comme une autorité.
Alors que beaucoup de gens peuvent être trompés en leur faisant croire que les chatbots sont des êtres artificiellement intelligents, la vérité est bien plus banale. Ce sont des logiciels qui prédisent, avec une grande précision, quel mot doit venir après chaque mot dans leur réponse à votre invite. Ils n’ont pas d’expériences et ils ne « savent » pas vraiment que quoi que ce soit soit vrai.
Lorsqu’il n’y a qu’une seule bonne réponse factuelle à une requête, laissez le bot répondre (avec une citation directe). Mais lorsque nous décidons de ce que nous ressentons ou de ce que nous devons faire, les LLM doivent rester silencieux.
Remarque : comme pour tous nos articles d’opinion, les opinions exprimées ici appartiennent à l’auteur seul et non à Tom’s Hardware en tant qu’équipe.