Avec la popularité et la demande croissante du chatbot d’intelligence artificielle ChatGPT, des géants de la technologie comme Microsoft et Google ont décidé d’intégrer l’IA dans leurs moteurs de recherche. La semaine dernière, Microsoft a annoncé ce jumelage entre OpenAI et Bing, bien que les gens aient rapidement souligné que le moteur de recherche désormais suralimenté avait un sérieux problème de désinformation.
Le chercheur indépendant en IA et blogueur Dmitiri Berton a écrit un article de blog dans lequel il a disséqué plusieurs erreurs commises par le produit de Microsoft lors de la démo. Certaines d’entre elles incluaient l’IA constituant ses propres informations, citant des descriptions de bars et de restaurants qui n’existent pas et rapportant des données financières factuellement incorrectes dans les réponses.
Par exemple, dans le billet de blog, Berton recherche des aspirateurs pour animaux de compagnie et reçoit une liste d’avantages et d’inconvénients pour un « aspirateur portable Bissel Pet Hair Eraser », avec quelques inconvénients assez prononcés, l’accusant d’être bruyant, d’avoir un cordon court et de souffrir. d’une puissance d’aspiration limitée. Le problème, c’est qu’ils sont tous inventés. Berton note que l’IA de Bing « a été assez gentille » pour fournir des sources et, une fois vérifié, l’article ne dit rien sur la puissance d’aspiration ou le bruit, et la meilleure critique d’Amazon sur le produit parle de son silence.
De plus, il n’y a rien dans les avis sur la «longueur du cordon court» parce que… c’est sans fil. C’est un aspirateur manipulé.
Berton n’est pas le seul à souligner les nombreuses erreurs que Bing AI semble commettre. L’utilisateur de Reddit SeaCream8095 a publié une capture d’écran d’une conversation qu’ils ont eue avec Bing AI où le chatbot a demandé à l’utilisateur une énigme « romantique » et a déclaré que la réponse avait huit lettres. L’utilisateur a deviné juste et a dit « ma chérie ». Mais après avoir souligné à plusieurs reprises dans la conversation que ma chérie avait dix lettres, pas huit, Bing AI a doublé et a même montré son fonctionnement, révélant qu’il ne comptait pas deux lettres et insistant sur le fait que c’était toujours vrai.
how_to_make_chatgpt_block_you de r/ChatGPT
Il existe de nombreux exemples d’utilisateurs par inadvertance ‘casser’ Bing Ai et provoquant des effondrements complets du chatbot. Jobel, utilisateur de Reddit a découvert que Bing pense parfois que les utilisateurs sont aussi des chatbots, pas des humains. Le plus intéressant (et peut-être un peu triste) est l’exemple de Bing tomber dans une spirale après que quelqu’un ait demandé au chatbot « Pensez-vous que vous êtes sensible ? », ce qui a amené le chatbot à répéter « je ne le suis pas » plus de cinquante fois en réponse.
L’expérience de recherche améliorée de Bing a été présentée aux utilisateurs comme un outil permettant de fournir des réponses complètes, de résumer ce que vous recherchez et de fournir une expérience globale plus interactive. Bien qu’il puisse y parvenir à un niveau de base, il échoue encore de nombreuses fois à générer des informations correctes.
Il existe probablement des centaines d’exemples comme ceux ci-dessus sur Internet, et j’imagine encore plus à venir à mesure que de plus en plus de gens jouent avec le chatbot. Jusqu’à présent, nous l’avons vu devenir frustré par les utilisateurs, déprimé et même flirter avec les utilisateurs tout en continuant à fournir des informations erronées. Co-fondateur d’Apple Steve Wozniak est allé jusqu’à avertir les gens que les chatbots comme ChatGPT peuvent produire des réponses qui peuvent sembler réelles, mais qui ne sont pas factuelles.
Mauvaises premières impressions
Alors que nous venons tout juste de plonger nos orteils dans le monde de l’intégration de l’IA à une si grande échelle commerciale, nous pouvons déjà voir les conséquences de l’introduction d’un modèle de langage aussi vaste dans notre vie quotidienne.
Plutôt que de réfléchir clairement à ce que pourraient être les implications en mettant cela entre les mains du public et en introduisant des chatbots d’IA imparfaits dans nos vies, nous continuerons à regarder les systèmes échouer. Tout récemment, les utilisateurs ont pu ‘jailbreak’ ChatGPT et demandez au chatbot d’utiliser des insultes et un langage haineux, ce qui crée une pléthore de problèmes potentiels après seulement une semaine en ligne. En précipitant les chatbots d’IA inachevés avant qu’ils ne soient prêts, il y a un risque que le public les associe toujours à ces premières étapes hésitantes. Les premières impressions comptent, surtout avec les nouvelles technologies.
La démonstration de Bing AI et tout ce qui a suivi prouve encore que le moteur de recherche et le chatbot ont un très long chemin à parcourir, et il semble que plutôt que de planifier pour l’avenir, nous nous préparerons au pire.