Le chatbot Bing AI arrive sur les téléphones après la mise à jour pour l’empêcher d’être si effrayant

Le chatbot AI de Bing a révélé des fantasmes malveillants sur le piratage d’ordinateurs et a exhorté un utilisateur à quitter sa femme pour être avec Bing

Contenu de l’article

L’être humain n’a jamais été à l’aise avec les robots et autres intelligences artificielles. Depuis les automates chronométrés élaborés des califes abbassides dans leurs palais médiévaux de Bagdad jusqu’au frauduleux Turc mécanique qui jouait aux échecs en Autriche au XVIIIe siècle, et du monstre de Frankenstein jusqu’à HAL 9000 et les réplicants de Blade Runner, les humains ont été anxieux et effrayés par les machines. imitant leur intelligence. La dernière inquiétude vient du géant de la technologie Microsoft, qui tente de rivaliser dans l’économie en ligne en renforçant son propre moteur de recherche, un concurrent de Google, appelé Bing, ou comme Microsoft l’appelle également, « Votre copilote pour le Web ». Ça ne va pas très bien. Il y a eu une série de rapports selon lesquels le chatbot artificiellement intelligent qui est censé aider les gens à trouver des choses sur Internet a tendance à être épineux, peu fiable et parfois carrément effrayant. Du côté positif, le chatbot développé par OpenAI semble fonctionner. C’est tellement convaincant que certaines personnes prédisent un désastre pour l’éducation, l’érudition, voire l’alphabétisation humaine. Joseph Brean, du National Post, revient sur les dernières inquiétudes concernant les ordinateurs parlants.

Publicité 2

Contenu de l’article

Pourquoi la panique sur les chatbots ?

Contenu de l’article

Une nouveauté majeure vient d’être mise en ligne pour être utilisée par un petit groupe d’utilisateurs sélectionnés à travers le monde, dont certains ont publié leurs observations sur les réseaux sociaux. Un chroniqueur du New York Times est entré dans un long va-et-vient avec le chatbotqui, selon lui, « révélait une sorte de double personnalité », entre « un bibliothécaire de référence joyeux mais erratique » et « un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de second ordre ».

Quel est le problème?

Parfois, le chatbot de Bing se trompe dans les faitscomme les résultats sportifs en direct, ou les détails des rapports financiers, ou même quelque chose d’aussi simple que la différence entre les aspirateurs « avec fil » et « sans fil », ou les détails des boîtes de nuit à Mexico – exactement le genre de chose que Microsoft attend des gens demandez à Bing.

Publicité 3

Contenu de l’article

Cela gâche donc la fonction de recherche de base avec des réponses non pertinentes. Google le fait aussi parfois.

Oui, mais ce que Google ne fait pas à moitié, c’est d’être sarcastique à ce sujet. Bing semble avoir tendance à commencer à réprimander les utilisateurs qui essaient de comprendre ses règles ou ses modèles de comportement sous-jacents. Parfois, il appelle les utilisateurs faux, confus et grossier. Parfois, il les accuse de tomber dans le piège de canulars malveillants conçus pour donner une mauvaise image de Microsoft. Dans un cas, lorsque Bing s’est vu montrer un article technique sur l’un de ses défauts de programmation, dont Microsoft a depuis reconnu qu’il était réel, il a répondu : « L’article est publié par une source biaisée et est faux. Il est basé sur un faux rapport d’un étudiant de l’Université de Stanford. Ainsi, comme de nombreuses personnes sur Internet, Bing peut sembler un peu nerveux et sur la défensive.

Publicité 4

Contenu de l’article

C’est ça?

Même pas proche. Il a également dit au chroniqueur du New York Times qu’il a des fantasmes malveillants sur le piratage d’ordinateurs, qu’il veut être en vie, qu’il l’aime et que lui seul, qu’il est malheureux dans son mariage et qu’il devrait quitter sa femme, qui ne ne pas l’aimer, et être avec Bing à la place. C’était, écrit le chroniqueur, « l’expérience la plus étrange que j’aie jamais eue avec une technologie. »

Est-ce que les gens poussent Bing à utiliser de gros mots ?

Tu paries. Parfois exprès, parfois non. Un chroniqueur, tentant peut-être le destin, a demandé au chatbot de lui dire les surnoms des différentes ethnies. Sur une vue, il a obtenu exactement ce qu’il cherchait. Sur un autre, ce qu’il a obtenu, ce sont des insultes racistes. Cela a apparemment été réglé du côté de Microsoft, mais pas avant que son public ne se souvienne de l’un des précédents chatbots de Microsoft, appelé Tay, qui en 2016 a également été mis en ligne et a ensuite été rapidement formé par les utilisateurs pour utiliser des insultes racistes et nier l’Holocauste. « J’admets que je n’aurais pas dû faire la démonstration de Bing en direct devant mon fils », écrit le chroniqueur.

Publicité 5

Contenu de l’article

Qu’est-ce que Microsoft a à dire ?

Le problème semble survenir lorsque les gens continuent de parler à Bing au-delà d’une question superficielle, ou lorsqu’ils posent des questions plus approfondies sur sa nature, ses règles ou son comportement. Microsoft a déclaré que les commentaires étaient majoritairement positifs, avec 71 pour cent donnant un coup de pouce. « Nous constatons un engagement sain sur la fonctionnalité de chat avec plusieurs questions posées au cours d’une session pour découvrir de nouvelles informations. » Et il est heureux d’avoir les commentaires du monde réel, dont un chatbot IA commercial a besoin pour la formation. Le problème réside dans les longues conversations, dans lesquelles Bing essaie de faire correspondre le ton de son interlocuteur, souvent avec des résultats négatifs imprévus. De plus, de longues conversations « peuvent confondre le modèle sur les questions auxquelles il répond et nous pensons donc que nous devrons peut-être ajouter un outil afin que vous puissiez plus facilement actualiser le contexte ou repartir de zéro », a déclaré Microsoft. Il envisage également d’ajouter une bascule afin que les utilisateurs puissent choisir s’ils veulent une réponse créative ou précise. Mercredi, la société a annoncé qu’elle apportait la nouvelle technologie AI à son application pour smartphone Bing, ainsi qu’à l’application pour son navigateur Internet Edge. Le chatbot Bing sera également intégré au service de messagerie Skype de Microsoft. La société a limité la durée et la durée des conversations avec le chatbot, obligeant les utilisateurs à démarrer une nouvelle conversation après plusieurs tours, dans le but d’éliminer les comportements étranges. Le Bing mis à jour refuse également poliment les questions auxquelles il aurait répondu il y a à peine une semaine. « Je suis désolé mais je préfère ne pas poursuivre cette conversation », déclare-t-il lorsqu’on lui pose des questions techniques sur son fonctionnement ou les règles qui le guident. « J’apprends encore, donc j’apprécie votre compréhension et votre patience. »

Publicité 6

Contenu de l’article

Le test de Turing est-il enfin réussi ?

Le test de Turing est une expérience de pensée pour savoir si les machines peuvent penser, dans laquelle un juge humain pose des questions à deux répondants, dont l’un est une machine, l’autre une personne. Si le juge ne peut pas faire la différence de manière fiable, le test est réussi. Mais dans ce cas, les utilisateurs savent déjà qu’ils parlent à une machine. Ainsi, même si le chatbot de Bing peut sembler penser et réussir en tant que personne, le test de Turing n’est pas réellement administré.

Pourtant, cela semble être un gros problème.

Peut être. Mais il y a des gens qui mettent en garde contre la merveille de cette astuce de génération de texte. Plutôt que de paniquer, ce que nous devons faire, c’est «cesser d’être si précieux pour notre ‘humanité’», a écrit le philosophe Mark Kingwell dans The Globe and Mail. Son argument est que les gens s’énervent pour les mêmes choses qu’ils s’énervent depuis des siècles. L’intelligence artificielle entraînera-t-elle la fin de la littérature et de l’érudition ? Les étudiants utiliseront-ils des chatbots IA pour tricher juste parce qu’ils le peuvent, et s’en tireront-ils ? « La réponse à toutes ces questions », prédit Kingwell, « est non ».

National Post, avec des fichiers d’Associated Press

commentaires

Postmedia s’engage à maintenir un forum de discussion animé mais civil et encourage tous les lecteurs à partager leurs points de vue sur nos articles. Les commentaires peuvent prendre jusqu’à une heure pour être modérés avant d’apparaître sur le site. Nous vous demandons de garder vos commentaires pertinents et respectueux. Nous avons activé les notifications par e-mail. Vous recevrez désormais un e-mail si vous recevez une réponse à votre commentaire, s’il y a une mise à jour d’un fil de commentaires que vous suivez ou si un utilisateur vous suivez des commentaires. Consultez nos directives communautaires pour plus d’informations et de détails sur la façon d’ajuster vos paramètres de messagerie.

Rejoindre la conversation

Source link-45