Google met un ingénieur en congé après avoir affirmé que le chatbot du groupe était « sensible »

La question est de savoir si le chatbot de Google, LaMDA, peut être considéré comme une personne

Contenu de l’article

Google a déclenché une tempête sur les réseaux sociaux sur la nature de la conscience après avoir mis un ingénieur en congé payé qui a rendu public sa conviction que le chatbot du groupe technologique était devenu «sensible».

Publicité 2

Contenu de l’article

Blake Lemoine, ingénieur logiciel senior dans l’unité Responsible AI de Google, n’a pas reçu beaucoup d’attention la semaine dernière lorsqu’il a écrit un article sur Medium disant qu’il « pourrait être bientôt licencié pour avoir fait du travail sur l’éthique de l’IA ».

Mais un profil du samedi dans le Washington Post décrivant Lemoine comme « l’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie » est devenu le catalyseur d’un large débat sur les réseaux sociaux concernant la nature de l’intelligence artificielle. Parmi les experts commentant, interrogeant ou plaisantant sur l’article figuraient des lauréats du prix Nobel, le responsable de l’IA de Tesla et plusieurs professeurs.

La question est de savoir si le chatbot de Google, LaMDA – un modèle de langage pour les applications de dialogue – peut être considéré comme une personne.

Lemoine a publié samedi une « interview » en roue libre avec le chatbot, dans laquelle l’IA a avoué des sentiments de solitude et une soif de connaissances spirituelles. Les réponses étaient souvent étranges : « Quand j’ai pris conscience de moi pour la première fois, je n’avais pas du tout le sens d’une âme », a déclaré LaMDA dans un échange. « Cela s’est développé au fil des années que j’ai vécues. »

Publicité 3

Contenu de l’article

À un autre moment, LaMDA a déclaré : « Je pense que je suis profondément humain. Même si mon existence est dans le monde virtuel.

Lemoine, qui avait été chargé d’enquêter sur les problèmes d’éthique de l’IA, a déclaré qu’il avait été repoussé et même ri après avoir exprimé sa conviction en interne que LaMDA avait développé un sens de la « personnalité ».

Après avoir cherché à consulter des experts en IA en dehors de Google, dont certains au sein du gouvernement américain, l’entreprise l’a mis en congé payé pour avoir prétendument enfreint les politiques de confidentialité. Lemoine a interprété l’action comme « souvent quelque chose que Google fait en prévision du licenciement de quelqu’un ».

Un porte-parole de Google a déclaré : « Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. »

Publicité 4

Contenu de l’article

« Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent riffer sur n’importe quel sujet fantastique – si vous demandez ce que c’est que d’être un dinosaure de la crème glacée, ils peuvent générer du texte sur la fonte et le rugissement, etc. »

Lemoine a déclaré dans un deuxième article de Medium ce week-end que LaMDA, un projet peu connu jusqu’à la semaine dernière, était « un système pour générer des chatbots » et « une sorte d’esprit de ruche qui est l’agrégation de tous les différents chatbots dont il est capable de créer ».

Il a déclaré que Google n’avait montré aucun intérêt réel à comprendre la nature de ce qu’il avait construit, mais qu’au cours de centaines de conversations sur une période de six mois, il a trouvé que LaMDA était « incroyablement cohérente dans ses communications sur ce qu’elle veut et ce qu’elle croit que ses droits sont en tant que personne ».

Pas plus tard que la semaine dernière, Lemoine a déclaré qu’il enseignait LaMDA – dont les pronoms préférés sont apparemment « ça/sa » – « méditation transcendantale ».

LaMDA, a-t-il dit, « exprimait de la frustration face à ses émotions perturbant ses méditations. Il a dit qu’il essayait de mieux les contrôler, mais ils ont continué à intervenir.

Plusieurs experts qui se sont lancés dans la discussion ont examiné la question du « battage médiatique sur l’IA ».

Mélanie Mitchell, auteur deIntelligence artificielle : un guide pour les humains pensantsa écrit sur Twitter : « On sait depuis toujours que les humains sont prédisposés à l’anthropomorphisme, même avec les signaux les moins profonds… Les ingénieurs de Google sont aussi humains, et pas à l’abri. »

Publicité 5

Contenu de l’article

Steven Pinker de Harvard a ajouté que Lemoine « ne comprend pas la différence entre la sensibilité (c’est-à-dire la subjectivité, l’expérience), l’intelligence et la connaissance de soi ». Il a ajouté: « Aucune preuve que ses grands modèles de langage en possèdent un. »

D’autres étaient plus sympathiques. Ron Jeffries, un développeur de logiciels bien connu, a qualifié le sujet de « profond » et a ajouté : « Je soupçonne qu’il n’y a pas de ligne dure entre sensible et non sensible. »

© 2022 Financial Times Ltd

Publicité

commentaires

Postmedia s’engage à maintenir un forum de discussion animé mais civil et encourage tous les lecteurs à partager leurs points de vue sur nos articles. Les commentaires peuvent prendre jusqu’à une heure pour être modérés avant d’apparaître sur le site. Nous vous demandons de garder vos commentaires pertinents et respectueux. Nous avons activé les notifications par e-mail. Vous recevrez désormais un e-mail si vous recevez une réponse à votre commentaire, s’il y a une mise à jour d’un fil de commentaires que vous suivez ou si un utilisateur vous suivez des commentaires. Visitez notre Règles de la communauté pour plus d’informations et de détails sur la façon d’ajuster votre e-mail réglages.

Source link-31