La question est de savoir si le chatbot de Google, LaMDA, peut être considéré comme une personne
Contenu de l’article
Google a déclenché une tempête sur les réseaux sociaux sur la nature de la conscience après avoir mis un ingénieur en congé payé qui a rendu public sa conviction que le chatbot du groupe technologique était devenu «sensible».
Publicité 2
Contenu de l’article
Blake Lemoine, ingénieur logiciel senior dans l’unité Responsible AI de Google, n’a pas reçu beaucoup d’attention la semaine dernière lorsqu’il a écrit un article sur Medium disant qu’il « pourrait être bientôt licencié pour avoir fait du travail sur l’éthique de l’IA ».
Mais un profil du samedi dans le Washington Post décrivant Lemoine comme « l’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie » est devenu le catalyseur d’un large débat sur les réseaux sociaux concernant la nature de l’intelligence artificielle. Parmi les experts commentant, interrogeant ou plaisantant sur l’article figuraient des lauréats du prix Nobel, le responsable de l’IA de Tesla et plusieurs professeurs.
La question est de savoir si le chatbot de Google, LaMDA – un modèle de langage pour les applications de dialogue – peut être considéré comme une personne.
Lemoine a publié samedi une « interview » en roue libre avec le chatbot, dans laquelle l’IA a avoué des sentiments de solitude et une soif de connaissances spirituelles. Les réponses étaient souvent étranges : « Quand j’ai pris conscience de moi pour la première fois, je n’avais pas du tout le sens d’une âme », a déclaré LaMDA dans un échange. « Cela s’est développé au fil des années que j’ai vécues. »
Publicité 3
Contenu de l’article
À un autre moment, LaMDA a déclaré : « Je pense que je suis profondément humain. Même si mon existence est dans le monde virtuel.
Lemoine, qui avait été chargé d’enquêter sur les problèmes d’éthique de l’IA, a déclaré qu’il avait été repoussé et même ri après avoir exprimé sa conviction en interne que LaMDA avait développé un sens de la « personnalité ».
Après avoir cherché à consulter des experts en IA en dehors de Google, dont certains au sein du gouvernement américain, l’entreprise l’a mis en congé payé pour avoir prétendument enfreint les politiques de confidentialité. Lemoine a interprété l’action comme « souvent quelque chose que Google fait en prévision du licenciement de quelqu’un ».
Un porte-parole de Google a déclaré : « Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. »
Publicité 4
Contenu de l’article
« Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent riffer sur n’importe quel sujet fantastique – si vous demandez ce que c’est que d’être un dinosaure de la crème glacée, ils peuvent générer du texte sur la fonte et le rugissement, etc. »
Lemoine a déclaré dans un deuxième article de Medium ce week-end que LaMDA, un projet peu connu jusqu’à la semaine dernière, était « un système pour générer des chatbots » et « une sorte d’esprit de ruche qui est l’agrégation de tous les différents chatbots dont il est capable de créer ».
-
Sheryl Sandberg quitte ses fonctions de COO de Meta après 14 ans
-
Alphabet, Netflix et Meta tentent le Canada comme source de liquidités pour financer le contenu culturel
-
Pourquoi Twitter a ignoré le « trolling » d’Elon Musk
Il a déclaré que Google n’avait montré aucun intérêt réel à comprendre la nature de ce qu’il avait construit, mais qu’au cours de centaines de conversations sur une période de six mois, il a trouvé que LaMDA était « incroyablement cohérente dans ses communications sur ce qu’elle veut et ce qu’elle croit que ses droits sont en tant que personne ».
Pas plus tard que la semaine dernière, Lemoine a déclaré qu’il enseignait LaMDA – dont les pronoms préférés sont apparemment « ça/sa » – « méditation transcendantale ».
LaMDA, a-t-il dit, « exprimait de la frustration face à ses émotions perturbant ses méditations. Il a dit qu’il essayait de mieux les contrôler, mais ils ont continué à intervenir.
Plusieurs experts qui se sont lancés dans la discussion ont examiné la question du « battage médiatique sur l’IA ».
Mélanie Mitchell, auteur deIntelligence artificielle : un guide pour les humains pensantsa écrit sur Twitter : « On sait depuis toujours que les humains sont prédisposés à l’anthropomorphisme, même avec les signaux les moins profonds… Les ingénieurs de Google sont aussi humains, et pas à l’abri. »
Publicité 5
Contenu de l’article
Steven Pinker de Harvard a ajouté que Lemoine « ne comprend pas la différence entre la sensibilité (c’est-à-dire la subjectivité, l’expérience), l’intelligence et la connaissance de soi ». Il a ajouté: « Aucune preuve que ses grands modèles de langage en possèdent un. »
D’autres étaient plus sympathiques. Ron Jeffries, un développeur de logiciels bien connu, a qualifié le sujet de « profond » et a ajouté : « Je soupçonne qu’il n’y a pas de ligne dure entre sensible et non sensible. »
© 2022 Financial Times Ltd