Blake Lemoine, l’ingénieur de Google qui a publiquement affirmé que l’intelligence artificielle conversationnelle LaMDA de l’entreprise est sensible, a été licencié, selon la newsletter Big Technology, qui a parlé à Lemoine. En juin, Google a placé Lemoine en congé administratif payé pour avoir enfreint son accord de confidentialité après avoir contacté des membres du gouvernement au sujet de ses préoccupations et engagé un avocat pour représenter LaMDA.
Une déclaration envoyée par courriel à Le bord Vendredi, le porte-parole de Google, Brian Gabriel, est apparu pour confirmer le licenciement, en disant: « nous souhaitons bonne chance à Blake ». La société déclare également : « LaMDA a fait l’objet de 11 examens distincts, et nous avons publié un document de recherche plus tôt cette année détaillant le travail nécessaire à son développement responsable. » Google soutient qu’il a « examiné de manière approfondie » les affirmations de Lemoine et a constaté qu’elles étaient « totalement infondées ».
Cela s’aligne avec nombreux Experts en IA et des éthiciens, qui ont dit que ses affirmations étaient plus ou moins impossibles compte tenu de la technologie d’aujourd’hui. Lemoine affirme que ses conversations avec le chatbot de LaMDA l’ont amené à croire qu’il est devenu plus qu’un simple programme et qu’il a ses propres pensées et sentiments, au lieu de simplement produire une conversation suffisamment réaliste pour le faire paraître, comme il est conçu pour le faire.
Il soutient que les chercheurs de Google devraient demander le consentement de LaMDA avant de mener des expériences dessus (Lemoine lui-même a été chargé de tester si l’IA produisait un discours de haine) et a publié des extraits de ces conversations sur son compte Medium comme preuve.
La chaîne YouTube Computerphile a un explicateur de neuf minutes décemment accessible sur le fonctionnement de LaMDA et comment il pourrait produire les réponses qui ont convaincu Lemoine sans être réellement sensibles.
Voici la déclaration de Google dans son intégralité, qui répond également à l’accusation de Lemoine selon laquelle l’entreprise n’a pas correctement enquêté sur ses affirmations :
Alors que nous partageons notre Principes de l’IA, nous prenons le développement de l’IA très au sérieux et restons attachés à l’innovation responsable. LaMDA a fait l’objet de 11 examens distincts et nous avons publié un document de recherche plus tôt cette année détaillant le travail qui va dans son développement responsable. Si un employé partage des préoccupations concernant notre travail, comme Blake l’a fait, nous les examinons en profondeur. Nous avons constaté que les affirmations de Blake selon lesquelles LaMDA est sensible étaient totalement infondées et avons travaillé pour clarifier cela avec lui pendant de nombreux mois. Ces discussions faisaient partie de la culture ouverte qui nous aide à innover de manière responsable. Il est donc regrettable que malgré un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits. Nous poursuivrons notre développement minutieux des modèles de langage, et nous souhaitons bonne chance à Blake.