Blake Lemoine, un ingénieur qui a passé les sept dernières années chez Google, a été licencié, rapporte Alex Kantrowitz de la newsletter Big Technology. La nouvelle aurait été annoncée par Lemoine lui-même lors d’un enregistrement du podcast du même nom, bien que l’épisode ne soit pas encore public. Google a confirmé le licenciement à Engadget.
Lemoine, qui faisait récemment partie du projet d’IA responsable de Google, s’est rendu au Washington Post le mois dernier en affirmant que l’un des projets d’IA de l’entreprise aurait gagné en sensibilité. L’IA en question, LaMDA – abréviation de Language Model for Dialogue Applications – a été dévoilée publiquement par Google l’année dernière comme un moyen pour les ordinateurs de mieux imiter une conversation ouverte. Lemoine semble non seulement avoir cru que LaMDA avait atteint la sensibilité, mais se demandait ouvertement s’il possédait une âme. Et au cas où il y aurait le moindre doute, ses opinions sont exprimées sans hyperbole, il a poursuivi en disant à Wired : « Je crois légitimement que LaMDA est une personne. »
Après avoir fait ces déclarations à la presse, apparemment sans l’autorisation de son employeur, Lemoine a été mis en congé administratif payé. Google, à la fois dans des déclarations au Washington Post à l’époque et depuis, a fermement affirmé que son IA n’était en aucun cas sensible.
Plusieurs membres de la communauté de recherche sur l’IA se sont également prononcés contre les affirmations de Lemoine. Margaret Mitchell, qui a été licenciée de Google après avoir dénoncé le manque de diversité au sein de l’organisation, a écrit sur Twitter que des systèmes comme LaMDA ne développent pas d’intention, ils « modélisent plutôt la façon dont les gens expriment l’intention de communication sous la forme de chaînes de texte ». Avec moins de tact, Gary Marcus a qualifié les affirmations de Lemoine de « non-sens sur des échasses ».
Contacté pour commenter, Google a partagé la déclaration suivante avec Engadget :
Comme nous partageons nos principes d’IA, nous prenons le développement de l’IA très au sérieux et restons attachés à l’innovation responsable. LaMDA a fait l’objet de 11 examens distincts et nous avons publié un document de recherche plus tôt cette année détaillant le travail nécessaire à son développement responsable. Si un employé partage des préoccupations concernant notre travail, comme Blake l’a fait, nous les examinons en profondeur. Nous avons constaté que les affirmations de Blake selon lesquelles LaMDA est sensible étaient totalement infondées et avons travaillé pour clarifier cela avec lui pendant de nombreux mois. Ces discussions faisaient partie de la culture ouverte qui nous aide à innover de manière responsable. Il est donc regrettable que malgré un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits. Nous poursuivrons notre développement minutieux des modèles de langage, et nous souhaitons bonne chance à Blake.
Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation.