Un comité gouvernemental britannique a directement demandé aux patrons de Microsoft et de Meta si un « modèle d’IA est identifié comme étant dangereux » pourraient-ils s’en souvenir. Ils ont presque entièrement esquivé la question

Abstract image with a wireframe humanoid face on a digital art background

Le comité des communications et du numérique de la Chambre des Lords a rencontré aujourd’hui Rob Sherman, vice-président de la politique et directeur adjoint de la confidentialité chez Meta, et Owen Larter, directeur de la politique publique mondiale de l’IA responsable chez Microsoft, pour discuter des grands modèles de langage et de certains des plus larges. implications de l’IA. Au cours d’une discussion approfondie au cours de laquelle beaucoup de mots ont été prononcés et peu d’informations réelles transmises, un élément particulier a retenu notre attention.

Interrogée directement par la présidente du comité, la baronne Stowell de Beeston, si l’une ou l’autre des sociétés était capable de rappeler un modèle d’IA s’il avait été « identifié comme dangereux », ou d’empêcher son déploiement ultérieur et comment cela pourrait fonctionner, Rob Sherman a donné une réponse quelque peu décousue :

Source-67