Le comité des communications et du numérique de la Chambre des Lords a rencontré aujourd’hui Rob Sherman, vice-président de la politique et directeur adjoint de la confidentialité chez Meta, et Owen Larter, directeur de la politique publique mondiale de l’IA responsable chez Microsoft, pour discuter des grands modèles de langage et de certains des plus larges. implications de l’IA. Au cours d’une discussion approfondie au cours de laquelle beaucoup de mots ont été prononcés et peu d’informations réelles transmises, un élément particulier a retenu notre attention.
Interrogée directement par la présidente du comité, la baronne Stowell de Beeston, si l’une ou l’autre des sociétés était capable de rappeler un modèle d’IA s’il avait été « identifié comme dangereux », ou d’empêcher son déploiement ultérieur et comment cela pourrait fonctionner, Rob Sherman a donné une réponse quelque peu décousue :
« Je pense que cela dépend de la technologie et de la manière dont elle est utilisée… l’une des choses très importantes est de réfléchir à ces choses dès le départ avant leur publication… il y a un certain nombre d’autres mesures que nous pouvons prendre, donc par exemple, une fois qu’un modèle est publié, ce que nous appelons un déployeur du modèle doit faire beaucoup de travail, il n’y a donc pas qu’un seul acteur responsable du déploiement de cette technologie…
« Quand nous avons libéré Llama, [we] publier un guide d’utilisation responsable qui explique les étapes qu’un déployeur de la technologie peut suivre pour s’assurer qu’elle est utilisée en toute sécurité, et qui inclut des choses comme ce que nous appelons un réglage fin, qui consiste à prendre le modèle et à s’assurer qu’il est utilisé de manière appropriée… puis filtrer également les résultats pour s’assurer que lorsque quelqu’un l’utilise à des fins finales, le modèle est utilisé de manière responsable et réfléchie.
De son côté, Owen Larter de Microsoft n’a pas répondu du tout, même si, en toute honnêteté, la discussion était vaste et quelque peu poussée par le temps. Quoi qu’il en soit, le fait que le représentant de Meta n’ait pas répondu directement à la question, mais a plutôt décliné sa réponse en un point plus large sur l’utilisation responsable par autrui n’est pas entièrement surprenant.
Beaucoup de choses ont été dites au cours du débat sur la nécessité d’une gestion prudente des modèles d’IA, ainsi que sur les risques et préoccupations potentiels que cette nouvelle technologie peut créer.
Cependant, au-delà de quelques concessions symboliques aux politiques d’utilisation émergentes et aux partenariats créés pour discuter de la question, le débat est rapidement devenu confus alors que les deux représentants ont eu du mal à définir certains points sur ce dont ils débattaient.
Comme Rob Sherman l’a dit utilement plus tôt dans la discussion concernant les risques potentiels d’une utilisation irresponsable de l’IA :
« Quels sont les risques auxquels nous réfléchissons, quels sont les outils dont nous disposons pour évaluer si ces risques existent, et ensuite quelles sont les choses que nous devons faire pour les atténuer »
Même si les deux participants semblaient être d’accord sur le fait qu’il y avait une « conversation à avoir » sur les questions discutées, aucun des deux ne semblait particulièrement désireux d’avoir cette conversation, vous savez, maintenant. Chaque question a reçu une réponse rapide avec un flux rapide de politiques potentielles, de futurs mécanismes d’évaluation des risques et de certaines mesures actuellement mal définies déjà prises, dont la somme totale semble équivaloir à « nous y travaillons ».
Tout cela ne rassurera guère ceux qui s’inquiètent des implications considérables de l’IA et des risques potentiels liés à la création et à la diffusion d’une technologie que même les entreprises qui la créent ont du mal à cerner en termes significatifs.
Aujourd’hui, c’est peut-être l’occasion d’établir des plans fermes sur la manière de réglementer cet outil de plus en plus important, mais au-delà de quelques concessions en faveur de « protections de sécurité » et d’une « approche globalement cohérente », il semble que les progrès soient lents en ce qui concerne contrôler et réguler l’IA de manière significative.