Ce matin, le sous-comité sénatorial sur la vie privée, la technologie et la loi a tenu une audition avec des experts de l’IA, dont le PDG d’OpenAI, Sam Altman, pour discuter des dangers de l’IA et de la manière dont elle devrait être réglementée. (s’ouvre dans un nouvel onglet)
L’audience de près de trois heures (s’ouvre dans un nouvel onglet) présentait les pièges habituels des audiences du comité, les législateurs posant des questions difficiles et une quantité prévisible de théâtralité. Voici quelques moments qui se sont démarqués :
Le président du sous-comité, le sénateur Richard Blumenthal, a commencé l’audience en diffusant un enregistrement de lui-même en train de prononcer son allocution d’ouverture. Cependant, il s’est avéré que le discours n’était pas réellement celui qui parlait, mais plutôt un outil de clonage de voix d’IA formé à l’aide de ses discours passés. Le sénateur avait demandé à l’IA générative d’écrire des remarques liminaires basées sur son historique de défense des droits des consommateurs et de la confidentialité des données. Tout en faisant preuve d’humour, le sénateur Blumenthal a changé de ton pour faire remarquer les dangers potentiels des outils de clonage de voix tombant entre de mauvaises mains. (s’ouvre dans un nouvel onglet)
Poursuivant sur le thème de l’IA faisant son travail, la sénatrice Marsha Blackburn du Tennessee a déclaré qu’elle avait demandé à ChatGPT si le Congrès devait réglementer l’IA. Le chatbot AI a donné « quatre avantages, quatre inconvénients, et finalement la décision appartient au Congrès et mérite un examen attentif », a-t-elle déclaré. Elle a ensuite pressé Altman sur les efforts d’OpenAI pour protéger le travail des artistes contre la violation du droit d’auteur.
À ce sujet, Altman a suggéré que les propriétaires de contenu devraient bénéficier d’un « avantage positif significatif » si leurs contenus protégés par le droit d’auteur sont utilisés pour former des modèles d’IA. Il a également déclaré que les artistes devraient avoir la possibilité de refuser que leur voix, leurs chansons, leurs images et leur ressemblance soient utilisées pour former des IA. OpenAI crée un nouveau système de droit d’auteur pour payer les artistes chaque fois que des œuvres générées par l’IA incorporent leur matériel.
Le sénateur Lindsey Graham de Caroline du Sud a interrogé Altman sur l’utilisation militaire potentielle de l’IA, en particulier si « l’IA pourrait créer une situation dans laquelle un drone pourrait sélectionner lui-même une cible ». Altman a répondu qu’il pensait que « nous ne devrions pas permettre cela ». Lorsqu’on lui a demandé si cela pouvait être fait, Altman a répondu: « Bien sûr. »
Génial.
Dans un échange quelque peu étrange, le sénateur John Kennedy de Louisiane a demandé à Altman s’il gagnait beaucoup d’argent. Altman a répondu qu’il payait suffisamment pour l’assurance maladie mais qu’il n’avait « aucune équité dans OpenAI » et qu’il faisait le travail parce qu’il adorait ça. Le sénateur a suggéré en plaisantant qu’Altman « prenne un avocat ou un agent ».
Il est intéressant de voir le gouvernement américain au moins examiner les dommages potentiels que les entreprises d’IA peuvent causer si elles ne sont pas réglementées. Le Parlement européen est allé un peu plus loin la semaine dernière en votant une proposition (s’ouvre dans un nouvel onglet) pour « s’assurer que les systèmes d’IA sont supervisés par des personnes, sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement », bien que la manière exacte dont tout cela sera appliqué reste une question ouverte pour l’instant. Dans le même ordre d’idées, le Dr Geoffrey Hinton, le « parrain de l’apprentissage en profondeur » (s’ouvre dans un nouvel onglet) » qui a récemment quitté son poste de chercheur en intelligence artificielle chez Google, a également averti début mai que de tels systèmes ne devraient plus être mis à l’échelle « jusqu’à ce qu’ils aient compris s’ils peuvent le contrôler ».
Pour le plaisir, j’ai demandé à ChatGPT si l’audience d’aujourd’hui du sous-comité sénatorial sur l’IA était bonne pour l’industrie de l’IA, et il m’a dit que l’impact n’était peut-être pas « immédiatement apparent », mais qu’il avait le « potentiel d’être une force positive pour le développement ». et l’utilisation responsable de l’IA à l’avenir. »
C’est une bonne réponse politique, je pense. Mais était-ce juste pour me dire ce que je voulais entendre ? Vous savez, puisque parfois les chatbots IA mentent directement aux gens. (s’ouvre dans un nouvel onglet)