Le PDG d’OpenAI, Sam Altman, fera sa première apparition devant le Congrès le 16 mai pour discuter de la réglementation de l’intelligence artificielle (IA) aux États-Unis lors d’une audition sur la surveillance. La responsable de la confidentialité et de la confiance d’IBM témoignera également, Christina Montgomery, qui est membre du Comité consultatif national américain sur l’intelligence artificielle – et le professeur émérite de l’Université de New York, Gary Marcus.
Audience du Sénat américain sur #IA Surveillance, avec @OpenAI PDG @samaIBM @_ChristinaMont et professeur émérite de la NYU. @garymarcusmardi matin 10 HE. https://t.co/VwiR77F52f
– GaryMarcus (@GaryMarcus) 10 mai 2023
Les détails restent rares concernant le déroulement de l’audience ordre du jour. Son titre, « Surveillance de l’IA : Règles pour l’intelligence artificielle », implique que la discussion sera centrée sur la sécurité et la confidentialité, tout comme la liste des participants programmés.
L’audience marquera le premier témoignage officiel d’Altman devant le Congrès, bien qu’il ait récemment assisté à une table ronde avec le vice-président Kamala Harris à la Maison Blanche aux côtés des PDG d’Alphabet, Microsoft et Anthropic.
Marcus de NYU a récemment fait des vagues dans la communauté de l’IA avec sa gorge pleine soutien pour une «pause» communautaire sur le développement de l’IA pendant six mois.
En rapport: Elon Musk et les responsables techniques appellent à une pause dans le développement de l’IA
L’idée d’une pause de l’IA a été définie dans une lettre ouverte publié sur le site Web du Future of Life Institute le 22 mars. Au moment de la publication de cet article, il compte plus de 27 500 signatures.
L’objectif déclaré de la lettre est « d’appeler tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4 ».
Altman et Montgomery font partie de ceux qui s’opposent à la pause.
Pour la part de Montgomery, ses sentiments étaient expliqué dans un article approfondi sur le blog de la société IBM qu’elle a rédigé et intitulé « Ne suspendez pas le développement de l’IA, privilégiez plutôt l’éthique », dans lequel elle plaide en faveur d’une approche plus précise de la réglementation de l’IA :
« Une pause générale dans la formation de l’IA, ainsi que les tendances existantes qui semblent ne pas donner la priorité aux investissements dans les efforts d’éthique de l’industrie de l’IA, ne feront que causer des dommages et des revers supplémentaires. »
Selon un autre article de blog IBM écrit en partie par Montgomery, la société estime que l’IA devrait être réglementée en fonction du risque – il convient de noter qu’à la connaissance de Cointelegraph, IBM ne dispose actuellement d’aucun modèle d’IA génératif destiné au public.
OpenAI, d’autre part, est responsable de ChatGPT, sans doute la technologie d’IA publique la plus populaire qui existe.
Par un entretien avec Lex Fridman lors d’un événement du Massachusetts Institute of Technology, Altman soutient le développement sûr et éthique des systèmes d’IA, mais croit qu’il faut « engager tout le monde dans la discussion » et « mettre ces systèmes au monde ».
Cela laisse Marcus comme la seule valeur aberrante, celui qui a été un fervent partisan de la pause depuis sa première apparition. Bien que Marcus n’ait certes «pas participé à la rédaction» de la lettre de pause, il l’a fait stylo un article de blog intitulé « Est-il temps d’appuyer sur le bouton pause de l’IA ? » près d’un mois avant la publication de la lettre ouverte.
Alors que la prochaine audience du Sénat fonctionnera probablement comme un peu plus qu’un forum permettant aux membres du Congrès de poser des questions, la discussion pourrait avoir des ramifications perturbatrices – selon les experts auxquels vous croyez.
Si le Congrès détermine que la réglementation de l’IA mérite une main lourde, des experts tels que Montgomery craignent que de tels efforts n’aient un effet dissuasif sur l’innovation sans nécessairement répondre aux problèmes de sécurité.
Ce préjudice pourrait se répercuter sur les secteurs d’exploitation où la technologie GPT sous-tend une pléthore de bots et de services. Dans le monde de la fintech, par exemple, les échanges de crypto-monnaie adaptent la technologie des chatbots pour servir leurs clients, effectuer des transactions et analyser le marché.
Cependant, des experts tels que Marcus et Elon Musk inquiétude que le fait de ne pas adopter ce qu’ils considèrent comme une politique de bon sens liée à la surveillance de l’IA pourrait entraîner une crise existentielle pour l’humanité.