Plus tôt cette semaine, nous avons rendu compte de la lettre ouverte du Future of Life Institute (FLI) appelant à une pause de six mois sur la formation de systèmes d’IA « plus puissants » que le Chat GPT-4 récemment publié. La lettre a été signée par des personnalités comme Elon Musk, Steve Wozniak et le fondateur de Stability AI, Emad Mostaque. Le gardien (s’ouvre dans un nouvel onglet) rapporte cependant que la lettre fait l’objet de critiques sévères de la part des sources mêmes qu’elle cite.
« Sur les dangers des perroquets stochastiques (s’ouvre dans un nouvel onglet) » est un article influent critiquant les coûts environnementaux et les biais inhérents aux grands modèles de langage comme Chat GPT, et l’article est l’une des principales sources citées par la lettre ouverte de la semaine dernière. Co-auteur Margaret Mitchell, qui dirigeait auparavant la recherche éthique sur l’IA chez Google, a déclaré à Reuters qu' »en traitant de nombreuses idées douteuses comme des données, la lettre affirme un ensemble de priorités et un récit sur l’IA qui profite aux partisans du FLI ».
Mitchell poursuit : « Ignorer les dommages actifs en ce moment est un privilège que certains d’entre nous n’ont pas. »
Shiri Dori-Hacohen, professeur adjoint à l’Université du Connecticut, dont les travaux ont également été cités dans la lettre du FLI, a eu des mots tout aussi durs. « L’IA n’a pas besoin d’atteindre l’intelligence au niveau humain pour exacerber ces risques », a-t-elle déclaré à Reuters, faisant référence à des défis existentiels comme le changement climatique, ajoutant en outre qu' »il existe des risques non existentiels qui sont vraiment, vraiment importants, mais ne Je ne reçois pas le même genre d’attention qu’à Hollywood. »
Le Future of Life Institute a reçu 3 531 696 € (4 177 996 $ à l’époque) de financement de la Fondation Musk (s’ouvre dans un nouvel onglet) en 2021, son plus grand donateur coté. Elon Musk lui-même, quant à lui, a cofondé le créateur de Chat GPT, Open AI, avant de quitter l’entreprise en mauvais termes en 2018, comme l’a rapporté Forbes. (s’ouvre dans un nouvel onglet). Un rapport de Vice (s’ouvre dans un nouvel onglet) note que plusieurs signataires de la lettre du FLI se sont avérés être des faux, dont le scientifique en chef de l’IA de Meta, Yann LeCun et, ah, le président chinois Xi Jinping ? FLI a depuis mis en place un processus de vérification de chaque nouveau signataire.
Le 31 mars, les auteurs de « Sur les dangers des perroquets stochastiques », dont Mitchell, le professeur de linguistique Emlily M. Bender, l’informaticien Timni Gebru et la linguiste Angelina McMillan-Major, ont publié une réponse officielle. (s’ouvre dans un nouvel onglet) à la lettre ouverte du FLI via l’institut de recherche éthique sur l’IA DAIR. « Les méfaits de la soi-disant IA sont réels et présents et découlent des actes de personnes et d’entreprises déployant des systèmes automatisés », indique le résumé de la lettre. « Les efforts de réglementation devraient se concentrer sur la transparence, la responsabilité et la prévention des pratiques de travail abusives. »
Les chercheurs reconnaissent certaines mesures proposées par la lettre du FLI avec lesquelles ils sont d’accord, mais déclarent que « celles-ci sont éclipsées par l’alarmisme et le battage médiatique de l’IA, qui orientent le discours vers les risques d’imaginaires » puissants esprits numériques « avec » l’intelligence compétitive humaine « . » Les dangers les plus immédiats et les plus urgents de la technologie de l’IA, selon eux, sont :
Les auteurs de Stochastic Parrot soulignent que le FLI souscrit à l’école philosophique « longtermiste » qui est devenue extrêmement populaire parmi les sommités de la Silicon Valley ces dernières années, une idéologie qui privilégie le bien-être des humains théoriques du futur lointain (des milliards d’entre eux, soi-disant) sur le réellement les personnes existantes d’aujourd’hui.
Vous connaissez peut-être le terme de la saga en cours de l’effondrement de l’échange de crypto FTC et de son chef en disgrâce, Sam Bankman-Fried (s’ouvre dans un nouvel onglet), qui a été franc dans son plaidoyer en faveur de « l’altruisme efficace » pour les futurs humains qui devront faire face à la Singularité et autres. Pourquoi s’inquiéter du changement climatique et de l’approvisionnement alimentaire mondial alors qu’il faut s’assurer que les sphères Dyson de 5402 AD ne font pas face à un nanobot « Grey Goo (s’ouvre dans un nouvel onglet)« Scénario d’apocalypse !
Les auteurs du Stochastic Parrot résument effectivement leur cas vers la fin de la lettre : « Contrairement à la [FLI letter’s] récit selon lequel nous devons « nous adapter » à un avenir technologique apparemment prédéterminé et faire face « aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA entraînera », nous ne sommes pas d’accord sur le fait que notre rôle est de nous adapter aux priorités de quelques privilégiés et ce qu’ils décident de construire et de faire proliférer. »
Au lieu de cela, les auteurs de la lettre affirment : « Nous devrions construire des machines qui fonctionnent pour nous, au lieu d' »adapter » la société pour qu’elle soit lisible et inscriptible par machine. La course actuelle vers des « expériences d’IA » toujours plus vastes n’est pas une voie prédéterminée où notre seul choix est la vitesse à laquelle courir, mais plutôt un ensemble de décisions motivées par la recherche du profit. »