Les meilleurs chercheurs et PDG de l’IA mettent en garde contre le « risque d’extinction » dans une déclaration de 22 mots

Un groupe de chercheurs, d’ingénieurs et de PDG de haut niveau en IA a émis un nouvel avertissement sur la menace existentielle qu’ils pensent que l’IA représente pour l’humanité.

Le déclaration de 22 motsraccourci pour le rendre aussi largement acceptable que possible, se lit comme suit : « L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire. »

Cette déclaration, publiée par une organisation à but non lucratif basée à San Francisco, le Center for AI Safety, a été cosignée par des personnalités telles que le PDG de Google DeepMind, Demis Hassabis, et le PDG d’OpenAI, Sam Altman, ainsi que Geoffrey Hinton et Youshua Bengio – deux d’entre eux. les trois chercheurs en IA qui ont remporté le prix Turing 2018 (parfois appelé « prix Nobel de l’informatique ») pour leurs travaux sur l’IA. Au moment d’écrire ces lignes, le troisième lauréat de l’année, Yann LeCun, désormais scientifique en chef de l’IA chez Meta, la société mère de Facebook, n’a pas signé.

La déclaration est la dernière intervention de haut niveau dans le débat compliqué et controversé sur la sécurité de l’IA. Plus tôt cette année, une lettre ouverte signée par certaines des mêmes personnes soutenant l’avertissement en 22 mots appelait à une « pause » de six mois dans le développement de l’IA. La lettre a été critiquée à plusieurs niveaux. Certains experts pensaient que cela exagérait le risque posé par l’IA, tandis que d’autres étaient d’accord avec le risque mais pas avec le remède suggéré par la lettre.

Dan Hendrycks, directeur exécutif du Center for AI Safety, dit Le New York Times que la brièveté de la déclaration d’aujourd’hui – qui ne suggère aucun moyen potentiel d’atténuer la menace posée par l’IA – visait à éviter un tel désaccord. « Nous ne voulions pas pousser pour un très grand menu de 30 interventions potentielles », a déclaré Hendrycks. « Lorsque cela se produit, cela dilue le message. »

« Il y a une idée fausse très répandue, même dans la communauté de l’IA, selon laquelle il n’y a qu’une poignée de doomers. »

Hendrycks a décrit le message comme un « coming-out » pour les personnalités de l’industrie préoccupées par le risque lié à l’IA. « Il y a une idée fausse très répandue, même dans la communauté de l’IA, selon laquelle il n’y a qu’une poignée de condamnés », a déclaré Hendrycks. Les temps. « Mais, en fait, de nombreuses personnes exprimeraient en privé leurs inquiétudes à propos de ces choses. »

Les grandes lignes de ce débat sont familières mais les détails souvent interminables, basés sur des scénarios hypothétiques dans lesquels les systèmes d’IA augmentent rapidement leurs capacités et ne fonctionnent plus en toute sécurité. De nombreux experts soulignent les améliorations rapides de systèmes tels que les grands modèles de langage comme preuve des gains futurs prévus en matière d’intelligence. Ils disent qu’une fois que les systèmes d’IA atteignent un certain niveau de sophistication, il peut devenir impossible de contrôler leurs actions.

D’autres doutent de ces prédictions. Ils soulignent l’incapacité des systèmes d’IA à gérer même des tâches relativement banales comme, par exemple, conduire une voiture. Malgré des années d’efforts et des milliards d’investissements dans ce domaine de recherche, les voitures entièrement autonomes sont encore loin d’être une réalité. Si l’IA ne peut même pas relever ce défi, disent les sceptiques, quelle chance la technologie a-t-elle d’égaler toutes les autres réalisations humaines dans les années à venir ?

Pendant ce temps, les défenseurs des risques de l’IA et les sceptiques conviennent que, même sans amélioration de leurs capacités, les systèmes d’IA présentent un certain nombre de menaces à l’heure actuelle – de leur utilisation permettant une surveillance de masse, à l’alimentation d’algorithmes de «police prédictive» défectueux et à la facilitation de la création de mésinformation et de désinformation.

source site-132