Altman d’OpenAI et d’autres géants de l’IA soutiennent l’avertissement de l’IA avancée comme risque d' »extinction »

Faites place à une autre intervention politique sur l’IA qui fait la une des journaux : des centaines de scientifiques de l’IA, d’universitaires, de PDG de la technologie et de personnalités publiques – du PDG d’OpenAI Sam Altman et du PDG de DeepMind Demis Hassabis à l’informaticien vétéran de l’IA Geoffrey Hinton, Max Tegmark du MIT et Skype co- le fondateur Jaan Tallinn de Grimes, le musicien et podcasteur populiste Sam Harris, pour n’en nommer que quelques-uns – ont ajouté leurs noms à une déclaration appelant l’attention mondiale sur le risque existentiel de l’IA.

La déclaration, qui est hébergée sur le site Web d’un organisme à but non lucratif basé à San Francisco et financé par des fonds privés appelé Center for AI Safety (CAIS), cherche à assimiler le risque d’IA aux dommages existentiels posés par l’apocalypse nucléaire et appelle pour que les décideurs politiques concentrent leur attention sur l’atténuation de ce qu’ils prétendent être le risque d’extinction de l’IA « apocalyptique ».

Voici leur déclaration (intentionnellement brève) dans son intégralité :

L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire.

Selon un bref explicatif sur le site Web du PCSRA, la déclaration est restée « succincte » parce que ceux qui la sous-tendent sont soucieux d’éviter que leur message sur « certains des risques les plus graves de l’IA avancée » ne soit noyé par une discussion sur d’autres « risques importants et urgents de l’IA ». « , ce qui, selon eux, entrave la discussion sur le risque d’extinction de l’IA.

Cependant, nous avons en fait entendu les mêmes préoccupations exprimées à haute voix et à plusieurs reprises au cours des derniers mois, alors que le battage médiatique de l’IA a bondi à la suite d’un accès élargi à des outils d’IA génératifs tels que ChatGPT et DALL-E d’OpenAI – conduisant à une surabondance de titres. une discussion passionnante sur le risque d’IA tueuses « superintelligentes ». (Comme celui-ci, du début du mois, où le signataire de la déclaration Hinton a mis en garde contre la « menace existentielle » de la prise de contrôle de l’IA. Ou celui-ci, de la semaine dernière, où Altman a appelé à une réglementation pour empêcher l’IA de détruire l’humanité.)

Il y avait aussi la lettre ouverte signée par Elon Musk (et des dizaines d’autres) en mars qui appelait à une pause de six mois sur le développement de modèles d’IA plus puissants que le GPT-4 d’OpenAI pour laisser le temps à des protocoles de sécurité partagés d’être conçus et appliqué à l’IA avancée – avertissement sur les risques posés par « des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ».

Ainsi, ces derniers mois, il y a eu un déluge d’avertissements très médiatisés sur les risques d’IA qui n’existent pas encore.

Ce battement de tambour de gros titres hystériques a sans doute détourné l’attention d’un examen plus approfondi des dommages existants. Tels que l’utilisation gratuite par les outils de données protégées par le droit d’auteur pour former des systèmes d’IA sans autorisation ni consentement (ou paiement) ; ou le grattage systématique des données personnelles en ligne en violation de la vie privée des personnes ; ou le manque de transparence des géants de l’IA vis-à-vis des données utilisées pour former ces outils. Ou, en effet, fourré dans des défauts comme la désinformation (« hallucination ») et des risques comme les préjugés (discrimination automatisée). Sans parler du spam généré par l’IA ! Et le bilan environnemental de l’énergie dépensée pour entraîner ces monstres de l’IA.

Il est certainement remarquable qu’après une réunion la semaine dernière entre le Premier ministre britannique et un certain nombre de grands dirigeants de l’IA, dont Altman et Hassabis, le gouvernement semble changer de cap sur la réglementation de l’IA – avec un vif intérêt soudain pour le risque existentiel, selon le Guardian. rapports.

Parler du risque existentiel de l’IA détourne également l’attention des problèmes liés à la structure et à la domination du marché, comme l’a souligné Jenna Burrell, directrice de la recherche chez Data & Society, dans ce récent article de Columbia Journalism Review examinant la couverture médiatique de ChatGPT – où elle a soutenu que nous devons s’éloigner de la focalisation sur les faux-fuyants comme la « sensibilité » potentielle de l’IA pour couvrir la façon dont l’IA concentre davantage la richesse et le pouvoir.

Donc, bien sûr, il y a des motivations commerciales claires pour les géants de l’IA de vouloir diriger l’attention réglementaire vers un avenir théorique lointain, en parlant d’un jour apocalyptique axé sur l’IA – comme tactique pour détourner l’esprit des législateurs de la concurrence plus fondamentale et des considérations antitrust dans l’ici et maintenant. (Et l’exploitation des données comme outil de concentration du pouvoir de marché n’a rien de nouveau.)

Cela en dit certainement long sur les structures de pouvoir existantes de l’IA que les responsables techniques des géants de l’IA, notamment OpenAI, DeepMind, Stability AI et Anthropic, sont si heureux de se regrouper et de discuter ensemble lorsqu’il s’agit d’amplifier publiquement les discussions sur le risque existentiel de l’IA. Et combien plus réticents à se réunir pour discuter des méfaits que leurs outils peuvent causer en ce moment.

OpenAI était un non-signataire notable de la lettre ouverte susmentionnée (signée par Musk), mais un certain nombre de ses employés soutiennent la déclaration hébergée par le PCSRA (alors que Musk ne l’est apparemment pas). Ainsi, la dernière déclaration semble offrir une réponse (non officielle) commercialement intéressée par OpenAI (et al) à la tentative antérieure de Musk de détourner le récit des risques existentiels de l’IA dans son propre intérêt (qui ne favorise plus OpenAI à la tête de la charge de l’IA).

Au lieu de la déclaration appelant à une pause de développement, ce qui risquerait de geler l’avance d’OpenAI dans le domaine de l’IA générative, elle fait pression sur les décideurs politiques pour qu’ils se concentrent sur l’atténuation des risques – ce faisant, alors qu’OpenAI finance simultanément des efforts de financement participatif pour façonner des « processus démocratiques de pilotage de l’IA », comme Altman l’a dit. Ainsi, la société se positionne activement (et utilise la richesse de ses investisseurs) pour influencer la forme de tout futur garde-corps d’atténuation, parallèlement aux efforts de lobbying en personne ciblant les régulateurs internationaux. Altman a également récemment menacé publiquement que l’outil d’OpenAI pourrait être retiré d’Europe si le projet de règles européennes sur l’IA n’était pas édulcoré pour exclure sa technologie.

Ailleurs, certains signataires de la lettre précédente ont simplement été heureux de doubler une autre opportunité de publicité – en inscrivant leur nom aux deux (salut Tristan Harris !).

Mais qui est le PCSRA? Les informations publiques sur l’organisation qui héberge ce message sont limitées. Cependant, il est certainement impliqué dans le lobbying des décideurs politiques, de son propre aveu. Son site Web indique que sa mission est de « réduire les risques à l’échelle de la société liés à l’IA » et affirme qu’il se consacre à encourager la recherche et le développement sur le terrain à cette fin, y compris le financement de la recherche – ainsi qu’à avoir un rôle de plaidoyer politique déclaré.

Une FAQ sur le site Web offre des informations limitées sur qui le soutient financièrement (en disant qu’il est financé par des dons privés). Alors qu’en réponse à une question de la FAQ demandant « le PCSRA est-il une organisation indépendante », il propose une brève affirmation selon laquelle « servir l’intérêt public » :

CAIS est une organisation à but non lucratif entièrement financée par des contributions privées. Nos politiques et nos orientations de recherche ne sont pas déterminées par des donateurs individuels, ce qui garantit que notre objectif reste de servir l’intérêt public.

Nous avons contacté le PCSRA avec des questions.

Dans un fil Twitter accompagnant le lancement de la déclaration, le directeur du PCSRA, Dan Hendrycks, développe l’explicateur de déclaration susmentionné – nommant « les préjugés systémiques, la désinformation, l’utilisation malveillante, les cyberattaques et la militarisation » comme exemples de « risques importants et urgents de l’IA ». … pas seulement le risque d’extinction ».

« Ce sont tous des risques importants qui doivent être traités », suggère-t-il également, minimisant les décideurs ont une bande passante limitée pour lutter contre les méfaits de l’IA en affirmant : « Les sociétés peuvent gérer plusieurs risques à la fois ; ce n’est pas ‘soit/ou’ mais ‘oui/et’. Du point de vue de la gestion des risques, tout comme il serait imprudent de prioriser exclusivement les dommages actuels, il serait également imprudent de les ignorer également.

Le fil de discussion attribue également à David Krueger, professeur adjoint d’informatique à l’Université de Cambridge, l’idée d’avoir une déclaration en une seule phrase sur les risques liés à l’IA et d’aider « conjointement » à son développement.

Source-146