samedi, novembre 16, 2024

OpenAI, DeepMind et Anthropic donneront au Royaume-Uni un accès anticipé aux modèles fondamentaux pour la recherche sur la sécurité de l’IA

Suite à l’annonce par le gouvernement britannique la semaine dernière qu’il prévoyait d’organiser un sommet « mondial » sur la sécurité de l’IA cet automne, le Premier ministre Rishi Sunak a lancé la London Tech Week avec une autre information – informant les participants à la conférence qu’OpenAI, Google DeepMind et Anthropic se sont engagés fournir un « accès précoce ou prioritaire » à leurs modèles d’IA pour soutenir la recherche sur l’évaluation et la sécurité.

Sunak a eu une conversion accélérée au sujet de la sécurité de l’IA au cours des dernières semaines, à la suite d’un certain nombre d’interventions de géants de l’IA mettant en garde contre les risques existentiels et même d’extinction que la technologie pourrait poser si elle n’est pas correctement réglementée.

« Nous allons faire de la pointe [AI] recherche sur la sécurité ici au Royaume-Uni », a promis Sunak aujourd’hui. «Avec 100 millions de livres sterling pour notre groupe de travail d’experts, nous consacrons plus de fonds à la sécurité de l’IA que tout autre gouvernement.

Ce groupe de travail sur la sécurité de l’IA se concentrera sur les modèles de base de l’IA, a également déclaré le gouvernement.

« Nous travaillons avec les laboratoires frontaliers – Google DeepMind, OpenAI et Anthropic », a ajouté Sunak. « Et je suis heureux d’annoncer qu’ils se sont engagés à donner un accès précoce ou prioritaire aux modèles à des fins de recherche et de sécurité pour aider à construire de meilleures évaluations et nous aider à mieux comprendre les opportunités et les risques de ces systèmes. »

Le Premier ministre a également réitéré son annonce antérieure du prochain sommet sur la sécurité de l’IA, cherchant à comparer l’effort aux conférences de la COP sur le climat qui visent à obtenir une adhésion mondiale à la lutte contre le changement climatique.

« Tout comme nous nous unissons à travers la COP pour lutter contre le changement climatique, le Royaume-Uni accueillera le tout premier sommet sur la sécurité mondiale de l’IA plus tard cette année », a-t-il déclaré, ajoutant: « Je veux faire du Royaume-Uni non seulement la maison intellectuelle mais la maison géographique , de la réglementation mondiale sur la sécurité de l’IA. »

Évangéliser la sécurité de l’IA est un changement de cap marqué pour le gouvernement de Sunak.

Pas plus tard qu’en mars, il était en mode pom-pom girl IA complet – disant dans un livre blanc alors qu’il favorisait «un approche pro-innovation de la réglementation de l’IA ». L’approche exposée dans le document a minimisé les préoccupations en matière de sécurité en évitant la nécessité de lois sur mesure pour l’intelligence artificielle (ou d’un chien de garde dédié à l’IA) au profit de l’établissement de quelques « principes flexibles ». Le gouvernement a également suggéré que la surveillance des applications d’IA soit assurée par des organismes de réglementation existants tels que l’organisme de surveillance antitrust et l’autorité de protection des données.

Avance rapide de quelques mois et Sunank parle maintenant de vouloir que le Royaume-Uni abrite un organisme mondial de surveillance de la sécurité de l’IA. Ou, du moins, qu’il souhaite que le Royaume-Uni s’approprie la conversation sur la sécurité de l’IA en dominant la recherche sur la façon d’évaluer les résultats des algorithmes d’apprentissage.

Les développements rapides de l’IA générative combinés aux déclarations publiques d’une gamme de géants de la technologie et de personnalités de l’industrie de l’IA avertissant que la technologie pourrait devenir incontrôlable semblent avoir conduit à une refonte rapide de la stratégie à Downing Street.

Il est également à noter que les géants de l’IA ont prêté l’oreille à Sunak en personne ces dernières semaines, avec des réunions entre le Premier ministre et les PDG d’OpenAI, DeepMind et Anthropic peu de temps avant que la musique d’ambiance du gouvernement sur l’IA ne change.

Si ce trio de géants de l’IA respecte ses engagements de fournir au Royaume-Uni un accès avancé à leurs modèles, il y a une chance pour le pays de mener des recherches sur le développement de techniques d’évaluation et d’audit efficaces – y compris avant que tout régime de surveillance législative exigeant la transparence algorithmique n’ait tourné ailleurs (le projet de loi sur l’IA de l’Union européenne ne devrait pas entrer en vigueur avant 2026, par exemple ; bien que la loi sur les services numériques de l’UE soit déjà en vigueur et exige déjà une certaine transparence algorithmique de la part des géants de la technologie).

Dans le même temps, il existe un risque que le Royaume-Uni se rende vulnérable à la capture par l’industrie de ses efforts naissants en matière de sécurité de l’IA. Et si les géants de l’IA arrivent à dominer la conversation autour de la recherche sur la sécurité de l’IA en fournissant un accès sélectif à leurs systèmes, ils pourraient être bien placés pour façonner les futures règles britanniques sur l’IA qui s’appliqueraient à leurs entreprises.

L’implication étroite des géants de la technologie de l’IA dans la recherche financée par des fonds publics sur la sécurité de leurs technologies commerciales avant que tout cadre de sécurité de l’IA juridiquement contraignant ne leur soit appliqué suggère qu’ils auront au moins la possibilité de définir la manière dont la sécurité de l’IA est envisagée et quels composants, sujets et les thèmes sont priorisés (et qui, par conséquent, sont minimisés). Et en influençant le type de recherche qui se produit, car cela peut dépendre du degré d’accès qu’elles fournissent.

Pendant ce temps, les éthiciens de l’IA avertissent depuis longtemps que les craintes qui font la une des journaux concernant les risques que les IA « superintelligentes » pourraient poser aux humains noient les discussions sur les dommages réels que les technologies d’IA existantes génèrent déjà, notamment les préjugés et la discrimination, l’atteinte à la vie privée, la violation du droit d’auteur et les ressources environnementales exploitation.

Ainsi, alors que le gouvernement britannique peut considérer l’adhésion des géants de l’IA comme un coup d’État de relations publiques, si le sommet sur l’IA et les efforts plus larges de sécurité de l’IA doivent produire des résultats solides et crédibles, il doit garantir la participation de chercheurs indépendants, de groupes de la société civile et de groupes qui sont disproportionnellement exposées aux dommages causés par l’automatisation, pas seulement pour annoncer son plan de partenariat entre les «compagnies d’IA brillantes» et les universitaires locaux – étant donné que la recherche universitaire dépend déjà souvent du financement des géants de la technologie.

Source-146

- Advertisement -

Latest