L’administration Biden serait sur le point de dévoiler la semaine prochaine un vaste décret sur l’intelligence artificielle. Selon Le Washington Post, l’« ordre radical » de la Maison Blanche utiliserait le pouvoir d’achat du gouvernement fédéral pour faire respecter les exigences relatives aux modèles d’IA avant que les agences gouvernementales puissent les utiliser. La commande serait prévue pour le lundi 30 octobre, deux jours avant un sommet international sur la sécurité de l’IA au Royaume-Uni.
L’ordonnance exigerait que les modèles d’IA avancés soient soumis à une série d’évaluations avant que les agences fédérales puissent les adopter. En outre, cela faciliterait l’immigration des travailleurs hautement qualifiés, qui était fortement restreinte sous l’administration Trump. Les agences fédérales, notamment le ministère de la Défense, le ministère de l’Énergie et les services de renseignement, devraient également évaluer la manière dont elles pourraient intégrer l’IA dans leur travail. Le rapport note que les analyses mettraient l’accent sur le renforcement des cyberdéfenses du pays.
Mardi soir, la Maison Blanche aurait envoyé des invitations pour un événement « Intelligence artificielle sûre, sécurisée et digne de confiance » pour le lundi 30 octobre, organisé par le président Biden. Le Washington Post indique que le décret n’est pas finalisé et que les détails pourraient encore changer.
Pendant ce temps, les responsables européens travaillent sur la réglementation de l’IA outre-Atlantique, dans le but d’aboutir à un ensemble de mesures finalisées d’ici la fin de l’année. Le Congrès américain en est également aux premiers stades de l’élaboration d’une réglementation sur l’IA. Le sénateur Charles Schumer (Démocrate de New York) a accueilli mardi les dirigeants de l’IA lors du deuxième forum AI Insights.
La réglementation de l’IA est actuellement l’un des sujets les plus controversés dans le monde de la technologie. L’IA générative a rapidement progressé au cours des deux dernières années avec l’émergence de générateurs d’images comme Midjourney et DALL-E 3, produisant des photos convaincantes qui pourraient être diffusées à des fins de désinformation et de propagande (comme l’ont déjà fait certaines campagnes politiques). Pendant ce temps, ChatGPT d’OpenAI, Claude d’Anthropic, Bard de Google et d’autres chatbots avancés de modèles de langage étendus (LLM) ont sans doute suscité encore plus d’inquiétudes, permettant à quiconque de rédiger des passages de texte assez convaincants tout en répondant à des questions qui peuvent ou non être véridiques. Il existe même des modèles d’IA pour cloner les voix de célébrités.
Outre la désinformation et son impact potentiel sur les élections, l’IA générative suscite également des inquiétudes sur le marché du travail, notamment pour les artistes, graphistes, développeurs et écrivains. Plusieurs médias de premier plan, le plus tristement célèbre CNETont été surpris en train d’utiliser l’IA pour rédiger des articles entiers truffés d’erreurs avec seulement les divulgations les plus subtiles.