La politique technologique américaine doit suivre le rythme de l’innovation en IA

Alors que l’innovation dans le domaine de l’intelligence artificielle (IA) dépasse les cycles de l’actualité et attire l’attention du public, un cadre pour son développement et son utilisation responsables et éthiques est devenu de plus en plus essentiel pour garantir que cette vague technologique sans précédent atteigne son plein potentiel en tant que contribution positive au progrès économique et sociétal. .

L’Union européenne s’est déjà efforcée de promulguer des lois sur l’IA responsable ; J’ai partagé mes réflexions sur ces initiatives il y a près de deux ans. Ensuite, la loi AI, comme on l’appelle, était « une approche objective et mesurée de l’innovation et des considérations sociétales ». Aujourd’hui, les dirigeants d’entreprises technologiques et le gouvernement des États-Unis se réunissent pour élaborer une vision unifiée d’une IA responsable.

La puissance de l’IA générative

La sortie de ChatGPT par OpenAI a captivé l’imagination des innovateurs technologiques, des chefs d’entreprise et du public l’année dernière, et l’intérêt et la compréhension des consommateurs pour les capacités de l’IA générative ont explosé. Cependant, avec la généralisation de l’intelligence artificielle, y compris en tant que question politique, et la propension des humains à expérimenter et à tester des systèmes, la possibilité de désinformation, l’impact sur la vie privée et le risque pour la cybersécurité et les comportements frauduleux risquent de devenir rapidement une réflexion après coup.

Dans un premier effort pour relever ces défis potentiels et garantir une innovation IA responsable qui protège les droits et la sécurité des Américains, la Maison Blanche a annoncé de nouvelles actions pour promouvoir une IA responsable.

Dans une fiche d’information publiée par la Maison Blanche la semaine dernière, l’administration Biden-Harris a décrit trois actions pour « promouvoir l’innovation américaine responsable en matière d’intelligence artificielle (IA) et protéger les droits et la sécurité des personnes ». Ceux-ci inclus:

  • De nouveaux investissements pour alimenter la R&D américaine responsable en IA.
  • Évaluations publiques des systèmes d’IA générative existants.
  • Des politiques visant à garantir que le gouvernement américain donne l’exemple en atténuant les risques liés à l’IA et en exploitant les opportunités de l’IA.

Nouveaux investissements

En ce qui concerne les nouveaux investissements, le financement de 140 millions de dollars de la National Science Foundation pour lancer sept nouveaux instituts nationaux de recherche sur l’IA est dérisoire par rapport à ce qui a été levé par des entreprises privées.

Bien que directionnellement correct, l’investissement du gouvernement américain dans l’IA est globalement microscopique par rapport aux investissements gouvernementaux d’autres pays, à savoir la Chine, qui a commencé à investir en 2017. Il existe une opportunité immédiate d’amplifier l’impact de l’investissement grâce à des partenariats universitaires pour le développement de la main-d’œuvre et la recherche. Le gouvernement devrait financer des centres d’IA aux côtés d’institutions universitaires et d’entreprises déjà à la pointe de la recherche et du développement en IA, en stimulant l’innovation et en créant de nouvelles opportunités pour les entreprises grâce à la puissance de l’IA.

Les collaborations entre les centres d’IA et les meilleures institutions académiques, telles que le Schwarzman College du MIT et l’Institut d’IA expérientielle du Nord-Est, aident à combler le fossé entre la théorie et l’application pratique en réunissant des experts du monde universitaire, de l’industrie et du gouvernement pour collaborer sur des recherches de pointe et projets de développement qui ont des applications dans le monde réel. En s’associant à de grandes entreprises, ces centres peuvent aider les entreprises à mieux intégrer l’IA dans leurs opérations, en améliorant l’efficacité, les économies de coûts et de meilleurs résultats pour les consommateurs.

De plus, ces centres aident à former la prochaine génération d’experts en IA en offrant aux étudiants un accès à une technologie de pointe, une expérience pratique avec des projets du monde réel et le mentorat de leaders de l’industrie. En adoptant une approche proactive et collaborative de l’IA, le gouvernement américain peut contribuer à façonner un avenir dans lequel l’IA améliore, plutôt qu’elle ne remplace, le travail humain. En conséquence, tous les membres de la société peuvent bénéficier des opportunités créées par cette puissante technologie.

Évaluations publiques

L’évaluation des modèles est essentielle pour garantir que les modèles d’IA sont précis, fiables et sans biais, essentiels pour un déploiement réussi dans des applications du monde réel. Par exemple, imaginez un cas d’utilisation de planification urbaine dans lequel l’IA générative est formée sur des villes délimitées avec des populations pauvres historiquement sous-représentées. Malheureusement, cela va juste conduire à plus de la même chose. Il en va de même pour les biais dans les prêts, car de plus en plus d’institutions financières utilisent des algorithmes d’IA pour prendre des décisions de prêt.

Si ces algorithmes sont formés sur des données discriminatoires à l’égard de certains groupes démographiques, ils peuvent injustement refuser des prêts à ces groupes, entraînant des disparités économiques et sociales. Bien qu’il ne s’agisse que de quelques exemples de biais dans l’IA, cela doit rester une priorité, quelle que soit la rapidité avec laquelle les nouvelles technologies et techniques d’IA sont développées et déployées.

Pour lutter contre les préjugés dans l’IA, l’administration a annoncé une nouvelle opportunité d’évaluation de modèles au DEFCON 31 AI Village, un forum permettant aux chercheurs, praticiens et passionnés de se réunir et d’explorer les dernières avancées en matière d’intelligence artificielle et d’apprentissage automatique. L’évaluation du modèle est une initiative collaborative avec certains des acteurs clés de l’espace, notamment Anthropic, Google, Hugging Face, Microsoft, Nvidia, OpenAI et Stability AI, en s’appuyant sur une plate-forme offerte par Scale AI.

En outre, il mesurera dans quelle mesure les modèles s’alignent sur les principes et les pratiques décrits dans le Blueprint for an AI Bill of Rights de l’administration Biden-Harris et le cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology (NIST). Il s’agit d’une évolution positive dans laquelle l’administration s’engage directement auprès des entreprises et capitalise sur l’expertise des leaders techniques du secteur, qui sont devenus des laboratoires d’IA d’entreprise.

Politiques gouvernementales

En ce qui concerne la troisième action concernant les politiques visant à garantir que le gouvernement américain donne l’exemple en atténuant les risques liés à l’IA et en exploitant les opportunités de l’IA, le Bureau de la gestion et du budget doit rédiger des orientations politiques sur l’utilisation des systèmes d’IA par le gouvernement américain pour commentaires publics. . Encore une fois, aucun calendrier ni détails sur ces politiques n’ont été donnés, mais un décret exécutif sur l’équité raciale publié plus tôt cette année devrait être au premier plan.

Le décret comprend une disposition ordonnant aux agences gouvernementales d’utiliser l’IA et les systèmes automatisés d’une manière qui favorise l’équité. Pour que ces politiques aient un impact significatif, elles doivent inclure des incitations et des répercussions ; ils ne peuvent pas être simplement des conseils facultatifs. Par exemple, les normes de sécurité du NIST sont des exigences efficaces pour le déploiement par la plupart des organismes gouvernementaux. Le non-respect de ces règles est, au minimum, incroyablement embarrassant pour les personnes impliquées et justifie une action du personnel dans certaines parties du gouvernement. Les politiques gouvernementales en matière d’IA, dans le cadre du NIST ou autre, doivent être comparables pour être efficaces.

De plus, le coût du respect de ces réglementations ne doit pas être un obstacle à l’innovation axée sur les startups. Par exemple, que peut-on réaliser dans un cadre pour lequel le coût de la conformité réglementaire évolue avec la taille de l’entreprise ? Enfin, à mesure que le gouvernement devient un acheteur important de plates-formes et d’outils d’IA, il est primordial que ses politiques deviennent le principe directeur pour la construction de tels outils. Faites du respect de ces directives une exigence littérale, voire effective, pour l’achat (par exemple, la norme de sécurité FedRamp), et ces politiques peuvent déplacer l’aiguille.

Alors que les systèmes d’IA générative deviennent plus puissants et répandus, il est essentiel que toutes les parties prenantes – y compris les fondateurs, les opérateurs, les investisseurs, les technologues, les consommateurs et les régulateurs – soient réfléchies et intentionnelles dans la poursuite et l’engagement avec ces technologies. Alors que l’IA générative et plus largement l’IA ont le potentiel de révolutionner les industries et de créer de nouvelles opportunités, elles posent également des défis importants, en particulier en ce qui concerne les questions de préjugés, de confidentialité et de considérations éthiques.

Par conséquent, toutes les parties prenantes doivent donner la priorité à la transparence, à la responsabilité et à la collaboration pour garantir que l’IA est développée et utilisée de manière responsable et bénéfique. Cela signifie investir dans la recherche et le développement éthiques de l’IA, s’engager avec diverses perspectives et communautés, et établir des directives et des réglementations claires pour le développement et le déploiement de ces technologies.

Source-146