vendredi, novembre 22, 2024

L’éviction de Sam Altman montre que Biden ne gère pas correctement l’IA

Le développeur de CbatGPT, OpenAI, a annoncé la semaine dernière qu’il avait licencié le PDG Sam Altman en raison d’une perte de confiance du conseil d’administration – pour le voir revenir dans l’entreprise après que 90 % des employés d’OpenAI ont menacé de démissionner. Le licenciement a provoqué une vague d’enthousiasme de la part des entreprises proposant d’égaler les salaires d’OpenAI dans le but d’attirer les meilleurs talents.

La débâcle – et le manque de transparence qui en découle – ont mis en évidence la nécessité de réglementer le développement de l’IA, en particulier en matière de sécurité et de confidentialité. Les entreprises développent rapidement leurs divisions d’intelligence artificielle et un remaniement des talents pourrait propulser une entreprise avant les autres et par rapport aux lois en vigueur. Bien que le président Joe Biden ait pris des mesures à cet effet, il s’est appuyé sur des décrets, qui ne nécessitent pas la contribution du Congrès. Au lieu de cela, ils s’appuient sur les bureaucrates de l’agence pour les interpréter – et pourraient changer lors de l’investiture d’un nouveau président.

Biden a signé cette année un décret relatif à « l’intelligence artificielle sûre, sécurisée et digne de confiance ». Il a ordonné aux sociétés d’IA de « protéger » les travailleurs contre tout « préjudice », vraisemblablement en référence à la perte potentielle de leur emploi. Il a également chargé le Bureau de la gestion et du budget (OMB) et la Commission pour l’égalité des chances en matière d’emploi (EEOC) d’établir, en partie, des structures de gouvernance au sein des agences fédérales. Il a également demandé à la Federal Trade Commission (FTC) de s’auto-évaluer et de déterminer si elle a le pouvoir « d’assurer une concurrence loyale sur le marché de l’IA et de garantir que les consommateurs et les travailleurs sont protégés contre les préjudices qui peuvent être rendus possibles par l’utilisation de l’IA ». .»

Les décrets de Biden ne dureront pas longtemps

Le problème fondamental d’une approche fondée sur le pouvoir exécutif est sa fragilité et sa portée limitée. Comme le montrent les tentatives (largement infructueuses) de la SEC et de la CFTC de classer les crypto-monnaies comme des titres, charger les agences de promulguer des lois peut semer la confusion et l’appréhension parmi les investisseurs et est finalement sujette à l’interprétation des tribunaux.

En relation: La débâcle du WSJ a alimenté la croisade mal informée des législateurs américains contre la cryptographie

Les politiques élaborées par des agences sans soutien législatif manquent également de permanence. Bien que la participation du public soit nécessaire à l’adoption de réglementations soutenues par les agences, le processus législatif permet aux consommateurs d’intelligence artificielle et d’actifs numériques d’avoir une voix plus forte et de contribuer à l’adoption de lois qui traitent des problèmes réels auxquels les utilisateurs sont confrontés – au lieu de problèmes inventés par les utilisateurs. des bureaucrates souvent ambitieux.

L’incapacité de Biden à aborder les implications éthiques complexes de la mise en œuvre de l’IA à grande échelle est dangereuse ; les préoccupations telles que les biais dans les algorithmes, la surveillance et l’invasion de la vie privée sont à peine prises en compte. Ces questions devraient être traitées par le Congrès, composé de responsables élus par le peuple, plutôt que par des agences composées de personnes nommées.

Related: 3 thèses qui propulseront Ethereum et Bitcoin lors du prochain marché haussier

Sans le débat rigoureux requis pour que le Congrès adopte une loi, il n’y a aucune garantie qu’une loi promeuve sécurité et confidentialité pour les utilisateurs quotidiens. Plus précisément, les utilisateurs de l’intelligence artificielle doivent contrôler la manière dont cette technologie automatisée utilise et stocke les données personnelles. Cette préoccupation est particulièrement aiguë dans le domaine de l’IA, où de nombreux utilisateurs ne comprennent pas la technologie sous-jacente et les graves problèmes de sécurité liés au partage d’informations personnelles. En outre, nous avons besoin de lois garantissant que les entreprises effectuent des évaluations des risques et maintiennent leurs systèmes automatisés de manière responsable.

Le recours aux réglementations adoptées par les agences fédérales finira par semer la confusion : les consommateurs se méfieront de l’intelligence artificielle. Ce scénario précis s’est produit avec les actifs numériques après les poursuites judiciaires de la SEC contre Coinbase, Ripple Labs et d’autres institutions impliquées dans la cryptographie, ce qui a rendu certains investisseurs inquiets quant à leur implication dans des sociétés de cryptographie. Un scénario similaire pourrait se produire dans le domaine de l’IA, où la FTC et d’autres agences poursuivront en justice les sociétés d’IA et lieront des questions vitales au système judiciaire pour les années à venir.

Il est impératif que Biden engage le Congrès sur ces questions au lieu de se cacher derrière le pouvoir exécutif. Le Congrès, à son tour, doit se montrer à la hauteur en élaborant une législation qui reflète les préoccupations et les aspirations d’un ensemble diversifié de parties prenantes. Sans de tels efforts de collaboration, les États-Unis risquent de répéter les pièges rencontrés dans le domaine des actifs numériques, potentiellement à la traîne par rapport aux autres pays et de stimuler l’innovation ailleurs. Plus important encore, la sécurité et la vie privée des citoyens américains – ainsi que de nombreux autres citoyens du monde – sont menacées.

John Cahill est associé au sein du bureau de White Plains, New York, du cabinet d’avocats national Wilson Elser. John concentre sa pratique sur les actifs numériques et veille à ce que les clients se conforment aux lois et réglementations en vigueur et en développement. Il est titulaire d’un BA de l’Université de St. Louis et d’un JD de la New York Law School.

Cet article est destiné à des fins d’information générale et n’est pas destiné à être et ne doit pas être considéré comme un conseil juridique ou en investissement. Les points de vue, pensées et opinions exprimés ici appartiennent uniquement à l’auteur et ne reflètent pas ou ne représentent pas nécessairement les points de vue et opinions de Cointelegraph.


source site-11

- Advertisement -

Latest