Le décret de Biden sur l’IA est « certainement un défi » pour l’IA open source — Insiders de l’industrie

La semaine dernière, l’administration du président américain Joe Biden a publié un long décret visant à protéger les citoyens, les agences gouvernementales et les entreprises en garantissant les normes de sécurité de l’IA.

L’ordonnance a établi six nouvelles normes pour la sûreté et la sécurité de l’IA, ainsi que des intentions pour une utilisation éthique de l’IA au sein des agences gouvernementales. Biden a déclaré que l’ordre était conforme aux propres principes du gouvernement de « sûreté, sécurité, confiance et ouverture ».

Il comprend des mandats ambitieux tels que le partage des résultats des tests de sécurité avec les responsables des entreprises développant « tout modèle de fondation qui présente un risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales » et « l’accélération du développement et de l’utilisation de la protection de la vie privée ». techniques de préservation. »

Cependant, le manque de détails accompagnant de telles déclarations a amené de nombreux acteurs du secteur à se demander comment cela pourrait potentiellement empêcher les entreprises de développer des modèles de premier plan.

Adam Struck, associé fondateur de Struck Capital et investisseur en IA, a déclaré à Cointelegraph que la commande montre un niveau de « sérieux autour du potentiel de l’IA à remodeler chaque industrie ».

Il a également souligné que pour les développeurs, il est délicat d’anticiper les risques futurs conformément à la législation en se basant sur des hypothèses concernant des produits qui ne sont pas encore complètement développés.

« C’est certainement un défi pour les entreprises et les développeurs, en particulier dans la communauté open source, où le décret était moins directif. »

Cependant, il a déclaré que l’intention de l’administration de gérer les lignes directrices par l’intermédiaire des chefs de l’IA et des conseils de gouvernance de l’IA dans des agences de réglementation spécifiques signifie que les entreprises qui construisent des modèles au sein de ces agences devraient avoir une « compréhension approfondie des cadres réglementaires » de cette agence.

« Les entreprises qui continuent d’accorder de l’importance à la conformité et à la confidentialité des données ainsi qu’à des fondements algorithmiques impartiaux devraient fonctionner dans le cadre d’un paradigme avec lequel le gouvernement est à l’aise. »

Le gouvernement a déjà libéré plus de 700 cas d’utilisation sur la manière dont il utilise l’IA en interne via son site Web « ai.gov ».

Martin Casado, associé commandité de la société de capital-risque Andreessen Horowitz, a publié sur X, anciennement Twitter, qu’il avait envoyé, avec plusieurs chercheurs, universitaires et fondateurs du secteur de l’IA, une lettre à l’administration Biden concernant son potentiel de restriction de l’open source. IA.

« Nous sommes convaincus que l’open source est le seul moyen de garantir la sécurité des logiciels et de les libérer du monopole. S’il vous plaît, aidez à amplifier », a-t-il écrit.

La lettre qualifie le décret de « trop large » dans sa définition de certains types de modèles d’IA et exprime les craintes que les petites entreprises se retrouvent empêtrées dans les exigences nécessaires à d’autres entreprises plus grandes.

Jeff Amico, responsable des opérations chez Gensyn AI, a également exprimé un sentiment similaire, le qualifiant de « terrible » pour l’innovation aux États-Unis.

En rapport: Adobe, IBM et Nvidia se joignent aux efforts du président américain Biden pour prévenir les abus de l’IA

Struck a également souligné ce point, affirmant que même si la clarté de la réglementation peut être « utile pour les entreprises qui créent des produits axés sur l’IA », il est également important de noter que les objectifs des « Big Tech » comme OpenAI ou Anthropic diffèrent grandement de ceux de l’IA en phase de démarrage. startups.

« J’aimerais voir les intérêts de ces entreprises en phase de démarrage représentés dans les conversations entre le gouvernement et le secteur privé, car cela peut garantir que les directives réglementaires ne sont pas trop favorables aux seules plus grandes entreprises du monde. »

Matthew Putman, PDG et co-fondateur de Nanotronics – un leader mondial de la fabrication basée sur l’IA, a également déclaré à Cointelegraph que l’ordonnance signale la nécessité de cadres réglementaires garantissant la sécurité des consommateurs et le développement éthique de l’IA à une échelle plus large.

« La manière dont ces cadres réglementaires sont mis en œuvre dépend désormais des interprétations et des actions des régulateurs », a-t-il déclaré.

« Comme nous l’avons constaté avec la crypto-monnaie, des contraintes sévères ont entravé l’exploration d’applications potentiellement révolutionnaires. »

Putman a déclaré que les craintes concernant le potentiel « apocalyptique » de l’IA sont « exagérées par rapport à ses perspectives d’impact positif à court terme ».

Il a déclaré qu’il était plus facile pour ceux qui ne sont pas directement impliqués dans le développement de la technologie de construire des récits autour de dangers hypothétiques sans vraiment observer les applications « véritablement innovantes », qui, selon lui, se déroulent hors de la vue du public.

Des secteurs tels que la fabrication de pointe, la biotechnologie et l’énergie sont, selon les mots de Putman, « à l’origine d’une révolution en matière de durabilité » avec de nouveaux contrôles de processus autonomes qui améliorent considérablement les rendements et réduisent les déchets et les émissions.

« Ces innovations n’auraient pas été découvertes sans une exploration ciblée de nouvelles méthodes. En termes simples, l’IA est bien plus susceptible de nous bénéficier que de nous détruire.

Alors que le décret est encore récent et que les initiés du secteur s’empressent d’analyser ses intentions, l’Institut national des normes et de la technologie (NIST) des États-Unis et le ministère du Commerce ont déjà commencé à solliciter des membres pour son nouveau programme de sécurité de l’intelligence artificielle (IA). Consortium de l’Institut.

Revue: « L’IA a tué l’industrie » : le patron d’EasyTranslate parle de son adaptation au changement