jeudi, décembre 19, 2024

Les entreprises d’IA seraient tenues de divulguer les données de formation protégées par le droit d’auteur en vertu d’un nouveau projet de loi

Deux législateurs ont déposé un projet de loi obligeant les créateurs de modèles de fondation à divulguer les sources des données de formation afin que les détenteurs de droits d’auteur sachent que leurs informations ont été prises. Le Loi sur la transparence du modèle de la Fondation AI – déposé par les représentants Anna Eshoo (D-CA) et Don Beyer (D-VA) – ordonnerait à la Federal Trade Commission (FTC) de travailler avec le National Institute of Standards and Technology (NIST) pour établir des règles de reporting sur la transparence des données de formation.

Les entreprises qui créent des modèles de base devront signaler les sources de données de formation et la manière dont les données sont conservées pendant le processus d’inférence, décrire les limites ou les risques du modèle, comment le modèle s’aligne sur le cadre de gestion des risques d’IA prévu par le NIST et toute autre norme fédérale. pourraient être établis et fournir des informations sur la puissance de calcul utilisée pour entraîner et exécuter le modèle. Le projet de loi stipule également que les développeurs d’IA doivent signaler leurs efforts à « l’équipe rouge » du modèle pour l’empêcher de fournir des « informations inexactes ou nuisibles » sur des questions médicales ou liées à la santé, la synthèse biologique, la cybersécurité, les élections, le maintien de l’ordre, les décisions de prêt financier, l’éducation, les décisions en matière d’emploi, les services publics et les populations vulnérables telles que les enfants.

« Avec l’augmentation de l’accès du public à l’intelligence artificielle, il y a eu une augmentation des poursuites judiciaires et des inquiétudes du public concernant la violation du droit d’auteur », indique le projet de loi. « L’utilisation publique des modèles de fondation a conduit à d’innombrables cas où le public s’est vu présenter des informations inexactes, imprécises ou biaisées. »

Le projet de loi doit encore être confié à une commission et discuté, et il n’est pas clair si cela aura lieu avant le début de la campagne électorale chargée.

Le projet de loi d’Eshoo et Beyer complète le décret de l’administration Biden sur l’IA, qui aide à établir des normes de reporting pour les modèles d’IA. Le décret, cependant, n’est pas une loi, donc si l’AI Foundation Model Transparency Act est adopté, il fera des exigences de transparence pour les données de formation une règle fédérale.

source site-132

- Advertisement -

Latest