Un groupe de recherche sur l’IA à but non lucratif souhaite que la Federal Trade Commission enquête sur OpenAI, Inc. et arrête les versions de GPT-4.
OpenAI « a publié un produit GPT-4 pour le marché grand public qui est biaisé, trompeur et présente un risque pour la vie privée et la sécurité publique. Les résultats ne peuvent être prouvés ou reproduits. Aucune évaluation indépendante n’a été entreprise avant le déploiement », a déclaré une plainte à la FTC présentée aujourd’hui par le Center for Artificial Intelligence and Digital Policy (CAIDP).
Appelant à « une surveillance et une évaluation indépendantes des produits commerciaux d’IA proposés aux États-Unis », le CAIDP a demandé à la FTC « d’ouvrir une enquête sur OpenAI, d’interdire de nouvelles versions commerciales de GPT-4 et d’assurer la mise en place des garde-fous nécessaires pour protéger les consommateurs, les entreprises et le marché commercial. »
Notant que la FTC « a déclaré que l’utilisation de l’IA devrait être » transparente, explicable, juste et empiriquement solide tout en favorisant la responsabilité « », le groupe à but non lucratif a fait valoir que « le produit GPT-4 d’OpenAI ne répond à aucune de ces exigences ».
GPT-4 a été dévoilé par OpenAI le 14 mars et est disponible pour les abonnés de ChatGPT Plus. Bing de Microsoft utilise déjà GPT-4. OpenAI a qualifié GPT-4 d’avancée majeure, affirmant qu’il « passe un examen du barreau simulé avec un score autour des 10 % des meilleurs candidats », par rapport aux 10 % inférieurs des candidats pour GPT-3.5.
Bien qu’OpenAI ait déclaré avoir demandé à des experts externes d’évaluer les risques potentiels posés par le GPT-4, le CAIDP n’est pas le premier groupe à s’inquiéter du fait que le domaine de l’IA évolue trop rapidement. Comme nous l’avons signalé hier, le Future of Life Institute a publié une lettre ouverte exhortant les laboratoires d’IA à « suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4 ». La longue liste de signataires de la lettre comprenait de nombreux professeurs aux côtés de certains noms notables de l’industrie technologique comme Elon Musk et Steve Wozniak.
Le groupe affirme que GPT-4 viole la loi FTC
Le CAIDP a déclaré que la FTC devrait enquêter sur OpenAI en utilisant son autorité en vertu de l’article 5 de la Federal Trade Commission Act pour enquêter, poursuivre et interdire « les actes ou pratiques déloyaux ou trompeurs dans ou affectant le commerce ». Le groupe affirme que « la sortie commerciale de GPT-4 viole l’article 5 de la loi FTC, les directives bien établies de la FTC aux entreprises sur l’utilisation et la publicité des produits d’IA, ainsi que les normes émergentes pour la gouvernance de l’IA que le Le gouvernement des États-Unis a officiellement approuvé les directives universelles pour l’IA recommandées par des experts et des sociétés scientifiques de premier plan. »
La FTC devrait « arrêter le déploiement commercial de GPT par OpenAI », exiger une évaluation indépendante des produits GPT avant le déploiement et « tout au long du cycle de vie de GPT AI », « exiger la conformité aux directives FTC AI » avant les déploiements futurs et « établir un système accessible au public mécanisme de signalement d’incident pour GPT-4 similaire aux mécanismes de la FTC pour signaler la fraude à la consommation », a déclaré le groupe.
Plus largement, le CAIDP a exhorté la FTC à édicter des règles exigeant « des normes de base pour les produits du secteur du marché de l’IA générative ».
Nous avons contacté OpenAI et mettrons à jour cet article si nous obtenons une réponse.
« OpenAI n’a pas divulgué de détails »
Le président et fondateur du CAIDP est Marc Rotenberg, qui a précédemment cofondé et dirigé l’Electronic Privacy Information Center. Rotenberg est professeur auxiliaire à Georgetown Law et a fait partie du groupe d’experts sur l’IA dirigé par l’Organisation internationale de coopération et de développement économiques. Rotenberg a également signé la lettre ouverte du Future of Life Institute, qui est citée dans la plainte du CAIDP.
La présidente et directrice de recherche du CAIDP est Merve Hickok, qui est également chargée de cours en éthique des données à l’Université du Michigan. Elle a témoigné lors d’une audience du Congrès sur l’IA le 8 mars. La liste des membres de l’équipe du CAIDP comprend de nombreuses autres personnes impliquées dans les domaines de la technologie, du milieu universitaire, de la confidentialité, du droit et de la recherche.
Le mois dernier, la FTC a averti les entreprises d’analyser « les risques et l’impact raisonnablement prévisibles de votre produit d’IA avant de le mettre sur le marché ». L’agence a également soulevé diverses préoccupations concernant « les méfaits de l’IA tels que l’inexactitude, les préjugés, la discrimination et le fluage de la surveillance commerciale » dans un rapport au Congrès l’année dernière.
GPT-4 pose de nombreux types de risques, et sa technologie sous-jacente n’a pas été suffisamment expliquée, a déclaré le CAIDP à la FTC. « OpenAI n’a pas divulgué de détails sur l’architecture, la taille du modèle, le matériel, les ressources informatiques, les techniques de formation, la construction des ensembles de données ou les méthodes de formation », a déclaré la plainte CAIDP. « La pratique de la communauté de recherche a été de documenter les données de formation et les techniques de formation pour les grands modèles de langage, mais OpenAI a choisi de ne pas le faire pour GPT-4. »
« Les modèles d’IA générative sont des produits de consommation inhabituels car ils présentent des comportements qui n’ont peut-être pas été identifiés auparavant par l’entreprise qui les a mis en vente », a également déclaré le groupe.