Un groupe d’éthique technologique axé sur l’intelligence artificielle a demandé à la Federal Trade Commission d’enquêter sur OpenAI pour violation des règles de protection des consommateurs, arguant que le déploiement par l’organisation d’outils de génération de texte d’IA a été « biaisé, trompeur et un risque pour la sécurité publique ».
Le Centre pour l’IA et la politique numérique (CAIDP) déposé sa plainte aujourd’hui suite à la publication d’une lettre ouverte très médiatisée appelant à une pause dans les grandes expériences d’IA générative. Le président du CAIDP, Marc Rotenberg, était l’un des signataires de la lettre, aux côtés d’un certain nombre de chercheurs en IA et du co-fondateur d’OpenAI, Elon Musk. Semblable à cette lettre, la plainte appelle à ralentir le développement de modèles d’IA générative et à mettre en place une surveillance gouvernementale plus stricte.
La plainte du CAIDP souligne les menaces potentielles du modèle de texte génératif GPT-4 d’OpenAI, qui a été annoncé à la mi-mars. Ils incluent des moyens par lesquels GPT-4 pourrait produire du code malveillant et une propagande hautement personnalisée, ainsi que des moyens par lesquels des données de formation biaisées pourraient entraîner des stéréotypes intégrés ou des préférences injustes en matière de race et de sexe dans des domaines tels que l’embauche. Il souligne également des défaillances importantes en matière de confidentialité avec l’interface produit d’OpenAI, comme un bogue récent qui a exposé les historiques d’OpenAI ChatGPT et éventuellement les détails de paiement à d’autres utilisateurs.
« OpenAI a rendu public GPT-4 à des fins commerciales en pleine connaissance de ces risques. »
OpenAI a ouvertement noté les menaces potentielles de la génération de texte par IA, mais le CAIDP soutient que le GPT-4 franchit une ligne de préjudice pour les consommateurs qui devrait entraîner une action réglementaire. Il cherche à tenir OpenAI responsable de la violation de l’article 5 de la loi FTC, qui interdit les pratiques commerciales déloyales et trompeuses. « OpenAI a rendu public GPT-4 à des fins commerciales en pleine connaissance de ces risques », y compris les biais potentiels et les comportements préjudiciables, selon la plainte. Il définit également Hallucinations de l’IA, ou le phénomène des modèles génératifs inventant en toute confiance des faits inexistants, comme une forme de tromperie. « ChatGPT fera la promotion de déclarations commerciales et de publicités trompeuses », prévient-il, ce qui pourrait le faire relever de la compétence de la FTC.
Dans la plainte, le CAIDP demande à la FTC d’arrêter tout nouveau déploiement commercial de modèles GPT et d’exiger des évaluations indépendantes des modèles avant tout déploiement futur. Il demande également un outil de signalement accessible au public similaire à celui qui permet aux consommateurs de déposer des plaintes pour fraude. Et il cherche à établir des règles fermes sur les règles de la FTC pour les systèmes d’IA générative, en s’appuyant sur les recherches et l’évaluation en cours mais encore relativement informelles de l’agence sur les outils d’IA.
Comme l’a noté le CAIDP, la FTC a exprimé son intérêt pour la réglementation des outils d’IA. Il a été averti ces dernières années que des systèmes d’IA biaisés pourraient entraîner des mesures d’application de la loi, et lors d’un événement conjoint cette semaine avec le ministère de la Justice, la présidente de la FTC, Lina Khan, a déclaré que l’agence rechercherait des signes de grandes entreprises technologiques en place essayant de bloquer la concurrence. Mais une enquête sur OpenAI – l’un des principaux acteurs de la course aux armements générative de l’IA – marquerait une escalade majeure dans ses efforts.