OpenAI pourrait devoir arrêter les versions de ChatGPT suite à une plainte de la FTC

Un défi public pourrait mettre un terme temporaire au déploiement de ChatGPT et de systèmes d’IA similaires. L’organisation de recherche à but non lucratif Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la Federal Trade Commission (FTC) alléguant qu’OpenAI viole la loi FTC en publiant de grands modèles d’IA en langage comme GPT-4. Ce modèle est « partial, trompeur » et menace à la fois la vie privée et la sécurité publique, affirme le CAIDP. De même, il ne respecte pas les directives de la Commission appelant à ce que l’IA soit transparente, juste et facile à expliquer.

Le Centre souhaite que la FTC enquête sur OpenAI et suspende les futures versions de grands modèles de langage jusqu’à ce qu’ils respectent les directives de l’agence. Les chercheurs veulent qu’OpenAI exige des examens indépendants des produits et services GPT avant leur lancement. Le CAIDP espère également que la FTC créera un système de signalement des incidents et des normes formelles pour les générateurs d’IA.

Nous avons demandé à OpenAI de commenter. La FTC a refusé de commenter. Le président du CAIDP, Marc Rotenberg, faisait partie de ceux qui ont signé une lettre ouverte exigeant qu’OpenAI et d’autres chercheurs en IA interrompent leurs travaux pendant six mois pour donner du temps aux discussions sur l’éthique. Le fondateur d’OpenAI, Elon Musk, a également signé la lettre.

Les détracteurs de ChatGPT, de Google Bard et de modèles similaires ont mis en garde contre des résultats problématiques, notamment des déclarations inexactes, des discours de haine et des préjugés. Les utilisateurs ne peuvent pas non plus répéter les résultats, dit le CAIDP. Le Centre souligne qu’OpenAI lui-même avertit que l’IA peut « renforcer » les idées, qu’elles soient vraies ou non. Bien que les mises à niveau comme GPT-4 soient plus fiables, il est à craindre que les gens se fient à l’IA sans revérifier son contenu.

Il n’y a aucune garantie que la FTC donnera suite à la plainte. Si elle fixe des exigences, cette décision affectera le développement dans l’ensemble de l’industrie de l’IA. Les entreprises devraient attendre les évaluations et pourraient subir davantage de répercussions si leurs modèles ne satisfaisaient pas aux normes de la Commission. Bien que cela puisse améliorer la responsabilisation, cela pourrait également ralentir le rythme actuellement rapide du développement de l’IA.

Source-145