Le Centre pour l’intelligence artificielle et la politique numérique (CAIDP) a déposé une plainte auprès de la Federal Trade Commission (FTC) des États-Unis dans le but d’empêcher la diffusion de puissants systèmes d’IA aux consommateurs.
La plainte était centrée sur le grand modèle de langage récemment publié par OpenAI, GPT-4, que le CAIDP décrit comme «partial, trompeur et un risque pour la vie privée et la sécurité publique» dans sa plainte du 30 mars.
Le CAIDP, un organisme de recherche indépendant à but non lucratif, a fait valoir que la commercialisation du GPT-4 viole L’article 5 de la loi FTC, qui interdit « les actes ou pratiques déloyaux ou trompeurs dans ou affectant le commerce ».
Pour étayer son cas, l’organisation d’éthique de l’IA a souligné Contenu dans la carte système GPT-4, qui indiquent :
« Nous avons constaté que le modèle a le potentiel de renforcer et de reproduire des préjugés et des visions du monde spécifiques, y compris des associations stéréotypées et dégradantes nuisibles pour certains groupes marginalisés. »
Dans le même document, il a déclaré: « Les systèmes d’IA auront un potentiel encore plus grand pour renforcer des idéologies entières, des visions du monde, des vérités et des contrevérités, et pour les cimenter ou les enfermer, empêchant toute contestation, réflexion et amélioration futures. »
Le CAIDP a ajouté qu’OpenAI a rendu public le GPT-4 à des fins commerciales en pleine connaissance de ces risques et qu’aucune évaluation indépendante du GPT-4 n’a été entreprise avant sa diffusion.
En conséquence, le CAIDP souhaite que la FTC mène une enquête sur les produits d’OpenAI et d’autres opérateurs de systèmes d’IA puissants :
« Il est temps que la FTC agisse […] Le CAIDP exhorte la FTC à ouvrir une enquête sur OpenAI, à interdire de nouvelles versions commerciales de GPT-4 et à assurer la mise en place des garde-fous nécessaires pour protéger les consommateurs, les entreprises et le marché commercial.
Alors que ChatGPT-3 est sorti en novembre, la dernière version, GPT-4, est considérée comme dix fois plus intelligente. Lors de sa sortie le 14 mars, une étude a révélé que le GPT-4 était capable de réussir les examens de lycée et de droit américains les plus rigoureux dans le 90e centile supérieur.
Il peut également détecter les vulnérabilités des contrats intelligents sur Ethereum, entre autres.
Ce matin, je piratais la nouvelle API ChatGPT et j’ai trouvé quelque chose de super intéressant : il existe plus de 80 plugins secrets qui peuvent être révélés en supprimant un paramètre spécifique d’un appel API.
Les plugins secrets incluent un « plugin DAN », un « plugin de prix crypto », et bien d’autres. pic.twitter.com/Q6JO1VLz5x
— (@rez0__) 24 mars 2023
La plainte intervient alors qu’Elon Musk, Steve Wozniak d’Apple et une foule d’experts en IA ont signé une pétition pour « suspendre » le développement de systèmes d’IA plus puissants que GPT-4.
Avoir un peu d’angoisse existentielle de l’IA aujourd’hui
– Elon Musk (@elonmusk) 26 février 2023
Le président du CAIDP, Marc Rotenberg, faisait partie des 2600 autres signataires de la pétition, qui a été présentée par le Future of Life Institute le 22 mars.
En rapport: Voici comment ChatGPT-4 dépense 100 $ en crypto trading
Les auteurs ont fait valoir que « l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre », pour le meilleur ou pour le pire.
L’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) a également appelé les États à mettre en œuvre le cadre de « Recommandation sur l’éthique de l’IA » de l’ONU.
Après +1000 travailleurs de la technologie ont demandé une pause dans la formation des plus puissants #IA systèmes, @UNESCO appelle les pays à mettre en œuvre immédiatement sa recommandation sur l’éthique de l’IA – le 1er cadre mondial de ce type et adopté par 193 États membreshttps://t.co/BbA00ecihO pic.twitter.com/GowBq0jKbi
– Eliot Minchenberg (@E_Minchenberg) 30 mars 2023
Dans d’autres nouvelles, un ancien chercheur en intelligence artificielle pour Google a récemment allégué que le chatbot AI de Google, « Bard », a été formé à l’aide des réponses de ChatGPT.
Alors que le chercheur a démissionné suite à l’incident, les dirigeants de Google ont démenti les allégations avancées par leur ancien collègue.
Magazine: Comment empêcher l’IA d' »anéantir l’humanité » en utilisant la blockchain