OpenAI crée une nouvelle équipe pour s’attaquer aux systèmes d’IA « super intelligents »

L’équipe à l’origine du populaire chatbot d’intelligence artificielle (IA) ChatGPT, a déclaré qu’elle formerait une équipe pour maîtriser et gérer les risques des systèmes d’IA superintelligents.

Dans un annonce sur le blog OpenAI le 5 juillet, la société indique que la nouvelle équipe sera créée pour « diriger et contrôler les systèmes d’IA beaucoup plus intelligents que nous ».

L’organisation à but non lucratif a déclaré dans son communiqué qu’elle pense que la superintelligence sera « la technologie la plus percutante que l’humanité ait jamais inventée » et aidera à résoudre de nombreux problèmes, bien qu’il existe des risques.

« Le vaste pouvoir de la superintelligence pourrait également être très dangereux et pourrait conduire à la perte de pouvoir de l’humanité ou même à l’extinction humaine. »

OpenAI a déclaré qu’il pensait que la superintelligence pourrait arriver cette décennie.

OpenAI a déclaré qu’il consacrerait 20% de la puissance de calcul déjà sécurisée à l’effort et vise à créer un chercheur d’alignement automatisé «au niveau humain». Le chercheur automatisé aiderait, en théorie, l’équipe à gérer la sécurité de la superintelligence et à l’aligner sur «l’intention humaine».

Actuellement, il a nommé son propre scientifique en chef Ilya Sutskever et le responsable de l’alignement du laboratoire de recherche Jan Leike comme co-responsables de l’effort. Il a lancé un appel ouvert aux chercheurs et ingénieurs en apprentissage automatique pour rejoindre l’équipe.

En rapport: OpenAI suspend la fonctionnalité Bing de ChatGPT, car les utilisateurs sautaient les murs de paiement

Cette annonce d’OpenAI intervient alors que les gouvernements du monde entier envisagent des mesures pour contrôler le développement, le déploiement et l’utilisation des systèmes d’IA.

Les régulateurs de l’Union européenne sont parmi les plus avancés dans la mise en œuvre de la réglementation sur l’IA. Le 14 juin, le Parlement européen a adopté sa première loi sur l’IA de l’UE – une législation qui obligerait les systèmes comme ChatGPT à divulguer tout le contenu généré par l’IA, ainsi que d’autres mesures.

Le projet de loi a encore besoin que les détails soient discutés plus avant au Parlement avant sa mise en œuvre. Néanmoins, le projet de loi a suscité un tollé de la part des développeurs d’IA concernant son potentiel à stopper l’innovation.

En mai, le PDG d’OpenAI, Sam Altman, s’est rendu à Bruxelles pour discuter des réglementations européennes concernant les effets négatifs potentiels d’une réglementation excessive.

Les législateurs aux États-Unis ont également présenté une «loi sur la Commission nationale de l’IA» pour établir une commission qui décidera de l’approche de la nation en matière d’IA. Les régulateurs aux États-Unis ont également exprimé ouvertement leur désir de réglementer la technologie.

Le 30 juin, le sénateur Michael Bennet a rédigé une lettre aux grandes entreprises technologiques, dont OpenAI, demandant l’étiquetage du contenu généré par l’IA.

Magazine: BitCulture : beaux-arts sur Solana, musique IA, podcast + critiques de livres