OpenAI forme une équipe pour freiner l’IA superintelligente

OpenAI forme une équipe dédiée pour gérer les risques de l’intelligence artificielle super intelligente. Une superintelligence est un modèle d’IA hypothétique qui est plus intelligent que même l’humain le plus doué et le plus intelligent, et qui excelle dans plusieurs domaines d’expertise au lieu d’un domaine comme certains modèles de la génération précédente. OpenAI pense qu’un tel modèle pourrait arriver avant la fin de la décennie. « La superintelligence sera la technologie la plus percutante que l’humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants au monde », a déclaré l’organisation à but non lucratif. « Mais le vaste pouvoir de la superintelligence pourrait aussi être très dangereux et pourrait conduire à la perte de pouvoir de l’humanité ou même à l’extinction humaine. »

La nouvelle équipe sera co-dirigée par le scientifique en chef d’OpenAI Ilya Sutskever et Jan Leike, responsable de l’alignement du laboratoire de recherche. De plus, OpenAI a déclaré qu’il consacrerait 20 % de sa puissance de calcul actuellement sécurisée à l’initiative, dans le but de développer un . Un tel système aiderait théoriquement OpenAI à garantir qu’une superintelligence est sûre à utiliser et alignée sur les valeurs humaines. « Bien qu’il s’agisse d’un objectif incroyablement ambitieux et que nous ne soyons pas assurés de réussir, nous sommes optimistes quant au fait qu’un effort ciblé et concerté peut résoudre ce problème », a déclaré OpenAI. « De nombreuses idées se sont révélées prometteuses dans les expériences préliminaires, nous disposons de mesures de progrès de plus en plus utiles et nous pouvons utiliser les modèles d’aujourd’hui pour étudier nombre de ces problèmes de manière empirique. » Le laboratoire a ajouté qu’il partagerait une feuille de route à l’avenir.

L’annonce de mercredi intervient alors que les gouvernements du monde entier réfléchissent à la manière de réglementer l’industrie naissante de l’IA. Aux États-Unis, Sam Altman, le PDG d’OpenAI, l’a fait ces derniers mois. Publiquement, Altman a déclaré que la réglementation de l’IA était « essentielle » et qu’OpenAI était « impatient » de travailler avec les décideurs. Mais nous devons être sceptiques face à de telles proclamations, et même à des efforts comme l’équipe de superalignement d’OpenAI. En attirant l’attention du public sur des risques hypothétiques qui pourraient ne jamais se matérialiser, des organisations comme OpenAI déplacent le fardeau de la réglementation vers l’horizon plutôt que vers l’ici et maintenant. Il y a des problèmes beaucoup plus immédiats autour de l’interaction entre l’IA et l’IA, et les décideurs doivent s’y attaquer aujourd’hui, pas demain.

Source-145