OpenAI donnera à l’Institut américain de sécurité de l’IA un accès anticipé à son prochain modèle dans le cadre de ses efforts de sécurité, a révélé Sam Altman dans un tweet. Apparemment, la société a travaillé avec le consortium « pour faire avancer la science des évaluations de l’IA ». Le National Institute of Standards and Technology (NIST) a officiellement créé l’Institut de sécurité de l’intelligence artificielle plus tôt cette année, bien que la vice-présidente Kamala Harris l’ait annoncé en 2023 lors du sommet britannique sur la sécurité de l’IA. D’après la description du consortium par le NIST, il est censé « développer des lignes directrices et des normes fondées sur la science et l’empirique pour la mesure et la politique de l’IA, posant les bases de la sécurité de l’IA dans le monde entier ».
L’entreprise, ainsi que DeepMind, se sont également engagés à partager des modèles d’IA avec le gouvernement britannique l’année dernière. TechCrunch Selon certaines sources, OpenAI s’inquiète de plus en plus de ce que la sécurité soit moins une priorité alors qu’elle cherche à développer des modèles d’IA plus puissants. Certains ont spéculé que le conseil d’administration avait décidé de renvoyer Sam Altman de l’entreprise (il a été très rapidement réintégré) en raison de problèmes de sécurité. Cependant, l’entreprise a déclaré aux membres du personnel dans une note interne à l’époque que c’était à cause d’une « rupture de communication ».
En mai de cette année, OpenAI a admis avoir dissous l’équipe Superalignment qu’elle avait créée pour garantir la sécurité de l’humanité pendant que l’entreprise avance dans ses travaux sur l’intelligence artificielle générative. Avant cela, le cofondateur et scientifique en chef d’OpenAI, Ilya Sutskever, qui était l’un des dirigeants de l’équipe, a quitté l’entreprise. Jan Leike, qui était également l’un des dirigeants de l’équipe, a également démissionné. Il a déclaré dans une série de tweets qu’il était en désaccord avec la direction d’OpenAI sur les priorités fondamentales de l’entreprise depuis un certain temps et que « la culture et les processus de sécurité sont passés au second plan par rapport aux produits brillants ». OpenAI a créé un nouveau groupe de sécurité à la fin du mois de mai, mais il est dirigé par des membres du conseil d’administration dont Altman, ce qui suscite des inquiétudes quant à l’auto-surveillance.
quelques mises à jour rapides sur la sécurité chez openai :
Comme nous l’avons dit en juillet dernier, nous nous engageons à allouer au moins 20 % des ressources informatiques aux efforts de sécurité dans l’ensemble de l’entreprise.
notre équipe a travaillé avec l’Institut américain de sécurité de l’IA sur un accord dans lequel nous fournirions…
— Sam Altman (@sama) 1er août 2024