OpenAI a créé une échelle interne pour suivre les progrès réalisés par ses grands modèles linguistiques vers l’intelligence artificielle générale, ou l’IA avec une intelligence de type humain, a déclaré un porte-parole. dit Bloomberg.
Les chatbots actuels, comme ChatGPT, sont au niveau 1. OpenAI affirme qu’il se rapproche du niveau 2, défini comme un système capable de résoudre des problèmes de base au niveau d’une personne titulaire d’un doctorat. Le niveau 3 fait référence aux agents IA capables d’entreprendre des actions au nom d’un utilisateur. Le niveau 4 concerne l’IA capable de créer de nouvelles innovations. Le niveau 5, l’étape finale pour atteindre l’IAG, est une IA capable d’effectuer le travail d’organisations entières de personnes. OpenAI a précédemment défini l’IAG comme « un système hautement autonome surpassant les humains dans la plupart des tâches économiquement intéressantes ».
La structure unique d’OpenAI est centrée sur sa mission de réalisation de l’AGI, et la manière dont OpenAI définit l’AGI est importante. L’entreprise a déclaré que « si un projet axé sur la valeur et soucieux de la sécurité se rapproche de la construction de l’AGI » avant OpenAI, elle s’engage à ne pas concurrencer le projet et à tout laisser tomber pour l’aider. La formulation de cette phrase dans le communiqué d’OpenAI charte est vague, laissant place au jugement de l’entité à but lucratif (gouvernée par l’organisme à but non lucratif), mais une échelle sur laquelle OpenAI peut se tester elle-même et ses concurrents pourrait aider à déterminer quand l’AGI est atteinte en termes plus clairs.
Pourtant, l’AGI est encore loin d’être une réalité : il faudra des milliards et des milliards de dollars de puissance de calcul pour y parvenir, si jamais on y parvient. Les délais fixés par les experts, et même par OpenAI, varient énormément. En octobre 2023, le PDG d’OpenAI, Sam Altman dit il nous reste « cinq ans, à peu près », avant d’atteindre l’AGI.
Cette nouvelle échelle de notation, bien qu’encore en cours de développement, a été introduite un jour après OpenAI annoncé sa collaboration avec le Laboratoire national de Los Alamos, qui vise à explorer comment des modèles d’IA avancés comme GPT-4o peuvent contribuer en toute sécurité à la recherche bioscientifique. Un responsable de programme à Los Alamos, responsable du portefeuille de biologie de la sécurité nationale et qui a contribué à sécuriser le partenariat OpenAI, a déclaré Le bord L’objectif est de tester les capacités du GPT-4o et d’établir un ensemble de facteurs de sécurité et autres pour le gouvernement américain. À terme, des modèles publics ou privés pourront être testés par rapport à ces facteurs pour évaluer leurs propres modèles.
En mai, OpenAI a dissous son équipe de sécurité après le départ du cofondateur d’OpenAI, Ilya Sutskever, le leader du groupe. Jan Leike, un chercheur clé d’OpenAI, a démissionné peu de temps après avoir affirmé dans un message que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants » dans l’entreprise. Bien qu’OpenAI ait nié que ce soit le cas, certains s’inquiètent de ce que cela signifie si l’entreprise atteint effectivement l’AGI.
OpenAI n’a pas fourni de détails sur la manière dont il attribue les modèles à ces niveaux internes (et a refusé Le bord(demande de commentaire de l’entreprise). Cependant, les dirigeants de l’entreprise ont présenté un projet de recherche utilisant le modèle d’IA GPT-4 lors d’une réunion générale jeudi et pensent que ce projet présente de nouvelles compétences qui présentent un raisonnement de type humain, selon Bloomberg.
Cette échelle pourrait aider à fournir une définition stricte des progrès, plutôt que de les laisser à l’interprétation. Par exemple, Mira Murati, directrice technique d’OpenAI, a déclaré dans une interview en juin que les modèles de ses laboratoires ne sont pas beaucoup mieux que ceux dont dispose déjà le public. Pendant ce temps, le PDG Sam Altman a déclaré à la fin de l’année dernière que l’entreprise a récemment « repoussé le voile de l’ignorance », ce qui signifie que les modèles sont remarquablement plus intelligents.