OpenAI a récemment dévoilé un système à cinq niveaux pour évaluer ses progrès dans le développement de l’intelligence artificielle générale (AGI), selon un porte-parole d’OpenAI qui s’est entretenu avec Bloomberg. L’entreprise a partagé ce nouveau système de classification mardi avec ses employés lors d’une réunion générale, dans le but de fournir un cadre clair pour comprendre les progrès de l’IA. Cependant, le système décrit une technologie hypothétique qui n’existe pas encore et peut être mieux interprété comme une stratégie marketing pour récolter des fonds d’investissement.
OpenAI a déjà déclaré que l’AGI – un terme nébuleux désignant un concept hypothétique qui désigne un système d’IA capable d’effectuer de nouvelles tâches comme un humain sans formation spécialisée – est actuellement l’objectif principal de l’entreprise. La recherche d’une technologie capable de remplacer les humains dans la plupart des tâches intellectuelles est à l’origine de la majeure partie du battage médiatique durable autour de l’entreprise, même si une telle technologie serait probablement très perturbatrice pour la société.
Le PDG d’OpenAI, Sam Altman, a déjà déclaré qu’il pensait que l’AGI pourrait être réalisée au cours de cette décennie, et une grande partie des messages publics du PDG a porté sur la manière dont l’entreprise (et la société en général) pourrait gérer les perturbations que l’AGI pourrait entraîner. Dans cette optique, un système de classement pour communiquer les étapes franchies en interne sur la voie de l’AGI semble logique.
Les cinq niveaux d’OpenAI, que l’entreprise prévoit de partager avec ses investisseurs, vont des capacités d’IA actuelles aux systèmes qui pourraient potentiellement gérer des organisations entières. L’entreprise estime que sa technologie (comme GPT-4o qui alimente ChatGPT) se situe actuellement au niveau 1, qui englobe l’IA capable de s’engager dans des interactions conversationnelles. Cependant, les dirigeants d’OpenAI auraient déclaré au personnel qu’ils étaient sur le point d’atteindre le niveau 2, baptisé « Reasoners ».
Bloomberg énumère les cinq « étapes de l’intelligence artificielle » d’OpenAI comme suit :
- Niveau 1 : Chatbots, IA avec langage conversationnel
- Niveau 2 : Raisonnement, résolution de problèmes au niveau humain
- Niveau 3 : Agents, systèmes capables d’agir
- Niveau 4 : Innovateurs, IA qui peut aider à l’invention
- Niveau 5 : Organisations, IA capable d’effectuer le travail d’une organisation
Un système d’IA de niveau 2 serait capable de résoudre des problèmes de base au même titre qu’un humain titulaire d’un doctorat mais n’ayant pas accès à des outils externes. Au cours de la réunion générale, les dirigeants d’OpenAI auraient présenté un projet de recherche utilisant leur modèle GPT-4 qui, selon les chercheurs, montre des signes d’approche de cette capacité de raisonnement de type humain, selon une personne familière de la discussion qui s’est entretenue avec Bloomberg.
Les niveaux supérieurs de la classification d’OpenAI décrivent des capacités d’IA hypothétiques de plus en plus puissantes. Les « agents » de niveau 3 pourraient travailler de manière autonome sur des tâches pendant des jours. Les systèmes de niveau 4 généreraient des innovations inédites. Le sommet, le niveau 5, envisage une IA gérant des organisations entières.
Ce système de classification est encore en cours d’élaboration. OpenAI prévoit de recueillir les commentaires des employés, des investisseurs et des membres du conseil d’administration, afin d’affiner potentiellement les niveaux au fil du temps.
Ars Technica a interrogé OpenAI sur le système de classement et l’exactitude du rapport Bloomberg, et un porte-parole de l’entreprise a déclaré qu’ils n’avaient « rien à ajouter ».
Le problème du classement des capacités de l’IA
OpenAI n’est pas le seul à tenter de quantifier les niveaux de capacités de l’IA. Comme le note Bloomberg, le système d’OpenAI ressemble aux niveaux de conduite autonome définis par les constructeurs automobiles. Et en novembre 2023, les chercheurs de Google DeepMind ont proposé leur propre cadre à cinq niveaux pour évaluer les progrès de l’IA, montrant que d’autres laboratoires d’IA ont également essayé de comprendre comment classer des choses qui n’existent pas encore.
Le système de classification d’OpenAI ressemble également quelque peu aux « niveaux de sécurité de l’IA » (ASL) d’Anthropic, publiés pour la première fois par le créateur de l’assistant Claude AI en septembre 2023. Les deux systèmes visent à catégoriser les capacités de l’IA, bien qu’ils se concentrent sur des aspects différents. Les ASL d’Anthropic sont plus explicitement axés sur la sécurité et les risques catastrophiques (comme l’ASL-2, qui fait référence aux « systèmes qui montrent des signes précoces de capacités dangereuses »), tandis que les niveaux d’OpenAI suivent les capacités générales.
Cependant, tout système de classification de l’IA soulève des questions quant à la possibilité de quantifier de manière significative les progrès de l’IA et ce qui constitue une avancée (ou même ce qui constitue un système d’IA « dangereux », comme dans le cas d’Anthropic). L’industrie technologique a jusqu’à présent une longue tradition de promesses excessives en matière de capacités de l’IA, et les modèles de progression linéaire comme celui d’OpenAI risquent potentiellement d’alimenter des attentes irréalistes.
Il n’existe actuellement aucun consensus au sein de la communauté de recherche en IA sur la manière de mesurer les progrès vers l’IA générale, ni même sur le fait que l’IA générale constitue un objectif bien défini ou réalisable. Le système à cinq niveaux d’OpenAI devrait donc probablement être considéré comme un outil de communication destiné à attirer les investisseurs et qui montre les objectifs ambitieux de l’entreprise plutôt qu’une mesure scientifique ou même technique des progrès.