Elon Musk, le co-fondateur d’Apple Steve Wozniak et le PDG de Stability AI sont parmi les personnalités de premier plan de l’industrie technologique au sens large qui ont signé une lettre ouverte appelant à une « pause » de six mois sur le développement de systèmes d’intelligence artificielle avancés, dont ChatGPT.
La lettre a été publiée par le Future of Life Institute (s’ouvre dans un nouvel onglet)une organisation à but non lucratif, et compte plus de 1 100 signataires du monde universitaire et technologique au moment de la rédaction.
« Les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », indique la lettre. « Ces derniers mois ont vu les laboratoires d’IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable. »
Par conséquent, la lettre soutient que l’industrie devrait réfléchir avant de développer quelque chose de plus puissant que GPT-4. Si cela ne se produit pas volontairement, les gouvernements devraient intervenir.
« Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation des systèmes d’IA plus puissants que GPT-4. Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire. »
Parmi les principaux signataires figurent Emad Mostaque, le fondateur et PDG de Stability AI, la société à l’origine du modèle de génération de texte à image Stable Diffusion, Evan Sharp, co-fondateur de Pinterest, Chris Larson, co-fondateur de la société de crypto-monnaie Ripple , apprentissage en profondeur Yoshua Bengio et Connor Leahy, PDG de AI lab Conjecture.
Bien sûr, les cyniques pourraient suggérer que de nombreux signataires pourraient simplement vouloir un peu de temps pour rattraper la concurrence. Mais beaucoup d’autres n’ont rien d’évident à gagner immédiatement.
De plus, il est indéniable que les derniers mois ont vu des développements explosifs en ce qui concerne les grands modèles d’IA de type GPT. En prenant simplement les modèles GPT d’Open AI, le premier modèle GPT-3 tel que vu dans ChatGPT était limité à l’entrée et à la sortie de texte. GPT-4, cependant, est multimodal, prenant en charge le texte, l’audio, la vidéo et les images.
De nouveaux plugins donnant aux modèles des « yeux » et des « oreilles » se sont rapidement développés, permettant aux modèles d’IA d’envoyer des e-mails, d’exécuter du code et de faire des choses dans le monde réel comme réserver des vols via un accès Internet.
Les capacités de raisonnement de GPT-4 constituent également une avancée majeure sur ChatGPT et GPT-3. Par exemple, ChatGPT se classe dans les 10 % inférieurs aux examens de droit américains, tandis que GPT-4 se classe dans les 90 % supérieurs. (s’ouvre dans un nouvel onglet).
GPT-4 a maintenant été utilisé pour créer des extensions Google Chrome et des applications iPhone, ces dernières à partir de zéro et maintenant disponibles sur l’App Store officiel (s’ouvre dans un nouvel onglet). GPT-4 a également codé avec succès un moteur de jeu 3D de base (s’ouvre dans un nouvel onglet) semblable au Doom original. Les gens ont même confié aux modèles GPT la tâche de créer des stratégies d’investissement, puis de les mettre en œuvre.
Il n’est donc pas difficile de voir comment ces modèles peuvent très rapidement avoir un impact majeur sur le monde réel avant même de penser à se poser la question de ce qui se passe s’ils deviennent sensibles. Sur cette note, dans un article écrit par les créateurs de GPT-4 (s’ouvre dans un nouvel onglet)des inquiétudes quant au fait que le modèle lui-même pourrait se développer et poursuivre des fins indésirables ou dangereuses sont soulevées.
« Certains qui sont particulièrement préoccupants sont la capacité de créer et d’agir sur des plans à long terme,[62] pour accumuler du pouvoir et des ressources (« recherche de pouvoir ») et pour afficher un comportement de plus en plus « agentique ».[64] L’agentique dans ce contexte n’a pas l’intention d’humaniser les modèles de langage ou de se référer à la sensibilité, mais fait plutôt référence à des systèmes caractérisés par la capacité, par exemple, d’atteindre des objectifs qui peuvent ne pas avoir été concrètement spécifiés et qui ne sont pas apparus dans la formation ; se concentrer sur la réalisation d’objectifs précis et quantifiables; et faire une planification à long terme. Certaines preuves existent déjà d’un tel comportement émergent dans les modèles », indique le document.
Pendant ce temps, Microsoft affirme que son dernier modèle GPT-4 montre en effet des « étincelles » d’intelligence générale artificielle (s’ouvre dans un nouvel onglet). Quoi qu’il en soit, le principal problème ici est sûrement que ces modèles sont diffusés à grande échelle sur le public dans tout, des recherches Bing aux e-mails et aux outils de bureau.
Tout ira peut-être bien. Mais, de même, la portée des conséquences imprévues semble actuellement presque infinie. Et c’est un peu effrayant, avec les réserves habituelles selon lesquelles nous accueillons tous les nouveaux seigneurs qui pourraient émerger. Vous savez, juste au cas où.