ChatGPT est peut-être l’algorithme le plus célèbre et potentiellement le plus précieux du moment, mais les techniques d’intelligence artificielle utilisées par OpenAI pour fournir son intelligence ne sont ni uniques ni secrètes. Des projets concurrents et des clones open source pourraient bientôt rendre les bots de style ChatGPT disponibles pour que quiconque puisse les copier et les réutiliser.
Stability AI, une startup qui a déjà développé et open source une technologie avancée de génération d’images, travaille sur un concurrent ouvert de ChatGPT. « Nous sommes à quelques mois de la sortie », déclare Emad Mostaque, PDG de Stability. Un certain nombre de startups concurrentes, dont Anthropic, Cohere et AI21, travaillent sur des chatbots propriétaires similaires au bot d’OpenAI.
Le flot imminent de chatbots sophistiqués rendra la technologie plus abondante et visible pour les consommateurs, ainsi que plus accessible aux entreprises d’IA, aux développeurs et aux chercheurs. Cela pourrait accélérer la ruée pour gagner de l’argent avec des outils d’IA qui génèrent des images, du code et du texte.
Des entreprises établies comme Microsoft et Slack intègrent ChatGPT dans leurs produits, et de nombreuses startups s’efforcent de s’appuyer sur une nouvelle API ChatGPT pour les développeurs. Mais une plus grande disponibilité de la technologie peut également compliquer les efforts pour prévoir et atténuer les risques qui l’accompagnent.
La capacité séduisante de ChatGPT à fournir des réponses convaincantes à un large éventail de requêtes l’amène également à inventer des faits ou à adopter des personnages problématiques. Il peut aider à des tâches malveillantes telles que la production de code malveillant ou des campagnes de spam et de désinformation.
En conséquence, certains chercheurs ont appelé à ralentir le déploiement de systèmes de type ChatGPT pendant que les risques sont évalués. « Il n’est pas nécessaire d’arrêter la recherche, mais nous pourrions certainement réglementer un déploiement à grande échelle », déclare Gary Marcus, un expert en IA qui a cherché à attirer l’attention sur des risques tels que la désinformation générée par l’IA. « Nous pourrions, par exemple, demander des études sur 100 000 personnes avant de diffuser ces technologies à 100 millions de personnes. »
Une plus grande disponibilité des systèmes de type ChatGPT et la publication de versions open source rendraient plus difficile la limitation de la recherche ou un déploiement plus large. Et la concurrence entre les grandes et les petites entreprises pour adopter ou égaler ChatGPT suggère peu d’appétit pour le ralentissement, mais semble plutôt inciter à la prolifération de la technologie.
La semaine dernière, LLaMA, un modèle d’IA développé par Meta – et similaire à celui au cœur de ChatGPT – a été divulgué en ligne après avoir été partagé avec des chercheurs universitaires. Le système pourrait être utilisé comme élément de base dans la création d’un chatbot, et sa sortie a suscité l’inquiétude parmi ceux qui craignent que les systèmes d’IA connus sous le nom de grands modèles de langage, et les chatbots construits dessus comme ChatGPT, ne soient utilisés pour générer de la désinformation ou automatiser des failles de cybersécurité. Certains experts affirment que ces risques peuvent être exagérés, et d’autres suggèrent que rendre la technologie plus transparente aidera en fait d’autres à se prémunir contre les abus.