La société mère de Facebook, Meta, a jeté son chapeau dans le cercle de l’IA avec la sortie initiale de son propre outil d’IA, conçu spécifiquement pour la recherche.
Dans un article de blog (s’ouvre dans un nouvel onglet), Meta a expliqué plus en détail son Large Language Model Meta AI (LLaMA) qui vise à « aider les chercheurs à faire avancer leurs travaux dans ce sous-domaine de l’IA ». LLaMA ne défiera pas les goûts de Bing avec ChatGPT pour un usage quotidien, mais sera plutôt utilisé sous une licence non commerciale.
Plutôt que d’être utilisé pour créer de nouvelles saisons de émissions Netflix annulées, LLaMA ciblera les universités, les gouvernements et les laboratoires à des fins de recherche. Mark Zuckerberg même publié sur FaceBook (s’ouvre dans un nouvel onglet) faisant référence au potentiel de LLaMA pour résoudre des théorèmes mathématiques et prédire les structures des protéines.
Avec l’objectif de recherche de LLaMA, Meta est déterminé à ne pas répéter les erreurs de Google’sBard AI et Bing avec ChatGPT, qui ont fait des mésaventures très médiatisées. Meta offre un accès à LLaMA dans plusieurs tailles différentes, la plus petite utilisant 7 milliards de paramètres lors de la génération de réponses, contre 65 milliards de paramètres pour la plus grande. La plus grande version a également été entraînée sur 1,4 billion de « jetons » (décrits comme des morceaux d’un mot), et possède donc un vocabulaire impressionnant.
Meta a déjà touché au monde de l’IA avec sa version d’août 2022 de BlenderBot, un chatbot plus dans le style de ChatGPT. Il a également créé Galactica, qui a été conçu pour écrire des articles scientifiques, mais cela a été de courte durée, ne durant que trois jours avant d’être mis hors service pour inexactitude.
L’un des aspects les plus dangereux de la recherche basée sur l’IA est la possibilité de générer des informations incorrectes qui semblent plausibles que les utilisateurs prennent ensuite pour l’évangile. Meta est préoccupé par cela et a mis son engagement à utiliser les bonnes méthodes par écrit avec ses pratiques d’IA responsable (s’ouvre dans un nouvel onglet). Certes, en ayant un jardin clos uniquement approuvé, LLaMA pourrait éviter une grande partie de la corruption à laquelle d’autres outils ont été confrontés.
Compte tenu de l’orientation de la recherche de LLaMA, il est important que ses informations soient correctes. Cet engagement à fournir des informations fiables est à saluer, nous ne nous attendions tout simplement pas à ce qu’il vienne des créateurs de FaceBook.