La startup d’IA basée à Paris, Mistral AI, construit progressivement une alternative à OpenAI et Anthropic, comme le montre sa dernière annonce. La société lance un nouveau modèle phare de grand langage appelé Mistral Large. En ce qui concerne les capacités de raisonnement, il est conçu pour rivaliser avec d’autres modèles haut de gamme, tels que GPT-4 et Claude 2.
Outre Mistral Large, la startup lance également sa propre alternative à ChatGPT avec un nouveau service baptisé Le Chat. Cet assistant de chat est actuellement disponible en version bêta.
Si vous n’êtes pas familier avec Mistral AI, la société est mieux connue pour sa table de capitalisation, car elle a levé une somme d’argent obscène en très peu de temps pour développer des modèles d’IA fondamentaux. La société a été officiellement constituée en mai 2023. Quelques semaines plus tard, Mistral AI a levé un tour de table de 113 millions de dollars. En décembre, la société a clôturé un tour de table de 415 millions de dollars, mené par Andreessen Horowitz (a16z).
Fondée par des anciens de DeepMind et Meta de Google, Mistral AI s’est initialement positionnée comme une société d’IA axée sur l’open source. Si le premier modèle de Mistral AI a été publié sous une licence open source avec accès aux poids des modèles, ce n’est pas le cas de ses modèles plus grands.
Le modèle économique de Mistral AI ressemble de plus en plus à celui d’OpenAI puisque la société propose Mistral Large via une API payante avec une tarification basée sur l’utilisation. Il en coûte actuellement 8 $ par million de jetons d’entrée et 24 $ par million de jetons de sortie pour interroger Mistral Large. Dans le jargon du langage artificiel, les jetons représentent de petits morceaux de mots. Par exemple, le mot « TechCrunch » serait divisé en deux jetons, « Tech » et « Crunch », lorsqu’il serait traité par un modèle d’IA.
Par défaut, Mistral AI prend en charge des fenêtres contextuelles de 32 000 tokens (généralement plus de 20 000 mots en anglais). Mistral Large prend en charge l’anglais, le français, l’espagnol, l’allemand et l’italien.
À titre de comparaison, GPT-4 Turbo, qui dispose d’une fenêtre contextuelle de 128 000 jetons, coûte actuellement 10 $ par million de jetons d’entrée et 30 $ par million de jetons de sortie. Mistral Large est donc actuellement 1,25 fois moins cher que GPT-4 Turbo. Les choses évoluent à un rythme rapide et les sociétés d’IA mettent régulièrement à jour leurs tarifs.
Mais comment Mistral Large se compare-t-il à GPT-4 et Claude 2 ? Comme toujours, c’est très difficile à dire. Mistral AI affirme se classer deuxième après GPT-4 sur la base de plusieurs benchmarks. Mais il pourrait y avoir une sélection de références et des disparités dans l’utilisation réelle. Nous devrons creuser davantage pour voir comment il se comporte lors de nos tests.
Une alternative à ChatGPT
Mistral AI lance également aujourd’hui un assistant de chat baptisé Le Chat. Tout le monde peut s’inscrire et l’essayer sur chat.mistral.ai. La société affirme qu’il s’agit pour l’instant d’une version bêta et qu’il pourrait y avoir des « bizarreries ».
L’accès au service est gratuit (pour l’instant) et les utilisateurs peuvent choisir entre trois modèles différents : Mistral Small, Mistral Large et un prototype conçu pour être bref et concis appelé Mistral Next. Il convient également de noter que Le Chat ne peut pas accéder au Web lorsque vous l’utilisez.
La société prévoit également de lancer une version payante de Le Chat pour les entreprises clientes. En plus de la facturation centrale, les entreprises clientes pourront définir des mécanismes de modération.
Un partenariat avec Microsoft
Enfin, Mistral AI profite également de l’actualité d’aujourd’hui pour annoncer un partenariat avec Microsoft. En plus de la propre plateforme API de Mistral, Microsoft va fournir des modèles Mistral à ses clients Azure.
Il s’agit d’un autre modèle du catalogue de modèles d’Azure, qui ne semble pas si grave. Et pourtant, cela signifie également que Mistral AI et Microsoft sont désormais en pourparlers sur des opportunités de collaboration et potentiellement plus encore. Le premier avantage de ce partenariat est que Mistral AI attirera probablement davantage de clients grâce à ce nouveau canal de distribution.
Quant à Microsoft, la société est le principal investisseur de la filiale à profit plafonné d’OpenAI. Mais il a également accueilli d’autres modèles d’IA sur sa plateforme de cloud computing. Par exemple, Microsoft et Meta s’associent pour proposer de grands modèles de langage Llama sur Azure.
Cette stratégie de partenariat ouvert est un bon moyen de conserver ses clients Azure dans son écosystème de produits. Cela pourrait également être utile en matière de contrôle anticoncurrentiel.
Correction : Une version précédente de cet article comparait les tarifs de Mistral Large avec une ancienne version de l’API GPT d’OpenAI. Mistral Large est 1,25 fois moins cher que la version la plus récente de GPT appelée GPT-4 Turbo.