Jeudi, Anthropic, fabricant d’IA et concurrent d’OpenAI, a lancé Claude Pro, une version par abonnement de son assistant d’IA Web Claude.ai, qui fonctionne de manière similaire à ChatGPT. Il est disponible pour 20 $/mois aux États-Unis ou 18 livres/mois au Royaume-Uni, et promet des limites d’utilisation cinq fois plus élevées, un accès prioritaire à Claude pendant les périodes de fort trafic et un accès anticipé aux nouvelles fonctionnalités dès leur apparition.
Comme ChatGPT, Claude Pro peut composer du texte, résumer, effectuer des analyses, résoudre des énigmes logiques, et bien plus encore.
Claude.ai est ce qu’Anthropic propose comme interface conversationnelle pour son modèle de langage Claude 2 AI, de la même manière que ChatGPT fournit un wrapper d’application pour les modèles sous-jacents GPT-3.5 et GPT-4. En février, OpenAI a choisi une voie d’abonnement pour ChatGPT Plus, qui, pour 20 $ par mois, donne également un accès anticipé aux nouvelles fonctionnalités, mais débloque également l’accès à GPT-4, qui est le modèle de langage le plus puissant d’OpenAI.
Qu’est-ce que Claude a que ChatGPT n’a pas ? Une grande différence est une fenêtre contextuelle de 100 000 jetons, ce qui signifie qu’elle peut traiter environ 75 000 mots à la fois. Les jetons sont des fragments de mots utilisés lors du traitement du texte. Cela signifie que Claude peut analyser des documents plus longs ou tenir des conversations plus longues sans perdre la mémoire du sujet traité. ChatGPT ne peut traiter qu’environ 8 000 jetons en mode GPT-4.
« Le plus important pour moi, c’est la limite de 100 000 jetons », a déclaré à Ars Technica le chercheur en IA Simon Willison. « C’est énorme ! Cela ouvre des possibilités entièrement nouvelles, et je l’utilise plusieurs fois par semaine juste pour cette fonctionnalité. » Willison écrit régulièrement sur l’utilisation de Claude sur son blog, et il l’utilise souvent pour nettoyer les transcriptions de ses discussions en personne. Mais il met également en garde contre les « hallucinations », où Claude invente parfois des choses.
« J’ai certainement vu plus d’hallucinations de Claude aussi » par rapport à GPT-4, dit Willison, « ce qui me rend nerveux de l’utiliser pour des tâches plus longues car il y a tellement plus d’opportunités pour qu’il glisse quelque chose d’halluciné sans que je m’en aperçoive. «
Willison a également rencontré des problèmes avec le filtre moral de Claude, ce qui lui a causé des problèmes par accident : « J’ai essayé de l’utiliser contre une transcription d’un épisode de podcast, et il a traité la majeure partie du texte avant, juste sous mes yeux, » J’ai supprimé tout ce qu’il avait fait ! J’ai finalement compris qu’ils avaient commencé à parler d’alertes à la bombe contre les centres de données vers la fin de l’épisode, et Claude a effectivement été déclenché par cela et a supprimé toute la transcription. «
Que signifie « 5 fois plus d’utilisation » ?
Le principal argument de vente d’Anthropic pour l’abonnement Claude Pro est « 5 fois plus d’utilisation », mais la société ne communique pas clairement quelles sont réellement les limites d’utilisation du niveau gratuit de Claude. En laissant tomber des indices comme des fils d’Ariane énigmatiques, la société a rédigé un document d’assistance sur le sujet qui dit : « Si vos conversations sont relativement courtes (environ 200 phrases en anglais, en supposant que vos phrases comptent entre 15 et 20 mots), vous pouvez vous attendre à envoyer au moins 100 messages toutes les 8 heures, souvent plus selon la capacité actuelle de Claude. Plus des deux tiers de toutes les conversations sur claude.ai (en septembre 2023) ont duré cette durée.
Dans une autre déclaration quelque peu énigmatique, Anthropic écrit : « Si vous téléchargez une copie de Gatsby le magnifiquevous ne pourrez peut-être envoyer que 20 messages dans cette conversation en 8 heures. » Nous ne tentons pas de faire le calcul, mais si vous connaissez le nombre précis de mots du classique de F. Scott Fitzgerald, il sera peut-être possible de glaner les limites réelles de Claude. Nous avons contacté Anthropic pour obtenir des éclaircissements hier et n’avons pas reçu de réponse avant la publication.
Quoi qu’il en soit, Anthropic indique clairement que pour un modèle d’IA avec une limite de contexte de 100 000 jetons, des limites d’utilisation sont nécessaires car le calcul impliqué est coûteux. « Un modèle aussi performant que Claude 2 nécessite beaucoup d’ordinateurs puissants pour fonctionner, en particulier pour répondre à des pièces jointes volumineuses et à de longues conversations », écrit Anthropic dans le document de support. « Nous avons fixé ces limites pour garantir que Claude puisse être mis à la disposition de nombreuses personnes pour qu’elles puissent l’essayer gratuitement, tout en permettant aux utilisateurs expérimentés d’intégrer Claude dans leurs flux de travail quotidiens. »
De plus, Anthropic a lancé vendredi Claude Instant 1.2, une version moins chère et plus rapide de Claude, disponible via une API. Cependant, il est moins performant que Claude 2 dans les tâches logiques.
S’il est clair que les grands modèles de langage comme Claude peuvent faire des choses intéressantes, il semble que leurs inconvénients et leur tendance à la confabulation pourraient les empêcher d’être utilisés à plus grande échelle en raison de problèmes de fiabilité. Pourtant, Willison est un fan de Claude 2 dans sa forme en ligne : « Je suis ravi de le voir continuer à s’améliorer. Les 100 000 jetons sont une énorme victoire, et le fait que vous puissiez y télécharger des PDF est vraiment pratique. »