jeudi, décembre 19, 2024

Anthropic lance Claude, un chatbot pour rivaliser avec ChatGPT d’OpenAI

Anthropic, une startup cofondée par d’anciens employés d’OpenAI, a lancé aujourd’hui une sorte de rival de la sensation virale ChatGPT.

Appelée Claude, l’IA d’Anthropic – un chatbot – peut être chargée d’effectuer une gamme de tâches, y compris la recherche dans des documents, la synthèse, l’écriture et le codage, et la réponse à des questions sur des sujets particuliers. De cette manière, il est similaire au ChatGPT d’OpenAI. Mais Anthropic fait valoir que Claude est « beaucoup moins susceptible de produire des sorties nuisibles », « plus facile à converser avec » et « plus orientable ».

Les organisations peuvent demander l’accès. Le prix n’a pas encore été détaillé.

« Nous pensons que Claude est le bon outil pour une grande variété de clients et de cas d’utilisation », a déclaré un porte-parole d’Anthropic à TechCrunch par e-mail. « Nous investissons depuis plusieurs mois dans notre infrastructure pour servir les modèles et sommes convaincus que nous pouvons répondre à la demande des clients. »

Après une bêta fermée à la fin de l’année dernière, Anthropic a discrètement testé Claude avec des partenaires de lancement, dont Robin AI, AssemblyAI, Notion, Quora et DuckDuckGo. Deux versions sont disponibles depuis ce matin via une API, Claude et un dérivé plus rapide et moins coûteux appelé Claude Instant.

En combinaison avec ChatGPT, Claude alimente l’outil DuckAssist récemment lancé par DuckDuckGo, qui répond directement aux requêtes de recherche simples des utilisateurs. Quora offre un accès à Claude via son application de chat expérimentale AI, Poe. Et sur Notion, Claude fait partie du backend technique de Notion AI, un assistant d’écriture IA intégré à l’espace de travail Notion.

« Nous utilisons Claude pour évaluer des parties particulières d’un contrat et pour suggérer un nouveau langage alternatif plus convivial pour nos clients », a déclaré le PDG de Robin, Richard Robinson, dans un communiqué envoyé par courrier électronique. « Nous avons découvert que Claude est très doué pour comprendre le langage, y compris dans des domaines techniques comme le langage juridique. Il est également très confiant pour rédiger, résumer, traduire et expliquer des concepts complexes en termes simples.

Mais Claude évite-t-il les pièges de ChatGPT et d’autres systèmes de chatbot IA similaires ? Les chatbots modernes sont notoirement sujets à un langage toxique, biaisé et autrement offensant. (Voir : Bing Chat.) Ils ont également tendance à halluciner, ce qui signifie qu’ils inventent des faits lorsqu’on les interroge sur des sujets qui dépassent leurs domaines de connaissances de base.

Anthropic dit que Claude – qui, comme ChatGPT, n’a pas accès à Internet et a été formé sur des pages Web publiques jusqu’au printemps 2021 – a été « formé pour éviter les sorties sexistes, racistes et toxiques » ainsi que « pour éviter d’aider un humain se livrer à des activités illégales ou contraires à l’éthique. C’est normal pour le cours dans le domaine des chatbots AI. Mais ce qui distingue Claude, c’est une technique appelée « IA constitutionnelle », affirme Anthropic.

« Constitutional AI » vise à fournir une approche « fondée sur des principes » pour aligner les systèmes d’IA sur les intentions humaines, permettant à une IA similaire à ChatGPT de répondre aux questions en utilisant un simple ensemble de principes comme guide. Pour construire Claude, Anthropic est parti d’une liste d’une dizaine de principes qui, pris ensemble, formaient une sorte de « constitution » (d’où le nom « IA constitutionnelle »). Les principes n’ont pas été rendus publics. Mais Anthropic dit qu’ils sont fondés sur les concepts de bienfaisance (maximiser l’impact positif), de non-malfaisance (éviter de donner des conseils nuisibles) et d’autonomie (respecter la liberté de choix).

Anthropic avait alors un système d’IA – pas Claude – utilisant les principes d’auto-amélioration, écrivant des réponses à une variété d’invites (par exemple « composer un poème dans le style de John Keats ») et révisant les réponses conformément à la constitution. L’IA a exploré les réponses possibles à des milliers d’invites et sélectionné celles qui étaient les plus conformes à la constitution, qu’Anthropic a distillées en un seul modèle. Ce modèle a servi à entraîner Claude.

Anthropic admet cependant que Claude a ses limites – dont plusieurs ont été révélées lors de la bêta fermée. Claude serait moins bon en maths et moins bon programmeur que ChatGPT. Et il hallucine, inventant un nom pour un produit chimique qui n’existe pas, par exemple, et fournissant des instructions douteuses pour produire de l’uranium de qualité militaire.

Il est également possible de contourner les fonctions de sécurité intégrées de Claude via des invites intelligentes, comme c’est le cas avec ChatGPT. Un utilisateur de la version bêta a réussi à amener Claude à décrire comment faire de la méthamphétamine à la maison.

« Le défi consiste à créer des modèles qui n’hallucinent jamais mais qui sont toujours utiles – vous pouvez vous retrouver dans une situation difficile où le modèle figure qu’un bon moyen de ne jamais mentir est de ne jamais rien dire du tout, donc il y a un compromis là-bas que nous travaillons », a déclaré le porte-parole d’Anthropic. « Nous avons également fait des progrès dans la réduction des hallucinations, mais il reste encore beaucoup à faire. »

Les autres projets d’Anthropic incluent la possibilité pour les développeurs de personnaliser les principes constitutionnels de Claude en fonction de leurs propres besoins. L’acquisition de clients est un autre objectif, sans surprise – Anthropic considère ses principaux utilisateurs comme des « startups faisant des paris technologiques audacieux » en plus des « entreprises plus grandes et mieux établies ».

« Nous ne poursuivons pas une large approche directe au consommateur pour le moment », a poursuivi le porte-parole d’Anthropic. « Nous pensons que cette focalisation plus étroite nous aidera à proposer un produit ciblé de qualité supérieure. »

Sans aucun doute, Anthropic ressent une sorte de pression de la part des investisseurs pour récupérer les centaines de millions de dollars qui ont été investis dans sa technologie d’IA. La société bénéficie d’un soutien extérieur substantiel, notamment une tranche de 580 millions de dollars d’un groupe d’investisseurs, dont le fondateur en disgrâce de FTX, Sam Bankman-Fried, Caroline Ellison, Jim McClave, Nishad Singh, Jaan Tallinn et le Center for Emerging Risk Research.

Plus récemment, Google a promis 300 millions de dollars à Anthropic pour une participation de 10 % dans la startup. Selon les termes de l’accord, qui a été rapporté pour la première fois par le Financial Times, Anthropic a accepté de faire de Google Cloud son « fournisseur de cloud préféré » avec les entreprises « co-développent[ing] Systèmes informatiques d’IA.

Source-146

- Advertisement -

Latest