Les gens n’ont pas vraiment été impressionnés depuis que Google a publié son « service expérimental d’IA conversationnelle » Bard. Face au ChatGPT d’OpenAI et au Bing Chat de Microsoft (également alimenté par le GPT-4 d’OpenAI), les utilisateurs ont trouvé que ses réponses n’étaient pas aussi bien informées ou détaillées que ses rivaux. Cela pourrait être amené à changer, cependant, après que le PDG de Google, Sundar Pichai, a confirmé le Le New York Times podcast « Hard Fork » que Bard passera bientôt de son modèle actuel basé sur LaMDA à des ensembles de données PaLM à plus grande échelle dans les prochains jours.
Lorsqu’on lui a demandé ce qu’il pensait des réponses à la sortie de Bard, Pichai a commenté: « Nous avons clairement des modèles plus performants. Bientôt, peut-être que lorsque cela sera mis en ligne, nous mettrons à niveau Bard vers certains de nos modèles PaLM plus performants, ce qui apportera plus capacités, que ce soit dans le raisonnement, le codage. »
Pour encadrer la différence, Google a déclaré avoir formé LaMDA avec 137 milliards de paramètres lorsqu’il a partagé des détails sur les modèles basés sur la langue l’année dernière. PaLM, d’autre part, aurait été formé avec environ 540 milliards de paramètres. Les deux modèles ont peut-être évolué et se sont développés depuis le début de 2022, mais le contraste montre probablement pourquoi Google fait maintenant lentement la transition de Bard vers PaLM, avec son ensemble de données plus volumineux et ses réponses plus diversifiées.
Pichai affirme ne pas s’inquiéter de la rapidité avec laquelle l’IA de Google se développe par rapport à ses concurrents. Lorsque Bard a fait ses débuts en février, il a reconnu que sa dépendance à LaMDA lui donnait une échelle plus petite, mais qu’il avait moins de puissance de calcul comme avantage, donnant à plus d’utilisateurs la possibilité de le tester et de fournir des commentaires. Pichai a également assuré que Google effectuerait sa propre analyse de la sécurité et de la qualité de Bard une fois qu’il aurait reçu des informations du monde réel.
À cette fin, Pichai a déclaré que Google ne souhaitait pas publier un « modèle plus performant avant que nous puissions nous assurer que nous pouvons bien le gérer. Nous en sommes tous à un stade très précoce. Nous aurons des modèles encore plus performants à brancher. dans le temps. Mais je ne veux pas que ce soit juste qui est là en premier, mais il est très important pour nous de bien faire les choses.
Cette pensée est dans l’esprit de plus de 1 800 personnes (y compris des leaders technologiques et des chercheurs en IA) qui ont signé une lettre ouverte appelant à une pause d’au moins six mois sur le développement d’une technologie d’IA « plus puissante que GPT-4 ».
Pichai ne pense pas que cela puisse être fait efficacement sans impliquer le gouvernement, mais convient de la nécessité de conseils : « L’IA est un domaine trop important pour ne pas être réglementé. C’est aussi un domaine trop important pour ne pas être bien réglementé. Je suis donc heureux ces conversations sont en cours. »
Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.