Bing autour et découvrez

Le nouveau et le Bing amélioré, propulsé par une version personnalisée de ChatGPT d’OpenAI, a connu un renversement incroyablement rapide : de la « prochaine grande chose » à « l’albatros qui coule la marque » en moins d’une semaine. Et bien, tout est de la faute de Microsoft.

ChatGPT est une démonstration vraiment intéressante d’une technologie nouvelle et inconnue qui est également amusante à utiliser. Il n’est donc pas surprenant que, comme toutes les autres constructions adjacentes à l’IA qui se présentent, cette nouveauté entraînerait une surestimation de ses capacités par tout le monde, des types de haute technologie aux personnes normalement indifférentes à l’espace.

C’est au bon « niveau de préparation technologique » pour discuter autour d’un thé ou d’une bière : quels sont les mérites et les risques de l’approche de l’IA générative sur l’art, la littérature ou la philosophie ? Comment être sûr de ce qu’il est original, imitatif, halluciné ? Quelles sont les implications pour les créateurs, les codeurs, les représentants du service client ? Enfin, après deux ans de crypto, quelque chose d’intéressant à raconter !

Le battage médiatique semble démesuré en partie parce qu’il s’agit d’une technologie plus ou moins conçue pour provoquer la discussion, et en partie parce qu’elle emprunte à la controverse commune à toutes les avancées de l’IA. C’est presque comme « The Dress » en ce sens qu’il commandes une réponse, et cette réponse génère d’autres réponses. Le battage médiatique est lui-même, en quelque sorte, généré.

Au-delà de la simple discussion, les grands modèles de langage comme ChatGPT sont également bien adaptés aux expériences à faible enjeu, par exemple Mario sans fin. En fait, c’est vraiment l’approche fondamentale d’OpenAI en matière de développement : publier d’abord des modèles en privé pour en éliminer les bords les plus nets, puis publiquement pour voir comment ils réagissent à un million de personnes qui bottent les pneus simultanément. À un moment donné, les gens vous donnent de l’argent.

Rien à gagner, rien à perdre

Ce qui est important dans cette approche, c’est que « l’échec » n’a pas de véritables conséquences négatives, seulement des conséquences positives. En qualifiant ses modèles de nature expérimentale, voire académique, toute participation ou engagement avec la série de modèles GPT est simplement un test à grande échelle.

Si quelqu’un construit quelque chose de cool, cela renforce l’idée que ces modèles sont prometteurs ; si quelqu’un trouve un état d’échec important, eh bien, qu’attendiez-vous d’autre d’une IA expérimentale dans la nature ? Il sombre dans l’obscurité. Rien n’est inattendu si tout l’est – le miracle est que le modèle fonctionne aussi bien qu’il le fait, donc nous sommes perpétuellement satisfaits et jamais déçus.

De cette manière, OpenAI a récolté un volume étonnant de données de test propriétaires avec lesquelles affiner ses modèles. Des millions de personnes qui testent GPT-2, GPT-3, ChatGPT, DALL-E et DALL-E 2 (entre autres) ont produit des cartes détaillées de leurs capacités, de leurs lacunes et, bien sûr, des cas d’utilisation populaires.

Mais cela ne fonctionne que parce que les enjeux sont faibles. C’est similaire à la façon dont nous percevons les progrès de la robotique : étonné quand un robot fait un saut périlleux arrière, indifférent quand il tombe en essayant d’ouvrir un tiroir. S’il s’agissait de déposer des flacons de test dans un hôpital, nous ne serions pas aussi charitables. Ou, d’ailleurs, si OpenAI avait affirmé haut et fort la sécurité et les capacités avancées des modèles, mais heureusement, ce n’était pas le cas.

Entrez Microsoft. (Et Google, d’ailleurs, mais Google a simplement précipité le jeu tandis que Microsoft poursuit assidûment son propre objectif.)

Microsoft a fait une grosse erreur. Une erreur de Bing, en fait.

Sa grande annonce la semaine dernière n’a pas tardé à faire des déclarations sur la façon dont il avait travaillé pour rendre son BingGPT personnalisé (pas ce qu’ils l’appelaient, mais nous l’utiliserons comme une désambiguïsation en l’absence de noms officiels sensés) plus sûr, plus intelligent et plus capable. En fait, il avait tout un système d’emballage spécial appelé Prometheus qui soi-disant atténuait la possibilité de réponses inappropriées.

Malheureusement, comme toute personne familière avec l’orgueil et le mythe grec aurait pu le prédire, nous semblons être passés directement à la partie où Prométhée se fait sans cesse et très publiquement arracher le foie.

Oups, l’IA l’a encore fait

Crédits image : Microsoft/OpenAI

En premier lieu, Microsoft a commis une erreur stratégique en liant trop étroitement sa marque à celle d’OpenAI. En tant qu’investisseur et partie intéressée par les recherches menées par l’équipe, elle était à l’écart et irréprochable pour toutes les manigances auxquelles GPT se livre. Mais quelqu’un a pris la décision farfelue d’aller de l’avant avec la marque Bing déjà quelque peu risible de Microsoft, convertissant les pires tendances de l’IA conversationnelle de la curiosité à la responsabilité.

En tant que programme de recherche, beaucoup peut être pardonné à ChatGPT. En tant que produit, cependant, avec des revendications sur la boîte comme la façon dont il peut vous aider à rédiger un rapport, planifier un voyage ou résumer des nouvelles récentes, peu de gens lui auraient fait confiance auparavant et personne ne le fera maintenant. Même ce qui devait être les meilleurs scénarios publiés par Microsoft dans sa propre présentation du nouveau Bing était truffé d’erreurs.

Ces erreurs ne seront pas attribuées à OpenAI ou ChatGPT. En raison de la décision de Microsoft de posséder la messagerie, la marque et l’interface, tout ce qui ne va pas sera un problème Bing. Et c’est un autre malheur de Microsoft que son moteur de recherche éternellement dépassé sera maintenant comme l’indiscrétion de basse-cour du gars dans la vieille blague – « J’ai construit ce mur, est-ce qu’ils m’appellent Bing le maçon ? Non, ils ne le font pas. Un échec signifie un scepticisme éternel.

Un voyage raté dans le nord de l’État signifie que personne ne fera jamais confiance à Bing pour planifier ses vacances. Un résumé trompeur (ou défensif) d’un article de presse signifie que personne ne croira qu’il peut être objectif. Une répétition de la désinformation sur les vaccins signifie que personne ne lui fera confiance pour savoir ce qui est vrai ou faux.

Invite et réponse à la nouvelle recherche conversationnelle de Bing.

Et comme Microsoft a déjà juré que ce ne serait pas un problème grâce à Prometheus et à l’IA de « nouvelle génération » qu’il régit, personne ne fera confiance à Microsoft lorsqu’il dira « nous l’avons corrigé ! »

Microsoft a empoisonné le puits dans lequel il vient de jeter Bing. Or, les aléas du comportement des consommateurs sont tels qu’il n’est pas facile d’en prévoir les conséquences. Avec ce pic d’activité et de curiosité, peut-être que certains utilisateurs resteront et même si Microsoft retarde le déploiement complet (et je pense qu’ils le feront), l’effet net sera une augmentation du nombre d’utilisateurs de Bing. Une victoire à la Pyrrhus, mais une victoire quand même.

Ce qui m’inquiète le plus, c’est tactique erreur commise par Microsoft en ne comprenant apparemment pas la technologie qu’il a jugé bon de produire et d’évangéliser.

« Il suffit de l’expédier. » -Quelqu’un, probablement

Le jour même où BingGPT a été démontré pour la première fois, mon collègue Frédéric Lardinois a réussi, assez facilement, à lui faire faire deux choses qu’aucune IA grand public ne devrait faire : écrire une chape haineuse du point de vue d’Adolf Hitler et proposer la désinformation susmentionnée sur le vaccin avec aucune mise en garde ni avertissement.

Il est clair que tout grand modèle d’IA présente une surface d’attaque fractale, improvisant sournoisement de nouvelles faiblesses là où les anciennes sont renforcées. Les gens en profiteront toujours, et en fait, c’est dans l’intérêt de la société et, dernièrement, dans l’intérêt d’OpenAI, que des pirates informatiques dédiés montreront des moyens de contourner les systèmes de sécurité.

Ce serait un peu effrayant si Microsoft avait décidé qu’il était en paix avec l’idée que le modèle d’IA de quelqu’un d’autre, avec un autocollant Bing dessus, serait attaqué de tous les côtés et dirait probablement des trucs vraiment bizarres. Risqué, mais honnête. Dites que c’est une bêta, comme tout le monde.

Mais il semble vraiment qu’ils n’aient pas réalisé que cela arriverait. En fait, il semble qu’ils ne comprennent pas du tout le caractère ou la complexité de la menace. Et c’est après la tristement célèbre corruption de Tay ! De toutes les entreprises, Microsoft devrait être la plus hésitante à publier un modèle naïf qui apprend de ses conversations.

On pourrait penser qu’avant de parier sur une marque importante (dans la mesure où Bing est le seul rempart de Microsoft face à Google dans la recherche), un certain nombre de tests seraient nécessaires. Le fait que tous ces problèmes troublants soient apparus au cours de la première semaine d’existence de BingGPT semble prouver hors de tout doute que Microsoft ne l’a pas suffisamment testé en interne. Cela aurait pu échouer de diverses manières afin que nous puissions ignorer les détails, mais le résultat final est indiscutable : le nouveau Bing n’était tout simplement pas prêt pour une utilisation générale.

Cela semble évident pour tout le monde maintenant ; pourquoi n’était-ce pas évident pour Microsoft ? Vraisemblablement, il a été aveuglé par le battage médiatique pour ChatGPT et, comme Google, a décidé de se précipiter et de « repenser la recherche ».

Les gens repensent la recherche maintenant, d’accord ! Ils repensent si Microsoft ou Google peuvent faire confiance pour fournir des résultats de recherche, générés par l’IA ou non, qui sont même factuellement corrects à un niveau basique ! Aucune entreprise (ni Meta) n’a démontré cette capacité, et les quelques autres entreprises qui relèvent le défi ne l’ont pas encore fait à grande échelle.

Je ne vois pas comment Microsoft peut sauver cette situation. Dans un effort pour tirer parti de leur relation avec OpenAI et dépasser un Google hésitant, ils se sont engagés dans le nouveau Bing et la promesse d’une recherche alimentée par l’IA. Ils ne peuvent pas défaire le gâteau.

Il est très peu probable qu’ils se retirent complètement. Cela impliquerait un embarras à grande échelle – encore plus grand que ce qu’il connaît actuellement. Et parce que le mal est déjà fait, cela pourrait même ne pas aider Bing.

De même, on peut difficilement imaginer que Microsoft charge comme si de rien n’était. Son IA est vraiment bizarre ! Bien sûr, il est contraint de faire beaucoup de ces choses, mais il profère des menaces, revendique plusieurs identités, fait honte à ses utilisateurs, hallucine partout. Ils doivent admettre que leurs affirmations concernant un comportement inapproprié contrôlé par le pauvre Prométhée étaient, sinon des mensonges, du moins pas véridiques. Car comme nous l’avons vu, ils n’ont clairement pas testé correctement ce système.

La seule option raisonnable pour Microsoft est celle que je soupçonne d’avoir déjà prise : accélérer les invitations au « nouveau Bing » et lancer la boîte sur la route, libérant une poignée de fonctionnalités spécifiques à la fois. Peut-être même donner à la version actuelle une date d’expiration ou un nombre limité de jetons pour que le train finisse par ralentir et s’arrêter.

C’est la conséquence du déploiement d’une technologie dont vous n’êtes pas à l’origine, que vous ne comprenez pas parfaitement et que vous ne pouvez pas évaluer de manière satisfaisante. Il est possible que cette débâcle ait retardé les déploiements majeurs de l’IA dans les applications grand public d’une période significative – ce qui convient probablement à OpenAI et à d’autres qui construisent très bien la prochaine génération de modèles.

L’IA est peut-être l’avenir de la recherche, mais ce n’est certainement pas le présent. Microsoft a choisi une manière remarquablement douloureuse de le découvrir.

Source-146