Cette semaine dans l’IA : les acheteurs veulent-ils réellement le GenAI d’Amazon ?

Suivre le rythme d’un secteur aussi en évolution rapide que l’IA est un défi de taille. En attendant qu’une IA puisse le faire à votre place, voici un tour d’horizon pratique des histoires récentes dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes seules.

Cette semaine, Amazon a annoncé Rufus, un assistant commercial alimenté par l’IA, formé sur le catalogue de produits du géant du commerce électronique ainsi que sur les informations provenant du Web. Rufus vit dans l’application mobile d’Amazon, aidant à trouver des produits, à effectuer des comparaisons de produits et à obtenir des recommandations sur ce qu’il faut acheter.

À partir de recherches approfondies au début d’un parcours d’achat telles que « que prendre en compte lors de l’achat de chaussures de course ? » à des comparaisons telles que « quelles sont les différences entre les chaussures de course sur sentier et sur route ? » … Rufus améliore considérablement la facilité avec laquelle les clients peuvent trouver et découvrir les meilleurs produits pour répondre à leurs besoins », écrit Amazon dans un article de blog.

Tout cela est génial. Mais ma question est : qui le réclame ? vraiment ?

Je ne suis pas convaincu que GenAI, en particulier sous forme de chatbot, soit une technologie qui intéresse la personne moyenne – ou même à laquelle elle pense. Les sondages me soutiennent dans ce sens. En août dernier, le Pew Research Center a découvert que parmi les Américains qui ont entendu parler du chatbot GenAI d’OpenAI, ChatGPT (18 % des adultes), seuls 26 % l’ont essayé. L’utilisation varie bien sûr selon l’âge, avec un pourcentage plus élevé de jeunes (moins de 50 ans) déclarant l’avoir utilisé que de personnes plus âgées. Mais il n’en demeure pas moins que la grande majorité ne sait pas – ou ne se soucie pas – d’utiliser ce qui est sans doute le produit GenAI le plus populaire du marché.

GenAI a ses problèmes très médiatisés, parmi lesquels une tendance à inventer des faits, à enfreindre les droits d’auteur et à dénoncer des biais et une toxicité. La précédente tentative d’Amazon de créer un chatbot GenAI, Amazon Q, a connu de grandes difficultés, révélant des informations confidentielles dès le premier jour de sa sortie. Mais je dirais que le plus gros problème de GenAI aujourd’hui – du moins du point de vue du consommateur – est qu’il existe peu de raisons universellement convaincantes de l’utiliser.

Bien sûr, GenAI comme Rufus peut aider avec des tâches spécifiques et étroites comme faire du shopping par occasion (par exemple trouver des vêtements pour l’hiver), comparer les catégories de produits (par exemple la différence entre le brillant à lèvres et l’huile) et faire apparaître les principales recommandations (par exemple les cadeaux pour la Saint-Valentin). Cependant, répond-il aux besoins de la plupart des acheteurs ? Pas selon un récent sondage de la startup de logiciels de commerce électronique Namogoo.

Namogoo, qui a interrogé des centaines de consommateurs sur leurs besoins et leurs frustrations en matière d’achats en ligne, a constaté que les images de produits étaient de loin le contributeur le plus important à une bonne expérience de commerce électronique, suivies par les critiques et les descriptions de produits. Les personnes interrogées ont classé la recherche au quatrième rang et la « navigation simple » au cinquième rang ; se souvenir des préférences, des informations et de l’historique des achats était l’avant-dernière.

L’implication est que les gens achètent généralement avec un produit en tête ; cette recherche est une réflexion après coup. Peut-être que Rufus va bouleverser l’équation. J’ai tendance à ne pas le penser, surtout s’il s’agit d’un déploiement difficile (et cela pourrait bien être dû à la réception des autres expériences d’achat GenAI d’Amazon) – mais des choses plus étranges se sont produites, je suppose.

Voici quelques autres histoires intéressantes sur l’IA de ces derniers jours :

  • Google Maps expérimente avec GenAI: Google Maps introduit une fonctionnalité GenAI pour vous aider à découvrir de nouveaux lieux. Tirant parti des grands modèles linguistiques (LLM), la fonctionnalité analyse plus de 250 millions d’emplacements sur Google Maps et les contributions de plus de 300 millions de guides locaux pour extraire des suggestions basées sur ce que vous recherchez.
  • Outils GenAI pour la musique et plus encore : Dans d’autres actualités de Google, le géant de la technologie a publié des outils GenAI pour créer de la musique, des paroles et des images et a présenté Gemini Pro, l’un de ses LLM les plus performants, aux utilisateurs de son chatbot Bard dans le monde entier.
  • Nouveaux modèles d’IA ouverts : L’Allen Institute for AI, l’institut de recherche à but non lucratif sur l’IA fondé par le regretté co-fondateur de Microsoft, Paul Allen, a publié plusieurs modèles de langage GenAI qui, selon lui, sont plus « ouverts » que d’autres – et, surtout, sous licence de telle manière que les développeurs peuvent utiliser sans entraves pour la formation, l’expérimentation et même la commercialisation.
  • La FCC décide d’interdire les appels générés par l’IA : La FCC propose que l’utilisation de la technologie de clonage vocal dans les appels automatisés soit déclarée fondamentalement illégale, ce qui faciliterait l’accusation des opérateurs pour ces fraudes.
  • Shopify déploie un éditeur d’images : Shopify lance un éditeur multimédia GenAI pour améliorer les images des produits. Les commerçants peuvent sélectionner un type parmi sept styles ou saisir une invite pour générer un nouvel arrière-plan.
  • GPT, invoqués : OpenAI favorise l’adoption des GPT, des applications tierces alimentées par ses modèles d’IA, en activant ChatGPT les utilisateurs de les invoquer dans n’importe quel chat. Les utilisateurs payants de ChatGPT peuvent intégrer des GPT dans une conversation en tapant « @ » et en sélectionnant un GPT dans la liste.
  • OpenAI s’associe à Common Sense : Dans une annonce sans rapport, OpenAI a déclaré qu’elle s’associe à Common Sense Media, l’organisation à but non lucratif qui examine et classe l’adéquation de divers médias et technologies pour les enfants, pour collaborer sur des lignes directrices en matière d’IA et du matériel pédagogique destiné aux parents, aux éducateurs et aux jeunes adultes.
  • Navigation autonome : La société Browser, qui fabrique Arc Browser, cherche à créer une IA qui surfe sur le Web pour vous et vous obtient des résultats tout en contournant les moteurs de recherche, écrit Ivan.

Plus d’apprentissages automatiques

Une IA sait-elle ce qui est « normal » ou « typique » pour une situation, un support ou un énoncé donné ? D’une certaine manière, les grands modèles de langage sont particulièrement adaptés pour identifier les modèles qui ressemblent le plus aux autres modèles dans leurs ensembles de données. Et c’est en effet ce que les chercheurs de Yale ont découvert dans leurs recherches visant à déterminer si une IA pouvait identifier la « typicité » d’une chose dans un groupe d’autres. Par exemple, sur 100 romans d’amour, lequel est le plus et lequel est le moins « typique » compte tenu de ce que le modèle a stocké sur ce genre ?

Fait intéressant (et frustrant), les professeurs Balázs Kovács et Gaël Le Mens ont travaillé pendant des années sur leur propre modèle, une variante BERT, et juste au moment où ils étaient sur le point de publier, ChatGPT est sorti et a dupliqué à bien des égards exactement ce qu’ils avaient fait. «Vous pourriez pleurer», a déclaré Le Mens dans un communiqué de presse. Mais la bonne nouvelle est que la nouvelle IA et son ancien modèle optimisé suggèrent tous deux que ce type de système peut effectivement identifier ce qui est typique et atypique dans un ensemble de données, une découverte qui pourrait être utile à long terme. Les deux soulignent que même si ChatGPT soutient leur thèse dans la pratique, sa nature fermée rend difficile son utilisation scientifique.

Des scientifiques de l’Université de Pennsylvanie étudiaient un autre concept étrange à quantifier : le bon sens. En demandant à des milliers de personnes d’évaluer des affirmations telles que « vous obtenez ce que vous donnez » ou « ne mangez pas de nourriture après la date de péremption » sur leur « bon sens ». Sans surprise, même si des tendances ont émergé, « peu de croyances ont été reconnues au niveau du groupe ».

« Nos résultats suggèrent que l’idée du bon sens de chaque personne peut être unique, ce qui rend le concept moins courant qu’on pourrait le penser », explique le co-auteur principal Mark Whiting. Pourquoi est-ce dans une newsletter sur l’IA ? Parce que comme à peu près tout le reste, il s’avère que quelque chose d’aussi « simple » que le bon sens, que l’on pourrait s’attendre à ce que l’IA finisse par avoir, n’est pas simple du tout ! Mais en la quantifiant de cette façon, les chercheurs et les auditeurs peuvent être en mesure de déterminer le degré de bon sens d’une IA, ou les groupes et préjugés auxquels elle s’aligne.

En parlant de préjugés, de nombreux grands modèles de langage sont assez lâches quant aux informations qu’ils ingèrent, ce qui signifie que si vous leur donnez la bonne invite, ils peuvent répondre de manière offensante, incorrecte ou les deux. Latimer est une startup qui vise à changer cela avec un modèle qui se veut plus inclusif de par sa conception.

Bien qu’il n’y ait pas beaucoup de détails sur leur approche, Latimer affirme que leur modèle utilise la génération augmentée de récupération (pensée pour améliorer les réponses) et un ensemble de contenus et de données sous licence uniques provenant de nombreuses cultures qui ne sont normalement pas représentées dans ces bases de données. Ainsi, lorsque vous posez une question sur quelque chose, le modèle ne revient pas à une monographie du XIXe siècle pour vous répondre. Nous en apprendrons plus sur le modèle lorsque Latimer publiera plus d’informations.

Crédits images : Purdue / Bedrich Benes

Cependant, une chose qu’un modèle d’IA peut certainement faire est de faire pousser des arbres. Faux arbres. Des chercheurs de l’Institute for Digital Forestry de Purdue (où j’aimerais travailler, appelez-moi) ont créé un modèle ultra-compact qui simule de manière réaliste la croissance d’un arbre. C’est un de ces problèmes qui semble simple mais qui ne l’est pas ; vous pouvez simuler la croissance d’un arbre de manière efficace si vous réalisez un jeu ou un film, bien sûr, mais qu’en est-il d’un travail scientifique sérieux ? « Bien que l’IA soit devenue apparemment omniprésente, elle s’est avérée jusqu’à présent très efficace dans la modélisation de géométries 3D sans rapport avec la nature », a déclaré l’auteur principal Bedrich Benes.

Leur nouveau modèle ne pèse qu’environ un mégaoctet, ce qui est extrêmement petit pour un système d’IA. Mais bien sûr, l’ADN est encore plus petit et plus dense, et il code pour l’arbre entier, de la racine au bourgeon. Le modèle fonctionne toujours de manière abstraite – ce n’est en aucun cas une simulation parfaite de la nature – mais il montre que les complexités de la croissance des arbres peuvent être codées dans un modèle relativement simple.

Enfin, un robot de chercheurs de l’Université de Cambridge capable de lire le braille plus rapidement qu’un humain, avec une précision de 90 %. Pourquoi demandes-tu? En fait, ce n’est pas destiné aux aveugles – l’équipe a décidé qu’il s’agissait d’une tâche intéressante et facilement quantifiable pour tester la sensibilité et la vitesse du bout des doigts robotiques. S’il peut lire le braille simplement en zoomant dessus, c’est bon signe ! Vous pouvez en savoir plus sur cette approche intéressante ici. Ou regardez la vidéo ci-dessous :

Source-146