dimanche, décembre 22, 2024

Comment l’IA va changer notre façon de chercher, pour le meilleur ou pour le pire

gBonne nouvelle à tous, nous passons aux chatbots ! Lors de la sortie de ChatGPT en novembre dernier, OpenAI ne s’était pas rendu compte que le LLM avancé (grand modèle de langage) conçu pour imiter étrangement l’écriture humaine deviendrait l’application à la croissance la plus rapide à ce jour avec plus de 100 millions d’utilisateurs inscrits au cours des trois derniers mois. Son succès – aidé par un investissement pluriannuel de 10 milliards de dollars de Microsoft – a largement pris la concurrence de l’entreprise au dépourvu, provoquant à son tour une réponse frénétique et frénétique de Google, Baidu et Alibaba. Mais à mesure que ces moteurs de recherche améliorés seront mis en ligne dans les prochains jours, les manières et les raisons de la façon dont nous recherchons évolueront à coup sûr avec eux.

« Je suis assez excité par la technologie. Vous savez, nous construisons des systèmes NLP depuis un certain temps et nous envisageons chaque année une croissance progressive », a déclaré à Engadget le Dr Sameer Singh, professeur agrégé d’informatique à l’Université de Californie à Irvine (UCI). « Pour le public, cela semble soudain soudain, c’est là que nous en sommes. J’ai vu les choses s’améliorer au fil des ans et c’est bien que tout cela soit disponible partout et que les gens l’utilisent.

En ce qui concerne le récent succès public des grands modèles de langage, « je pense que c’est en partie parce que la technologie est arrivée à un point où il n’est pas complètement gênant de mettre la sortie de ces modèles devant les gens — et ça a l’air vraiment bien la plupart du temps. « , a poursuivi Singh. « Je pense que c’est assez bien. »

JASON REDMOND via Getty Images

« Je pense que cela a moins à voir avec la technologie mais plus avec la perception du public », a-t-il poursuivi. « Si GPT n’avait pas été publié publiquement… Une fois que quelque chose comme ça est là et que ça résonne vraiment avec tant de gens, l’utilisation est hors des charts. »

Les fournisseurs de recherche ont de gros, grand des idées sur la façon dont les robots d’exploration Web et les moteurs de recherche améliorés par l’intelligence artificielle pourraient fonctionner et damnés s’ils ne vont pas casser des trucs et aller vite pour y arriver. Microsoft envisage son Bing AI pour servir de «copilote» de l’utilisateur dans sa navigation sur le Web, le suivant de page en page en répondant aux questions et même en écrivant des publications sur les réseaux sociaux en son nom.

Il s’agit d’un changement fondamental par rapport au processus que nous utilisons aujourd’hui. Selon la complexité de la question, les utilisateurs peuvent être amenés à visiter plusieurs sites Web, puis à passer au crible les informations collectées et à les assembler en une idée cohérente avant de l’évaluer.

« C’est plus de travail que d’avoir un modèle qui, espérons-le, a déjà lu ces pages et peut les synthétiser en quelque chose qui n’existe pas actuellement sur le Web », Brendan Dolan-Gavitt, professeur adjoint au département d’informatique et d’ingénierie de NYU Tandon, dit Engadget. « L’information est toujours là. C’est toujours vérifiable et, espérons-le, correct. Mais tout n’est pas en place. »

Pour sa part, la vision de Google de l’avenir alimenté par l’IA fait que les utilisateurs traînent autour de sa page de recherche plutôt que de cliquer sur les sites de destination. Les informations pertinentes à la requête de l’utilisateur seraient collectées à partir du Web, assemblées par le modèle de langage, puis régurgitées sous forme de réponse avec référence au site Web d’origine affiché sous forme de notes de bas de page.

Tout cela sonne bien et tout allait bien, jusqu’à la toute première occasion pour que quelque chose tourne mal. Quand il l’a fait. Dans sa publicité Twitter inaugurale – moins de 24 heures après ses débuts – Bard, la réponse de Google à ChatGPT, a déclaré avec confiance : « JWST a pris les toutes premières photos d’une planète en dehors de notre propre système solaire. Vous serez choqué d’apprendre que le télescope spatial James Webb n’a pas, en fait, découvert la première exoplanète de l’histoire. Le Very Large Telescope de l’ESO détient cet honneur depuis 2004. Bard l’a en quelque sorte inventé. Halluciné hors de l’éther numérique.

Bien sûr, ce n’est pas la première fois que des machines nous mentent. La recherche a toujours été un coup de dés, depuis les débuts de Lycos et d’Altavista. « Lorsque la recherche a été publiée, nous pensions que c’était ‘assez bon’ même si ce n’était pas parfait », se souvient Singh. « Cela donnerait toutes sortes de résultats. Au fil du temps, ceux-ci se sont beaucoup améliorés. Nous avons joué avec, et nous avons réalisé quand nous devrions lui faire confiance et quand nous ne devrions pas – quand nous devrions aller à la deuxième page de résultats, et quand nous ne devrions pas.

La génération suivante d’assistants vocaux d’IA a évolué à travers les mêmes problèmes de base que leurs prédécesseurs textuels. « Quand Siri et Google Assistant et tout cela sont sortis et Alexa », a déclaré Singh, « ils n’étaient pas les assistants pour lesquels ils nous étaient vendus. »

Les performances des LLM d’aujourd’hui, comme Bard et ChatGPT, sont susceptibles de s’améliorer selon des voies similaires grâce à leur utilisation publique, ainsi qu’à travers une spécialisation plus poussée dans des rôles techniques et basés sur les connaissances spécifiques tels que la médecine, l’analyse commerciale et le droit. «Je pense qu’il y a certainement des raisons pour lesquelles cela devient beaucoup mieux une fois que vous commencez à le spécialiser. Je ne pense pas que Google et Microsoft vont spécifiquement trop le spécialiser – leur marché est aussi général que possible », a noté Singh.

À bien des égards, ce que Google et Bing proposent en interposant leurs services devant l’Internet au sens large – tout comme AOL l’a fait avec le service America Online dans les années 90 – est une conclusion logique aux défis auxquels sont confrontés les internautes d’aujourd’hui.

REDMOND, WA.  – 7 FÉVRIER : le journaliste du Washington Post Geoff Fowler pose des questions à un porte-parole de Microsoft sur la nouvelle recherche Bing alimentée par l'IA lors d'une démonstration au siège de Microsoft à Redmond, Washington, le mardi 7 février 2023. (Photo de Jovelle Tamayo / pour le Washington Post via Getty Images)

Le Washington Post via Getty Images

« Personne ne fait la recherche comme objectif final. Nous recherchons des informations, éventuellement pour agir sur ces informations », explique Singh. « Si nous considérons cela comme le rôle de la recherche, et pas seulement dans le sens littéral de rechercher littéralement quelque chose, vous pouvez imaginer que quelque chose qui agit réellement en plus des résultats de recherche peut être très utile. »

Singh caractérise cette centralisation du pouvoir comme « une préoccupation très valable. En termes simples, si vous disposez de ces fonctionnalités de chat, vous êtes beaucoup moins enclin à accéder aux sites Web où résident ces informations », a-t-il déclaré.

C’est déjà assez grave que les chatbots aient l’habitude de faire de grands sauts intellectuels dans leurs résumés, mais la pratique peut également « inciter les utilisateurs à ne pas aller sur le site Web, à ne pas lire toute la source, à obtenir simplement la version que l’interface de chat vous donne et à trier de commencer à compter de plus en plus dessus », a averti Singh.

En cela, Singh et Dolan-Gavitt sont d’accord. « Si vous cannibalisez à partir des visites qu’un site aurait reçues et que vous n’y dirigez plus les gens, mais que vous utilisez les mêmes informations, il y a un argument selon lequel ces sites n’auront pas beaucoup d’incitations à continuer à publier de nouveaux contenus. » Dolan-Gavitt a déclaré à Engadget. « D’un autre côté, le besoin de clics est également l’une des raisons pour lesquelles nous recevons beaucoup de spam et l’une des raisons pour lesquelles la recherche est en quelque sorte devenue moins utile récemment. Je pense [the shortcomings of search are] une grande partie de la raison pour laquelle les gens réagissent plus positivement à ces produits de chatbot.

Cette demande, combinée à un marché naissant, entraîne une bousculade parmi les principaux acteurs de l’industrie pour sortir leurs produits hier, prêts ou non, décevants ou non. Cette course aux parts de marché est décidément dangereuse pour les consommateurs. La précédente incursion de Microsoft dans les chatbots IA, Taye de 2014, s’est mal terminée (pour le dire sans les cagoules blanches et le pas de l’oie). Aujourd’hui, les Redditors jailbreakent déjà OpenAI pour générer du contenu raciste. Ce sont deux des défis les plus anodins auxquels nous serons confrontés à mesure que les LLM se développeront, mais même ils se sont avérés difficiles à éliminer en partie, car ils nécessitent une coordination au sein d’une industrie de concurrents visqueux.

« Le genre de choses dont j’ai tendance à m’inquiéter est, du côté des logiciels, de savoir si cela met des capacités malveillantes entre plus de mains, facilite l’écriture de logiciels malveillants et de virus », a déclaré Dolan-Gavitt. « Ce n’est pas aussi extrême que des choses comme la désinformation, mais certainement, je pense que cela rendra beaucoup plus facile pour les gens de faire du spam. »

« Jusqu’à présent, une grande partie de la réflexion sur la sécurité reposait sur cette idée qu’il n’y aurait que quelques types d’entreprises centrales qui, si vous pouviez les mettre toutes d’accord, nous pourrions avoir des normes de sécurité. » Dolan-Gavitt a poursuivi. « Je pense que plus il y a de concurrence, plus vous obtenez cet environnement ouvert où vous pouvez télécharger un modèle sans restriction, le configurer sur votre serveur et le faire générer ce que vous voulez. Les types d’approches qui reposaient sur ce modèle plus centralisé commenceront à s’effondrer.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145

- Advertisement -

Latest