La présentation de l’IA de Google est imparfaite de par sa conception, et un nouveau billet de blog de l’entreprise explique pourquoi

Agrandir / Le logo Google « G » entouré de personnages fantaisistes, tous stupéfaits et surpris.

Jeudi, Google a clôturé une semaine difficile au cours de laquelle il a fourni des réponses inexactes et parfois dangereuses grâce à sa fonctionnalité expérimentale de présentation de l’IA en rédigeant un article de blog de suivi intitulé « Aperçus de l’IA : à propos de la semaine dernière ». Dans le message, attribué à la vice-présidente de Google, Liz Reid, responsable de la recherche Google, la société a officiellement reconnu les problèmes liés à cette fonctionnalité et décrit les mesures prises pour améliorer un système qui semble défectueux de par sa conception, même si elle ne se rend pas compte qu’elle l’admet.

Pour récapituler, la fonctionnalité AI Overview, que la société a présentée au Google I/O il y a quelques semaines, vise à fournir aux utilisateurs de recherche des réponses résumées aux questions en utilisant un modèle d’IA intégré aux systèmes de classement Web de Google. À l’heure actuelle, il s’agit d’une fonctionnalité expérimentale qui n’est pas active pour tout le monde, mais lorsqu’un utilisateur participant recherche un sujet, il peut voir une réponse générée par l’IA en haut des résultats, extraite d’un contenu Web hautement classé et résumée par une IA. modèle.

Alors que Google affirme que cette approche est « très efficace » et comparable à ses Featured Snippets en termes de précision, la semaine dernière a vu de nombreux exemples de systèmes d’IA générant des réponses bizarres, incorrectes, voire potentiellement dangereuses, comme nous l’avons détaillé dans un récent rapport. reportage où le journaliste d’Ars, Kyle Orland, a reproduit de nombreuses sorties inhabituelles.

Tirer des conclusions inexactes du Web

Mercredi matin, l'AI Overview de Google nous indiquait par erreur que la PlayStation de Sony et la Sega Saturn étaient disponibles en 1993.
Agrandir / Mercredi matin, l’AI Overview de Google nous indiquait par erreur que la PlayStation de Sony et la Sega Saturn étaient disponibles en 1993.

Kyle Orland/Google

Compte tenu des exemples de présentation de l’IA qui circulent, Google s’excuse presque dans le message et déclare : « Nous nous appliquons à des normes élevées, tout comme nos utilisateurs, nous attendons et apprécions donc les commentaires et les prenons au sérieux. » Mais Reid, pour tenter de justifier les erreurs, entre ensuite dans des détails très révélateurs sur les raisons pour lesquelles AI Overviews fournit des informations erronées :

Les aperçus d’IA fonctionnent très différemment des chatbots et autres produits LLM que les gens ont pu essayer. Ils ne génèrent pas simplement un résultat basé sur des données de formation. Bien que les aperçus IA soient alimentés par un modèle linguistique personnalisé, le modèle est intégré à nos principaux systèmes de classement Web et conçu pour effectuer des tâches de « recherche » traditionnelles, comme l’identification de résultats pertinents et de haute qualité à partir de notre index. C’est pourquoi les aperçus d’IA ne fournissent pas seulement une sortie de texte, mais incluent des liens pertinents afin que les utilisateurs puissent explorer davantage. Parce que la précision est primordiale dans la recherche, les aperçus AI sont conçus pour afficher uniquement les informations sauvegardées par les meilleurs résultats Web.

Cela signifie que les aperçus de l’IA n’« hallucinent » généralement pas et n’inventent pas les choses comme le feraient d’autres produits LLM.

Nous voyons ici le défaut fondamental du système : « Les aperçus de l’IA sont conçus pour afficher uniquement les informations sauvegardées par les meilleurs résultats Web. » La conception est basée sur la fausse hypothèse selon laquelle l’algorithme de classement des pages de Google favorise des résultats précis et non des déchets de jeu SEO. La recherche Google est en panne depuis un certain temps et l’entreprise s’appuie désormais sur ces résultats falsifiés et remplis de spam pour alimenter son nouveau modèle d’IA.

Même si le modèle d’IA s’appuie sur une source plus précise, comme dans le cas de la recherche sur console de jeu de 1993 vue ci-dessus, le modèle de langage d’IA de Google peut toujours tirer des conclusions inexactes sur les données « exactes », en confondant des informations erronées dans un résumé erroné des informations disponibles.

Ignorant généralement la folie de baser ses résultats d’IA sur un algorithme de classement de page défectueux, le billet de blog de Google attribue les erreurs couramment diffusées à plusieurs autres facteurs, notamment les utilisateurs effectuant des recherches absurdes « visant à produire des résultats erronés ». Google admet des défauts dans le modèle d’IA, comme une mauvaise interprétation des requêtes, une mauvaise interprétation de « une nuance de langage sur le Web » et le manque d’informations de qualité suffisante sur certains sujets. Cela suggère également que certains des exemples les plus flagrants circulant sur les réseaux sociaux sont de fausses captures d’écran.

« Certains de ces faux résultats étaient évidents et ridicules », écrit Reid. « D’autres ont laissé entendre que nous avions renvoyé des résultats dangereux sur des sujets tels que laisser des chiens dans les voitures, fumer pendant la grossesse et la dépression. Ces aperçus de l’IA ne sont jamais apparus. Nous encourageons donc toute personne rencontrant ces captures d’écran à effectuer une recherche elle-même pour vérifier. »

(Il ne fait aucun doute que certains des exemples de médias sociaux sont faux, mais il convient de noter que toute tentative de reproduire ces premiers exemples maintenant échouera probablement car Google aura bloqué manuellement les résultats. Et cela témoigne potentiellement de l’échec de la recherche Google si les gens ont cru à de faux exemples extrêmes en premier lieu.)

Tout en abordant l’angle des « recherches absurdes » dans le message, Reid utilise l’exemple de recherche « Combien de pierres devrais-je manger chaque jour », qui est devenu viral dans un tweet le 23 mai. Reid dit : « Avant que ces captures d’écran ne deviennent virales, pratiquement personne n’a posé cette question à Google. Et comme il n’y a pas beaucoup de données sur le Web qui répondent à cette question, elle dit qu’il existe un « vide de données » ou un « manque d’informations » qui a été comblé par le contenu satirique trouvé sur le Web, et le modèle d’IA l’a trouvé et l’a poussé comme une réponse, tout comme les extraits en vedette. Donc, fondamentalement, cela fonctionnait exactement comme prévu.

Une capture d'écran d'une requête AI Overview,
Agrandir / Une capture d’écran d’une requête AI Overview, « Combien de pierres dois-je manger chaque jour » qui est devenue virale sur X la semaine dernière.

Source-147