Google a annoncé aujourd’hui qu’il déploierait des améliorations à son modèle d’intelligence artificielle pour faire de la recherche Google une expérience plus sûre et plus efficace pour traiter les requêtes sensibles, y compris celles concernant des sujets tels que le suicide, les agressions sexuelles, la toxicomanie et la violence domestique. Il utilise également d’autres technologies d’intelligence artificielle pour améliorer sa capacité à supprimer le contenu explicite ou suggestif indésirable des résultats de recherche lorsque les internautes ne le recherchent pas spécifiquement.
Actuellement, lorsque les gens recherchent des informations sensibles – comme le suicide, les abus ou d’autres sujets – Google affiche les coordonnées des lignes d’assistance nationales pertinentes au-dessus de ses résultats de recherche. Mais la société explique que les personnes en situation de crise peuvent effectuer des recherches de toutes sortes de manières, et il n’est pas toujours évident pour un moteur de recherche qu’elles en ont besoin, même si cela déclencherait des alertes si un humain voyait leurs requêtes de recherche. Grâce à l’apprentissage automatique et aux dernières améliorations du modèle d’IA de Google appelé MUM (Multitask Unified Model), Google affirme qu’il sera en mesure de détecter automatiquement et plus précisément un plus large éventail de recherches de crise personnelle en raison de la façon dont MUM est capable de mieux comprendre l’intention derrière les questions et les requêtes des gens.
L’année dernière, la société a présenté son plan de refonte de la recherche à l’aide des technologies d’intelligence artificielle lors de son événement Search On, mais elle n’avait pas abordé ce cas d’utilisation spécifique. Au lieu de cela, Google s’est alors concentré sur la manière dont la meilleure compréhension de l’intention des utilisateurs par MUM pourrait être exploitée pour aider les internautes à débloquer des informations plus approfondies sur le sujet qu’ils recherchent et à guider les utilisateurs vers de nouveaux chemins de recherche. Par exemple, si un utilisateur avait recherché « peinture acrylique », Google pourrait suggérer des « choses à savoir » sur la peinture acrylique, comme différentes techniques et styles, des conseils sur la façon de peindre, des conseils de nettoyage et plus encore. Cela pourrait également orienter les utilisateurs vers d’autres requêtes qu’ils n’auraient peut-être pas pensé à rechercher, comme « comment faire des peintures à l’acrylique avec des articles ménagers ». Dans cet exemple, Google a déclaré pouvoir identifier plus de 350 sujets différents liés aux peintures à l’acrylique.
D’une manière quelque peu similaire, MUM sera désormais utilisé pour aider à mieux comprendre le type de sujets qu’une personne en crise pourrait rechercher, ce qui n’est pas toujours aussi évident que de taper un appel direct à l’aide.
« … si nous ne pouvons pas le reconnaître avec précision, nous ne pouvons pas coder nos systèmes pour afficher les résultats de recherche les plus utiles. C’est pourquoi il est si important d’utiliser l’apprentissage automatique pour comprendre le langage », a expliqué Google dans un article de blog.
Par exemple, si un utilisateur recherchait « Sydney suicide hot spots », les systèmes précédents de Google comprendraient la requête comme une recherche d’informations, car c’est ainsi que le terme « hot spots » est souvent utilisé, y compris dans les requêtes de recherche de voyages. Mais MUM comprend que la requête est liée à des personnes essayant de trouver un point de départ pour le suicide à Sydney et identifierait cette recherche comme provenant potentiellement d’une personne en crise, ce qui lui permettrait d’afficher des informations exploitables comme des lignes d’assistance téléphonique sur le suicide. Une autre requête sur le suicide qui pourrait voir des améliorations de MUM est « les moyens les plus courants de se suicider », ce que, encore une fois, Google n’aurait auparavant compris que comme une recherche d’informations.
MUM comprend également mieux les requêtes de recherche plus longues où le contexte est évident pour les humains, mais pas nécessairement pour les machines. Par exemple, une question comme « pourquoi m’a-t-il attaqué quand j’ai dit que je ne l’aimais pas » implique une situation de violence domestique. Mais les longues requêtes en langage naturel ont été difficiles pour les systèmes de Google sans l’utilisation d’une IA avancée.
De plus, Google note que MUM peut transférer ses connaissances dans les 75 langues sur lesquelles il a été formé, ce qui l’aide à adapter plus rapidement les améliorations de l’IA comme celle-ci aux utilisateurs du monde entier. Cela signifie qu’il sera en mesure d’afficher les informations exploitables de partenaires de confiance, comme les hotlines locales, pour ces types de recherches de crise personnelle à un public plus large.
Ce n’est pas la première fois que MUM est mis au travail pour aider à orienter les recherches Google. MUM avait déjà été utilisé pour améliorer les recherches d’informations sur le vaccin COVID-19, a indiqué la société. Dans les mois à venir, Google indique qu’il utilisera MUM pour améliorer ses fonctionnalités de protection anti-spam et les étendra aux langues pour lesquelles il dispose de peu de données de formation. D’autres améliorations de MUM seront également déployées prochainement.
Un autre domaine bénéficiant de la technologie de l’IA est la capacité de Google à filtrer le contenu explicite des résultats de recherche. Même lorsque la technologie de filtrage SafeSearch de Google est désactivée, Google tente toujours de réduire le contenu explicite indésirable de ces recherches où la recherche de contenu racé n’était pas l’objectif. Et aujourd’hui, ses algorithmes améliorent cette capacité alors que les utilisateurs effectuent des centaines de millions de recherches dans le monde.
Mais la technologie d’IA connue sous le nom de BERT fonctionne désormais pour aider Google à mieux comprendre si les gens recherchaient un contenu explicite. La société affirme qu’au cours de l’année écoulée, le BERT a réduit de 30 % les résultats de recherche choquants indésirables, sur la base d’une analyse menée par « Search Raters » qui a mesuré les résultats sursexualisés sur des échantillons aléatoires de requêtes pour la recherche sur le Web et les images. La technologie a également été particulièrement efficace pour réduire le contenu explicite des recherches liées à « l’ethnicité, l’orientation sexuelle et le genre », qui, selon Google, ont un impact disproportionné sur les femmes et en particulier les femmes de couleur, selon l’analyse.
Google indique que les améliorations de MUM AI commenceront à être déployées sur Serach dans les semaines à venir.