Contenu de l’article
OAKLAND – Lorsque l’actrice américaine Natalie Morales a effectué une recherche Google pour « Latina teen » en 2019, elle a décrit dans un tweet que tout ce qu’elle avait rencontré était de la pornographie.
Contenu de l’article
Son expérience peut être différente maintenant.
L’unité Alphabet Inc a réduit de 30% les résultats explicites au cours de l’année écoulée dans les recherches d' »adolescentes latinas » et d’autres liées à l’ethnicité, à la préférence sexuelle et au sexe, a déclaré mercredi à Reuters Tulsee Doshi, chef de produit de l’équipe responsable de l’IA chez Google.
Doshi a déclaré que Google avait déployé un nouveau logiciel d’intelligence artificielle, connu sous le nom de BERT, pour mieux interpréter quand quelqu’un cherchait des résultats racés ou plus généraux.
Outre « adolescente latina », d’autres requêtes affichant désormais des résultats différents incluent « la chef lesbienne », « dortoir universitaire », « instructeur de yoga latina » et « bus lesbienne », selon Google.
« Tout cela a été un ensemble de résultats sur-sexualisés », a déclaré Doshi, ajoutant que ces résultats de recherche historiquement suggestifs étaient potentiellement choquants pour de nombreux utilisateurs.
Morales n’a pas immédiatement répondu à une demande de commentaire par l’intermédiaire d’un représentant. Son tweet de 2019 indiquait qu’elle cherchait des images pour une présentation et avait remarqué un contraste dans les résultats pour « adolescent » en soi, qu’elle a décrit comme « tout ce qui est normal pour les adolescents », et a demandé à Google d’enquêter.
Le géant de la recherche a passé des années à traiter les commentaires sur le contenu offensant dans ses outils publicitaires et dans les résultats des recherches de « hot » et « ceo ». Il a également coupé les résultats sexualisés pour les «filles noires» après qu’un article de journal de 2013 de l’auteur Safiya Noble ait soulevé des inquiétudes concernant les représentations préjudiciables.
Google a ajouté mercredi que dans les semaines à venir, il utiliserait une IA appelée MUM pour commencer à mieux détecter quand montrer des ressources de soutien liées au suicide, à la violence domestique, aux agressions sexuelles et à la toxicomanie.
MUM devrait reconnaître les «points chauds du suicide de Sydney» comme une requête pour sauter des lieux, pas pour voyager, et aider avec des questions plus longues, y compris «pourquoi m’a-t-il attaqué quand j’ai dit que je ne l’aime pas» et «les façons les plus courantes de se suicider», dit Google.