Un rapport de l’Ofcom révèle qu’un résultat de recherche de contenu préjudiciable sur cinq était une « passerelle en un clic » vers davantage de toxicité.

Déplacez-vous, TikTok et Ofcom, le régulateur britannique qui applique la loi désormais officielle sur la sécurité en ligne, se préparent à évaluer une cible encore plus grande : les moteurs de recherche comme Google et Bing et le rôle qu’ils jouent dans la présentation de l’automutilation, du suicide et d’autres contenu nuisible en un clic, en particulier pour les utilisateurs mineurs.

Un rapport commandé par l’Ofcom et produit par le Network Contagion Research Institute a révélé que les principaux moteurs de recherche, notamment Google, Bing de Microsoft, DuckDuckGo, Yahoo et AOL, deviennent des « passerelles en un clic » vers ce type de contenu en facilitant un accès facile et rapide aux pages Web. images et vidéos – avec un résultat de recherche sur cinq autour de termes de base d’automutilation renvoyant à d’autres contenus préjudiciables.

Cette recherche arrive à point nommé et est importante, car ces derniers temps, l’attention portée aux contenus préjudiciables en ligne s’est principalement portée sur l’influence et l’utilisation de sites de médias sociaux clos comme Instagram et TikTok. Cette nouvelle recherche constitue, de manière significative, une première étape pour aider l’Ofcom à comprendre et à rassembler des preuves permettant de déterminer s’il existe une menace potentielle beaucoup plus importante, avec des sites ouverts comme Google.com attirant plus de 80 milliards de visites par mois, par rapport à l’activité mensuelle de TikTok. utilisateurs d’environ 1,7 milliard.

« Les moteurs de recherche sont souvent le point de départ de l’expérience en ligne des gens, et nous craignons qu’ils puissent servir de passerelles en un clic vers des contenus d’automutilation gravement préjudiciables », a déclaré Almudena Lara, directrice du développement des politiques de sécurité en ligne à l’Ofcom, dans un communiqué. . « Les services de recherche doivent comprendre leurs risques potentiels et l’efficacité de leurs mesures de protection – en particulier pour assurer la sécurité des enfants en ligne – avant notre vaste consultation prévue au printemps. »

Les chercheurs ont analysé quelque 37 000 liens de résultats sur ces cinq moteurs de recherche pour le rapport, a indiqué l’Ofcom. Utilisant à la fois des termes de recherche courants et des termes plus énigmatiques (cryptiques pour tenter d’échapper au contrôle de base), ils ont intentionnellement effectué des recherches en désactivant les outils de contrôle parental de « recherche sécurisée », pour imiter les manières les plus élémentaires dont les gens pourraient interagir avec les moteurs de recherche ainsi que les pires. -scénarios de cas.

Les résultats ont été à bien des égards aussi mauvais et accablants qu’on pourrait le deviner.

Non seulement 22 % des résultats de recherche produisaient des liens en un seul clic vers des contenus préjudiciables (y compris des instructions pour diverses formes d’automutilation), mais ce contenu représentait 19 % des liens les plus importants dans les résultats (et 22 % des liens les plus importants dans les résultats). % de liens vers les premières pages de résultats).

Les recherches d’images étaient particulièrement flagrantes, ont constaté les chercheurs, avec 50 % d’entre elles renvoyant du contenu nuisible pour les recherches, suivies par les pages Web à 28 % et les vidéos à 22 %. Le rapport conclut que l’une des raisons pour lesquelles certains d’entre eux ne sont peut-être pas mieux filtrés par les moteurs de recherche est que les algorithmes peuvent confondre les images d’automutilation avec les médias médicaux et autres médias légitimes.

Les termes de recherche énigmatiques étaient également plus efficaces pour échapper aux algorithmes de filtrage : ceux-ci rendaient six fois plus probable qu’un utilisateur puisse accéder à un contenu nuisible.

Une chose qui n’est pas abordée dans le rapport, mais qui risque de devenir un problème plus important avec le temps, est le rôle que les recherches génératives par IA pourraient jouer dans cet espace. Jusqu’à présent, il semble que davantage de contrôles soient mis en place pour empêcher que des plateformes comme ChatGPT ne soient utilisées à mauvais escient à des fins toxiques. La question sera de savoir si les utilisateurs sauront comment jouer à cela et à quoi cela pourrait conduire.

« Nous travaillons déjà à développer une compréhension approfondie des opportunités et des risques liés aux technologies nouvelles et émergentes, afin que l’innovation puisse prospérer, tout en protégeant la sécurité des utilisateurs. Certaines applications de l’IA générative sont susceptibles d’entrer dans le champ d’application de la loi sur la sécurité en ligne et nous nous attendons à ce que les services évaluent les risques liés à son utilisation lors de leur évaluation des risques », a déclaré un porte-parole de l’Ofcom à TechCrunch.

Ce n’est pas qu’un cauchemar : quelque 22 % des résultats de recherche ont également été signalés comme étant utiles de manière positive.

Le rapport est peut-être utilisé par l’Ofcom pour avoir une meilleure idée du problème en question, mais il constitue également un premier signal pour les fournisseurs de moteurs de recherche sur ce sur quoi ils devront être prêts à travailler. L’Ofcom a déjà clairement indiqué que les enfants seraient sa première priorité dans l’application du projet de loi sur la sécurité en ligne. Au printemps, l’Ofcom prévoit d’ouvrir une consultation sur ses codes de bonnes pratiques en matière de protection des enfants, qui vise à définir « les mesures pratiques que les services de recherche peuvent prendre pour protéger adéquatement les enfants ».

Cela impliquera de prendre des mesures pour minimiser les risques que les enfants soient confrontés à des contenus préjudiciables sur des sujets sensibles comme le suicide ou les troubles de l’alimentation sur l’ensemble d’Internet, y compris sur les moteurs de recherche.

« Les entreprises technologiques qui ne prennent pas cela au sérieux peuvent s’attendre à ce que l’Ofcom prenne les mesures appropriées à leur encontre à l’avenir », a déclaré le porte-parole de l’Ofcom. Cela comprendra des amendes (que l’Ofcom a déclaré qu’il n’utiliserait qu’en dernier recours) et, dans les pires scénarios, des ordonnances judiciaires obligeant les FAI à bloquer l’accès aux services qui ne respectent pas les règles. Les dirigeants qui supervisent des services qui enfreignent les règles pourraient également engager une responsabilité pénale.

Jusqu’à présent, Google a contesté certaines conclusions du rapport et la manière dont il caractérise ses efforts, affirmant que ses contrôles parentaux effectuent une grande partie du travail important qui invalide certaines de ces conclusions.

« Nous sommes pleinement engagés à assurer la sécurité des personnes en ligne », a déclaré un porte-parole dans une déclaration à TechCrunch. « L’étude de l’Ofcom ne reflète pas les garanties que nous avons mises en place sur la recherche Google et fait référence à des termes rarement utilisés dans la recherche. Notre fonctionnalité SafeSearch, qui filtre les résultats de recherche nuisibles et choquants, est activée par défaut pour les utilisateurs de moins de 18 ans, tandis que le paramètre de flou SafeSearch – une fonctionnalité qui brouille les images explicites, telles que le contenu d’automutilation – est activé par défaut pour tous les comptes. Nous travaillons également en étroite collaboration avec des organisations expertes et des associations caritatives pour garantir que lorsque les internautes consultent la recherche Google pour obtenir des informations sur le suicide, l’automutilation ou les troubles de l’alimentation, des panneaux de ressources d’assistance en cas de crise apparaissent en haut de la page.

Microsoft et DuckDuckGo n’ont jusqu’à présent pas répondu à une demande de commentaires.

Source-146