Pour les accros de Facebook, cliquer est plus important que les faits ou l’idéologie

Aurich Lawson | Getty Images

Il est juste de dire qu’une fois la pandémie commencée, le partage de fausses informations sur les réseaux sociaux a pris un avantage supplémentaire, potentiellement fatal. Des informations inexactes sur les risques posés par le virus, l’efficacité des masques et la sécurité des vaccins exposent les personnes à un risque de décès évitable. Pourtant, malgré les dangers de la désinformation, elle continue de sévir sur de nombreux sites de médias sociaux, la modération et la politique ayant souvent du mal à suivre.

Si nous voulons prendre des mesures pour résoudre ce problème – ce qui n’est pas clair que les services de médias sociaux sont intéressés à le faire -, nous devons comprendre pourquoi le partage de désinformation est si attrayant pour les gens. Une étude antérieure avait indiqué que les gens se soucient de s’assurer que ce qu’ils partagent est exact, mais ils omettent de vérifier dans de nombreux cas. Une nouvelle étude explique cela en expliquant pourquoi cette déconnexion se développe : pour de nombreux utilisateurs, cliquer sur « partager » devient une habitude, quelque chose qu’ils poursuivent sans vraiment y penser.

Comment les vices deviennent des habitudes

Les gens trouvent de nombreuses raisons de publier des informations erronées qui n’ont rien à voir avec le fait qu’ils croient à tort que les informations sont exactes. La désinformation pourrait faire mal paraître leurs adversaires, politiques ou autres. Alternativement, cela pourrait signaler à leurs alliés qu’ils sont du même côté ou font partie du même groupe culturel. Mais les premières expériences décrites ici suggèrent que ce type de partage biaisé n’explique pas une quantité significative d’informations.

Les chercheurs ont créé une fausse entrée Facebook pour un article avec un titre et un graphique et l’ont montré aux utilisateurs, leur demandant de décider s’ils le partageraient ; les articles étaient également répartis entre informations exactes et informations erronées. Dans l’ensemble, les histoires exactes ont été partagées à un taux beaucoup plus élevé (32 % contre seulement 5 % de faux titres). Mais un sous-ensemble de sujets qui ont partagé le plus d’histoires – ceux qui avaient la plus forte habitude de Facebook – ont partagé des histoires fausses et réelles à des taux à peu près égaux. En conséquence, seulement 15% des participants étaient responsables de près de 40% des fausses histoires partagées.

Pour les chercheurs, cela suggérait que le partage d’informations erronées n’est pas nécessairement indicatif d’un parti pris ; au lieu de cela, c’est un problème d’un sous-ensemble d’utilisateurs qui cliquent habituellement sur le partage (l’habitude étant définie comme impliquant « une réflexion limitée, une inattention »). L’équipe a donc conçu une expérience pour forcer les gens à réfléchir, en demandant aux participants d’évaluer l’exactitude d’un titre avant de décider de le partager (un groupe a pris ces décisions dans l’ordre inverse pour agir comme témoin). Cela a fonctionné partiellement. Les partageurs habituels de Facebook ont ​​​​réduit leur partage de faux titres, mais ont quand même fini par partager un quart du total, et les partageurs moins fréquents étaient beaucoup moins susceptibles de partager quelque chose de faux.

Les chercheurs ont ensuite répété l’expérience, mais ont utilisé des titres qui étaient soit cohérents, soit opposés à l’affiliation politique autoproclamée des participants (tous les titres étaient exacts). Une chose similaire s’est produite, les participants non habituels partageant des titres politiquement acceptables à un rythme sept fois plus élevé que les autres. En revanche, ceux qui avaient l’habitude de Facebook étaient beaucoup moins perspicaces, montrant seulement trois fois le parti pris envers les titres politiquement compatibles. Donc, encore une fois, même avec des incitations, les utilisateurs habituels étaient beaucoup moins discriminants.

Changer les incitations

De nombreuses recherches ont indiqué que la réponse au partage de quelque chose – les likes et les partages ultérieurs – fonctionne comme une récompense pour les utilisateurs de médias sociaux. Cela encourage les gens à adopter le partage habituel puisque tout partager augmente les chances de recevoir une récompense. Ainsi, les chercheurs ont changé le processus de récompense.

Au cours d’une période de formation, les participants ont été chargés de partager des titres précis ou des informations erronées pour une récompense en points (vous avez reçu des points pour avoir partagé ce à quoi vous avez été affecté). Après une formation approfondie, les participants ont ensuite été invités à partager des histoires comme ils le souhaitaient. Lorsque les participants ont été formés pour partager des informations erronées, elles ont fini par partager aussi souvent que des histoires exactes. Mais lorsque les gens ont été formés pour récompenser l’exactitude, les histoires exactes ont été partagées à environ trois fois le taux de fausses, même s’il n’y avait plus de récompense pour le faire.

Dans les questions posées avant la formation, ceux identifiés comme partageurs habituels étaient plus susceptibles d’indiquer que leur objectif principal était d’attirer l’attention d’autres utilisateurs et étaient moins susceptibles d’évaluer le partage d’informations précises comme important. Ainsi, la formation semble avoir considérablement réorganisé les priorités, et l’effet a duré même après qu’il n’y avait plus de récompense pour avoir bien fait les choses.

La bonne nouvelle est donc que de nombreuses personnes ne semblent pas déterminées à partager intentionnellement des informations erronées, même lorsque cela est favorable à leurs opinions politiques. Mais c’est à peu près la fin des bonnes nouvelles. Du côté des mauvaises nouvelles, développer une habitude des médias sociaux semble d’ailleurs stimuler le partage d’informations erronées, et les entreprises de médias sociaux ont une très forte incitation à créer des utilisateurs habituels. Les chercheurs notent également que les utilisateurs peuvent choisir eux-mêmes de suivre principalement des sources d’information politiquement biaisées. Bien qu’ils ne soient pas enclins à partager une orientation idéologique particulière, les sources de ce qu’ils pourraient partager peuvent être extrêmement biaisées.

Dans tous les cas, il serait trivial pour les entreprises de médias sociaux de donner sporadiquement aux utilisateurs une sorte de rétroaction positive pour le partage d’informations précises, en répétant essentiellement la formation de l’étude assez souvent pour éviter que ses effets ne s’estompent. La recherche suggère que cela ne diminue pas vraiment l’utilisation habituelle, mais modifie plutôt les récompenses associées. Le grand défi est que les entreprises de médias sociaux n’ont aucune incitation à le faire.

PNAS2023. DOI : 10.1073/pnas.2216614120 (À propos des DOI).

Source-147