En 2024, soit environ la moitié de la population mondiale, dans 64 pays, dont de grandes démocraties comme les États-Unis et l’Inde, se rendront aux urnes. Les sociétés de médias sociaux comme , et , ont promis de protéger l’intégrité de ces élections, du moins en ce qui concerne les discours et les affirmations factuelles formulées sur leurs plateformes. Cependant, l’application de messagerie fermée WhatsApp, qui rivalise désormais avec les plateformes publiques de médias sociaux en termes de portée et de portée, est absente de la conversation. Cette absence inquiète les chercheurs de l’association à but non lucratif Mozilla.
« Près de 90 % des interventions de sécurité promises par Meta avant ces élections se concentrent sur Facebook et Instagram », a déclaré à Engadget Odanga Madung, chercheur principal chez Mozilla spécialisé dans les élections et l’intégrité de la plateforme. «Pourquoi Meta ne s’est-il pas publiquement engagé sur une feuille de route publique indiquant exactement comment elle va protéger les élections au sein de [WhatsApp]? »
Au cours des dix dernières années, WhatsApp, que Meta (alors Facebook) a acheté pour 19 milliards de dollars en 2014, est devenu le moyen de communication utilisé par la plupart des pays du monde en dehors des États-Unis. En 2020, WhatsApp a annoncé qu’elle comptait plus de deux milliards d’utilisateurs dans le monde – une échelle qui éclipse toutes les autres applications sociales ou de messagerie, à l’exception de Facebook elle-même.
Malgré cette ampleur, Meta s’est principalement concentré uniquement sur Facebook en ce qui concerne les mesures de sécurité liées aux élections. Mozilla a découvert que même si Facebook avait fait 95 annonces politiques liées aux élections depuis 2016, l’année où le réseau social a été sous surveillance pour avoir aidé et encouragé des sentiments politiques extrêmes. WhatsApp n’en a fait que 14. À titre de comparaison, Google et YouTube ont fait chacun 35 et 27 annonces, tandis que X et TikTok en ont respectivement fait 34 et 21. « D’après ce que nous pouvons déduire de ses annonces publiques, les efforts électoraux de Meta semblent donner massivement la priorité à Facebook », écrit Madung dans le rapport.
Mozilla est sur Meta pour apporter des changements majeurs au fonctionnement de WhatsApp pendant les jours de scrutin et dans les mois précédant et suivant les élections d’un pays. Elles incluent l’ajout d’étiquettes de désinformation au contenu viral (« Fortement transféré : veuillez vérifier » au lieu de l’actuel « transféré plusieurs fois), la restriction des fonctionnalités de diffusion et de communautés qui permettent aux gens d’envoyer des messages à des centaines de personnes en même temps et l’incitation des gens à « mettre en pause ». et réfléchissez »avant de transmettre quoi que ce soit. Plus de 16 000 personnes ont signé l’engagement de Mozilla demandant à WhatsApp de ralentir la propagation de la désinformation politique, a déclaré un porte-parole de l’entreprise à Engadget.
WhatsApp a connu ses premières frictions avec son service après que des dizaines de personnes ont été tuées en Inde, le plus grand marché de l’entreprise, à la suite d’une désinformation devenue virale sur la plateforme. Cela impliquait de limiter le nombre de personnes et de groupes auxquels les utilisateurs pouvaient transférer un élément de contenu et de distinguer les messages transférés avec des étiquettes « transférés ». L’ajout d’une étiquette « transféré » était une mesure visant à lutter contre la désinformation – l’idée était que les gens pourraient traiter le contenu transféré avec plus de scepticisme.
« Quelqu’un au Kenya, au Nigeria ou en Inde qui utilise WhatsApp pour la première fois ne réfléchira pas à la signification de l’étiquette ‘transféré’ dans le contexte de la désinformation », a déclaré Madung. « En fait, cela pourrait avoir l’effet inverse : quelque chose a été hautement transmis, donc cela doit être crédible. Pour de nombreuses communautés, la preuve sociale est un facteur important pour établir la crédibilité de quelque chose.
L’idée de demander aux gens de faire une pause et de réfléchir est venue d’une fonctionnalité de Twitter où l’application invitait les gens à lire un article avant de le retweeter s’ils ne l’avaient pas ouvert au préalable. Twitter que l’invite a entraîné une augmentation de 40 % du nombre de personnes ouvrant des articles avant de les retweeter
Et demander à WhatsApp de désactiver temporairement ses fonctionnalités de diffusion et de communautés est né de préoccupations concernant leur potentiel à diffuser des messages, transmis ou non, à des milliers de personnes à la fois. « Ils essaient d’en faire la prochaine grande plateforme de médias sociaux », a déclaré Madung. « Mais sans tenir compte du déploiement de dispositifs de sécurité. »
« WhatsApp est l’une des seules entreprises technologiques à limiter intentionnellement le partage en introduisant des limites de transfert et en étiquetant les messages qui ont été transférés à plusieurs reprises », a déclaré un porte-parole de WhatsApp à Engadget. « Nous avons créé de nouveaux outils pour permettre aux utilisateurs de rechercher des informations précises tout en les protégeant des contacts indésirables, ce que nous détaillons. »
Les demandes de Mozilla sont nées des programmes et des élections que l’entreprise a organisés au Brésil, en Inde et au Libéria. Les premiers sont deux des plus grands marchés de WhatsApp, tandis que la majeure partie de la population du Libéria vit dans des zones rurales avec une faible pénétration d’Internet, ce qui rend la vérification traditionnelle des faits en ligne presque impossible. Dans les trois pays, Mozilla a constaté que les partis politiques utilisaient massivement la fonction de diffusion de WhatsApp pour « micro-cibler » les électeurs avec de la propagande et, dans certains cas, des discours de haine.
La nature cryptée de WhatsApp rend également impossible aux chercheurs de surveiller ce qui circule au sein de l’écosystème de la plateforme – une limitation qui n’empêche pas certains d’entre eux d’essayer. En 2022, deux professeurs de Rutgers, Kiran Garimella et Simon Chandrachud, ont visité les bureaux de partis politiques en Inde et ont réussi à convaincre les responsables de les ajouter aux 500 groupes WhatsApp qu’ils dirigeaient. Les données qu’ils ont recueillies ont constitué la base d’un document qu’ils ont écrit intitulé « Qu’est-ce qui circule sur Partisan WhatsApp en Inde ? » Bien que les résultats soient surprenants (Garimella et Chandrachud ont constaté que la désinformation et les discours de haine ne constituaient pas, en fait, la majorité du contenu de ces groupes), les auteurs ont précisé que la taille de leur échantillon était petite et qu’ils pouvaient avoir été délibérément exclus de ces groupes. des groupes où les discours de haine et la désinformation politique circulaient librement.
« Le cryptage est un faux-fuyant pour empêcher la responsabilité sur la plateforme », a déclaré Madung. « Dans un contexte électoral, les problèmes ne concernent pas nécessairement uniquement le contenu. Il s’agit du fait qu’un petit groupe de personnes peut facilement influencer de manière significative des groupes de personnes. Ces applications ont supprimé les frictions liées à la transmission de l’information à travers la société.
Cet article contient des liens d’affiliation ; si vous cliquez sur un tel lien et effectuez un achat, nous pouvons gagner une commission.