Oui, Threads exécute un programme de vérification des faits, mais le système n’est pas entièrement déployé

Threads, le service de type Twitter de Meta et concurrent de X, prend peut-être ses distances avec la politique, mais cela ne signifie pas qu’il n’essaiera pas de lutter contre la désinformation qui se propage sur les réseaux sociaux, en particulier à l’approche des élections nationales. À la suite de rapports d’utilisateurs faisant état de vérifications des faits repérées sur le réseau, la société a confirmé qu’elle s’est engagée auprès d’organisations de vérification des faits pour lutter contre les fausses informations circulant sur Threads, mais n’a pas encore entièrement déployé la vérification directe des faits du contenu de Threads.

Meta avait annoncé en décembre qu’au début de 2024, ses partenaires de vérification des faits seraient en mesure d’examiner et d’évaluer les faux contenus directement sur Threads. Entre-temps, Meta n’a pu faire correspondre les vérifications des faits existantes qu’à « un contenu presque identique sur Threads », a-t-il déclaré. D’après les rapports des utilisateurs sur la vérification des faits qui apparaissent désormais sur Threads, il s’agit d’un cas de assorti évaluations, et non la vérification directe des faits, plus attendue, du contenu de Threads que les gens voient.

La société a confirmé que c’était le cas, déclarant à TechCrunch qu’elle n’avait pas encore finalisé la possibilité pour les vérificateurs de faits d’évaluer le contenu directement sur Threads, mais qu’elle le ferait bientôt.

Publié par @culturecrave

Afficher sur les discussions

Les utilisateurs de Threads avaient remarqué que des étiquettes d’avertissement apparaissaient sur les publications – dans un cas, à la fois comme interstitiel sur une fausse vidéo générée par l’IA et comme pop-up apparaissant en bas de l’écran.

Le message d’avertissement indique « Fausses informations », suivi d’une explication selon laquelle « les mêmes fausses informations ont été examinées dans un autre fil de discussion par des vérificateurs de faits. Il peut y avoir de petites différences. Il a également noté que « des vérificateurs de faits indépendants affirment que ces informations n’ont aucun fondement factuel » et des documents dans lesquels des sources de vérification des faits sont parvenues à cette conclusion.

En dessous, les utilisateurs peuvent lire le nom des organisations de vérification des faits et la conclusion des sources – par exemple « Faux » – ainsi que des informations supplémentaires sur le contenu et pourquoi il est faux.

Crédits images : Capture d’écran des discussions

Un exemple de cette vérification des faits peut être consulté ici sur Threads. Il s’agit d’une vidéo qui circulait dans les chats Telegram et qui prétend provenir d’une émission de France 24. Cependant, la vidéo n’a jamais été diffusée ni même réalisée – elle a été générée par l’IA, affirment les deux organisations de vérification des faits.

Lors de nos tests, la vérification des faits a initialement masqué la publication Threads avec la vidéo, mais a proposé un bouton « Voir la publication » pour cliquer et la visualiser. Vous pouvez éventuellement appuyer sur « Voir pourquoi » si vous souhaitez savoir pourquoi il a été masqué pour de fausses informations. La fonctionnalité semble cependant un peu sous-développée, car les liens vers les sites Web de vérification des faits ne fonctionnaient que sur mobile, pas sur ordinateur, et l’avertissement informatif sous la vidéo, une fois visionné, était sous forme de petit texte qui pouvait facilement être manqué.

Crédits images : Capture d’écran des discussions

Bien que les fonctionnalités complètes de vérification des faits n’aient pas encore été déployées sur Threads, lorsqu’elles le seront, la fonctionnalité différenciera Threads de son rival X, où les vérifications des faits sont désormais largement gérées via le crowdsourcing. Avec les notes communautaires de X (initialement appelées Birdwatch lorsque la société était connue sous le nom de Twitter), des bénévoles indépendants vérifient les publications et ajoutent du contexte ou des corrections supplémentaires. L’algorithme du système tente ensuite de trouver un consensus entre des personnes qui ne partagent généralement pas les mêmes points de vue. Si les deux parties conviennent qu’une vérification des faits est justifiée, la note communautaire est mise en ligne. Pendant ce temps, l’équipe X ne peut pas éditer ou modifier les notes, le le site Web de l’entreprise explique. Au lieu de cela, X n’agit que sur les publications qui enfreignent ses règles, ses conditions ou sa politique de confidentialité.

Elon Musk défend l’utilisation des Community Notes depuis l’acquisition de l’entreprise en 2022, après avoir a cru que l’ancienne équipe de Twitter était coupable de parti pris de gauche et de censure. Cependant, un rapport de ProPublica a révélé que Community Notes n’a pas encore suffisamment pris d’ampleur pour répondre à la désinformation circulant sur X à propos de la guerre entre Israël et le Hamas. De plus, les affirmations démystifiées étaient souvent diffusées par des comptes vérifiés avec des chèques bleus, leur donnant une plus grande visibilité, ajoute-t-il.

Meta adopte clairement une approche plus prudente à l’égard de l’actualité et du potentiel de désinformation.

Le directeur d’Instagram, Adam Mosseri, a déclaré l’année dernière que Threads « n’amplifierait pas l’actualité » sur sa plateforme, contrariant les journalistes et les consommateurs d’informations qui recherchaient une alternative à Twitter. La société a également tenu ses promesses la semaine dernière en annonçant qu’elle ne ferait plus apparaître de manière proactive le contenu politique dans ses recommandations sur Threads et Instagram. Cependant, l’actualité et la politique peuvent toujours apparaître dans la nouvelle fonctionnalité de tendances de l’application, « sujets d’aujourd’hui ».

Source-146