Meta a demandé de réviser le système de modération pour les utilisateurs de haut niveau comme Donald Trump

Liu Guanguan/Service d’information chinois

Meta a été informé du traitement réservé aux utilisateurs de premier plan, tels que l’ancien président américain Donald Trump, qui a laissé du contenu dangereux en ligne, servant des intérêts commerciaux au détriment de ses obligations en matière de droits de l’homme.

Un rapport accablant publié mardi par le conseil de surveillance de l’entreprise – un organe de type « Cour suprême » créé par la société mère de Facebook, Instagram et WhatsApp pour statuer sur les questions sensibles de modération – a exhorté le géant des médias sociaux à rendre « significatif » modifications apportées à son système interne d’examen du contenu des politiciens, des célébrités et de ses partenaires commerciaux.

Le conseil, qui a commencé à évaluer les cas l’année dernière, est coordonné par le chef de la politique du géant de la technologie et ancien vice-Premier ministre britannique, Sir Nick Clegg, et émet des jugements indépendants sur des cas de modération très médiatisés ainsi que des recommandations sur certaines politiques.

Le conseil d’administration a été invité à se pencher sur le système après que le Wall Street Journal et la lanceuse d’alerte Frances Haugen ont révélé son existence l’année dernière, faisant craindre que Meta accorde un traitement préférentiel aux personnalités de l’élite.

Clegg a également jusqu’au 7 janvier pour décider s’il autorise le retour de Trump sur la plate-forme suite à une recommandation distincte du conseil d’administration.

Après une longue enquête s’étalant sur plus d’un an, le conseil d’administration a exigé que Meta vérifie de plus près qui figure sur la liste dite de «vérification croisée» et soit plus transparent sur ses procédures d’examen.

Le rapport est l’une des enquêtes les plus approfondies à ce jour sur les problèmes de modération chez Meta, car l’organisme indépendant – composé de 20 journalistes, universitaires et politiciens – est aux prises avec des préoccupations selon lesquelles il a peu de pouvoir pour tenir l’entreprise responsable.

Cela exerce une pression supplémentaire sur le directeur général Mark Zuckerberg, qui a annoncé le mois dernier son intention de supprimer 11 000 employés dans un contexte de baisse des revenus et de croissance, pour s’assurer que le contenu de Meta est contrôlé équitablement.

Meta a déjà commencé à réorganiser le système. Dans un article de blog mardi, Clegg a déclaré qu’il avait été initialement développé pour « vérifier les cas où il pourrait y avoir un risque plus élevé d’erreur ou lorsque l’impact potentiel d’une erreur est particulièrement grave ». Il a ajouté que la société avait maintenant développé un système plus standardisé, avec des contrôles supplémentaires et des révisions annuelles.

On ne sait toujours pas combien de personnes figurent sur la liste secrète. Le Wall Street Journal, qui a publié la liste pour la première fois, a estimé qu’en 2020, il y avait 5,8 millions d’utilisateurs répertoriés. Meta a précédemment déclaré qu’il y en avait 666 000 en octobre 2021.

Le système signifiait que le contenu publié par des personnalités bien connues, telles que Trump et Elizabeth Warren, resterait sur les plateformes jusqu’à ce que des modérateurs humains les aient examinés, même si les messages auraient été automatiquement supprimés s’ils avaient été publiés par un utilisateur ordinaire.

Il faudrait en moyenne cinq jours pour que cet examen humain ait lieu, le contenu restant sur la plateforme pendant ce temps, et dans un cas, jusqu’à sept mois, selon le rapport.

La « propre compréhension de Meta des implications pratiques du programme faisait défaut », a déclaré le conseil d’administration, ajoutant que la société n’avait pas réussi à évaluer si le système fonctionnait comme prévu.

Le conseil a également accusé l’entreprise d’avoir donné des réponses « insuffisantes » à l’enquête, prenant parfois des mois pour répondre.

Le conseil d’administration a fait référence à un rapport du Wall Street Journal qui détaillait comment le footballeur brésilien Neymar avait publié des images intimes non consensuelles d’une autre personne sur ses comptes Facebook et Instagram, vues plus de 50 millions de fois avant sa suppression. Selon Meta, cela était dû à un « retard dans l’examen du contenu en raison d’un arriéré à l’époque ».

Thomas Hughes, directeur du conseil de surveillance, a déclaré que l’incident de Neymar était un exemple de la façon dont les partenariats commerciaux pourraient avoir un impact sur les processus de modération.

« Cela ouvre des inquiétudes … sur les relations entre les individus dans l’entreprise et si cela pourrait influencer la prise de décision », a-t-il déclaré.

« Il y a probablement eu une confusion d’intérêts différents dans ce processus de vérification croisée », a-t-il ajouté.

Le rapport fait suite à des tensions publiques antérieures entre le conseil d’administration et Meta après que le premier a accusé la société de médias sociaux en septembre 2021 de retenir des informations sur le système. Beaucoup voient le conseil d’administration comme une tentative de créer une distance entre les dirigeants de l’entreprise et les décisions difficiles concernant la liberté d’expression.

Meta a maintenant 90 jours pour répondre aux recommandations.

© 2022 Financial Times Ltd. Tous droits réservés. Ne pas être redistribué, copié ou modifié de quelque manière que ce soit.

Source-147