La « prison Facebook », le nom que les utilisateurs du réseau social ont donné au système de l’entreprise pour déterminer les violations de la politique, fait l’objet d’une refonte. Meta a annoncé aujourd’hui qu’il réformerait son système de sanctions sur la base des recommandations du Conseil de surveillance, l’organe indépendant d’experts, d’universitaires, de dirigeants civiques et d’avocats qui pèsent désormais sur les décisions d’appel prises par Meta. Le conseil d’administration avait depuis longtemps exprimé des inquiétudes concernant le système de sanctions de Facebook, qu’il a qualifié de « disproportionné et opaque ». Il a également conseillé à Facebook d’être plus transparent avec les utilisateurs sur ses décisions et poussé à permettre aux utilisateurs d’expliquer le contexte de leur message violant lorsqu’ils font appel d’une décision prise par Meta.
Aujourd’hui, Meta dit qu’il réformera son système pour se concentrer moins sur la pénalisation des utilisateurs finaux en limitant leur capacité à publier et plus sur l’explication du raisonnement derrière ses suppressions de contenu, ce qui, selon lui, sera un moyen plus juste et plus efficace de modérer le contenu sur sa plate-forme. .
Le nouveau système n’appliquera pas de sanctions strictes, comme les délais d’attente de 30 jours à compter de la publication, jusqu’à la septième violation dans la plupart des cas.
« Nous apportons ce changement en partie parce que nous savons que nous ne faisons pas toujours les choses correctement. Ainsi, plutôt que de pénaliser potentiellement les personnes avec un nombre inférieur de grèves pour des violations de faible gravité et de limiter leur capacité à s’exprimer, cette nouvelle approche conduira à des actions plus rapides et plus percutantes pour ceux qui violent continuellement nos politiques », a écrit Monika Bickert. , vice-président Meta de la politique de contenu, dans une salle de presse annonçant les changements.
Meta explique que rien ne change réellement dans son processus décisionnel en ce qui concerne les suppressions de contenu elles-mêmes, mais il augmentera sa transparence autour de ses décisions en expliquant ses politiques aux utilisateurs en cas de violation. Historiquement, Meta a déclaré que les gens se retrouvaient dans la « prison de Facebook », sans même comprendre ce qu’ils avaient fait de mal. Certains ne savaient pas non plus qu’ils avaient été pénalisés après s’être retrouvés soudainement incapables de publier. Cependant, Meta a infligé des sanctions strictes et longues pour ces violations de niveau inférieur, qui n’étaient souvent pas mal intentionnées.
Dans son annonce, la société a donné quelques exemples des types de publications qui auraient pu déclencher une peine de prison sur Facebook dans le passé.
Par exemple, vous avez peut-être plaisanté avec un ami « Je suis sur le point de vous kidnapper », alors qu’en réalité vous aviez l’intention de l’inviter à dîner après une dure journée. Ou vous avez peut-être publié le nom et l’adresse de quelqu’un – une violation des politiques relatives au partage d’informations personnellement identifiables – alors qu’en réalité vous invitiez simplement un ami à une fête. Dans les deux scénarios, la réponse préalable de Facebook aurait été disproportionnée.
Il y avait de vrais torts à ce système, reconnaît Meta. Les personnes interdites de publication perdent non seulement leur capacité à s’exprimer et à se connecter avec leurs communautés locales, dit l’entreprise, mais elles peuvent également ne pas être en mesure de gérer leur entreprise sur Facebook lorsqu’elles sont en «prison Facebook». Et ces « délais d’attente » peuvent être longs. Le système précédent aurait immédiatement empêché les utilisateurs de publier pendant 30 jours – une période encore plus frustrante lorsque l’erreur était mineure ou que le contexte n’était pas pris en compte.
De plus, le système n’a pas réellement résolu le problème plus large avec les vrais mauvais acteurs – il les a laissés rester plus longtemps sur la plate-forme car il a empêché Meta de voir des tendances de violation plus importantes, note-t-il.
Pour résoudre ce problème, Meta augmente la transparence autour des violations tout en pénalisant les violations répétées, ce qui serait un moyen plus efficace de gérer les problèmes avec les mauvais acteurs, selon lui et le Conseil de surveillance.
Pour arriver à sa conclusion, Meta a effectué une analyse de son système de sanctions et a constaté que près de 80 % des utilisateurs avec un faible nombre d’avertissements n’ont pas violé à nouveau ses politiques au cours des 60 jours suivants, ce qui a démontré que la plupart des utilisateurs réagissent bien. à un avertissement et une explication. Pendant ce temps, il a appliqué ses sanctions les plus sévères lors de la septième grève, qui a donné « aux personnes bien intentionnées les conseils dont elles ont besoin tout en éliminant les mauvais acteurs ».
Cependant, il y a plus de nuances dans les changements au-delà du simple fait d’attendre plus longtemps pour pénaliser les violations. Les violations graves n’obtiendront pas de laissez-passer ici. Meta dit que les messages qui incluent « le terrorisme, l’exploitation des enfants, la traite des êtres humains, la promotion du suicide, l’exploitation sexuelle, la vente de drogues non médicales ou la promotion d’individus et d’organisations dangereux » continueront de voir des conséquences immédiates, y compris parfois la suppression de comptes. .
Cela peut également empêcher les personnes de publier dans les groupes Facebook à des seuils inférieurs à la septième violation, dans certains cas, mais n’a pas précisé cette partie.
La décision de Meta d’appliquer maintenant ces changements, après des années de tollé des utilisateurs et de pression extérieure, mérite d’être notée. Aux États-Unis, les législateurs républicains insistent depuis longtemps sur le fait que Facebook et d’autres grandes entreprises de technologie, comme Google et Twitter, censurent les points de vue conservateurs – plus récemment, ils ont pressé des entreprises comme Facebook et Twitter d’expliquer leurs décisions individuelles de modération, comme avec l’histoire de l’ordinateur portable Hunter Biden. Ces allégations de censure, ainsi que d’autres facteurs, ont contribué à l’intérêt croissant de certains législateurs pour la réglementation des plateformes technologiques ou même à leur rupture en raison de préoccupations antitrust. La croyance est que les entreprises ont eu trop de pouvoir pour réglementer le discours, ce qui a conduit à de longs débats sur la mesure dans laquelle ces entreprises empêchent la «liberté d’expression» par rapport à l’élaboration de règles sur la manière dont elles veulent que leur propre entreprise fonctionne.
En réduisant la sévérité des sanctions, Meta essaie d’équilibrer sa capacité à supprimer le contenu en infraction avec les dommages réels en le faisant, en termes d’impacts sur les utilisateurs individuels. Mais cela donne toujours à l’entreprise une marge de manœuvre pour prendre des décisions immédiates – comme si un président américain en exercice peut ou non voir son compte interdit, peut-être.
Le Conseil de surveillance a applaudi la décision de Meta aujourd’hui dans un article de blog, mais a suggéré qu’il y avait encore place à l’amélioration, en particulier avec la transparence autour des « grèves graves ». Il indique également que les explications et le contexte des utilisateurs doivent être pris en compte par les examinateurs de contenu lors du processus d’appel. Cependant, le message était largement positif, affirmant que le nouveau système est, au moins, « plus juste pour les utilisateurs qui ont été touchés de manière disproportionnée dans le passé ».
« Il s’agit d’un pas bienvenu dans la bonne direction pour Meta, et le conseil d’administration continuera de faire pression pour de nouvelles améliorations des politiques et pratiques de modération de contenu de Meta », a-t-il déclaré.