Nous construisons un monde social+, mais comment allons-nous le modérer ?

Le social n’est plus seulement ce que vous faites sur Facebook ; c’est ce que vous faites dans chaque application que vous utilisez. Pensez à l’expérience sur Venmo, Strava, Duolingo ou encore Sephora.

Les entreprises qui implémentent des composants sociaux dans leurs applications et services, connues sous le nom d’entreprises sociales+, prospèrent car elles peuvent établir des connexions et permettre des interactions avec les utilisateurs.

D’Arcy Coolican d’Andreessen Horowitz a expliqué l’attrait des entreprises sociales+ en écrivant :

« [Social+] peut nous aider à trouver une communauté dans tous les domaines, des jeux vidéo à la musique en passant par les entraînements. Social+ se produit lorsque l’utilité source de plaisir est intégrée de manière réfléchie à cette connexion humaine essentielle. C’est puissant parce qu’en fin de compte, plus nous trouvons de façons de nous connecter les uns aux autres de manière authentique et positive, mieux c’est.

Social+ va bientôt imprégner tous les aspects de nos vies, s’accélérant à un rythme effréné dans les mois à venir. Je parierais que l’adoption se poursuivra jusqu’au point d’utilité – où chaque entreprise est une entreprise sociale. C’est très excitant, mais seulement si nous planifions en conséquence. Comme nous l’avons vu avec l’influence sociale dans le passé, c’est incroyable… jusqu’à ce que ce ne soit plus le cas.

Ce qui est incroyablement additif à l’expérience utilisateur d’aujourd’hui pourrait devenir un cauchemar absolu si les applications invoquant le social ne trouvent pas de religion dans les bonnes pratiques de modération et n’investissent pas les ressources nécessaires pour s’assurer qu’elles construisent la bonne technologie et les bons processus dès le départ.

Apprendre de Facebook

En tant que pionnier social OG, Facebook a redéfini le fonctionnement de la société. Ce faisant, il a enduré des leçons très douloureuses. Il doit notamment supporter le fardeau de surveiller les messages individuels, de groupe et d’organisation de 1,93 milliard d’utilisateurs actifs quotidiens, tout en essayant de cultiver un sentiment de communauté sans censure et en favorisant l’adoption, l’engagement et les bénéfices de la plateforme. Bien que les entreprises sociales+ ne soient pas susceptibles de voir ce genre de volume, du moins à court terme, elles devront toujours faire face aux mêmes problèmes – seulement elles n’ont plus l’excuse de ne pas pouvoir prévoir que de telles choses pourraient arriver .

Si Facebook et son armée de développeurs, de modérateurs et de technologie d’intelligence artificielle ont du mal, quelle chance avez-vous si vous ne faites pas de la modération et des directives de la communauté une priorité dès le départ ?

Regardons quelques domaines où Facebook a trébuché sur la modération :

  • Ne pas tenir compte du mauvais comportement des utilisateurs dans un contexte de croissance rapide : Aux débuts de Facebook, la modération de la plate-forme n’était pas jugée nécessaire dans ce qui était considéré comme un espace gratuit et axé sur les utilisateurs. L’entreprise n’était qu’un canal de connexion. Facebook n’a pas reconnu le potentiel de préjudice pour les utilisateurs jusqu’à ce qu’il soit trop tard pour le gérer efficacement. Même avec les logiciels les plus avancés et une main-d’œuvre dans laquelle 15 000 employés se consacrent uniquement à la révision du contenu dans 70 langues, la modération du contenu reste un énorme problème qui a coûté aux utilisateurs de l’entreprise, des dollars publicitaires et de grandes quantités de capital de réputation.
  • Sous-estimer la barrière de la langue: Alors que nous vivons dans une société de plus en plus mondialisée, connectée via des services et des réseaux en ligne, des documents remis au Congrès ont montré que 87 % du budget mondial de Facebook alloué à l’identification de la désinformation était réservé aux États-Unis. Seulement 13 % vont aux pratiques de modération pour le reste du monde, alors même que les Nord-Américains ne représentent que 10 % de ses utilisateurs quotidiens. Facebook a tenté d’appliquer un logiciel basé sur l’IA pour la modération de contenu sur des marchés où le langage est incroyablement nuancé dans le but de résoudre le problème, qui ne s’est pas bien passé. Sur le plus grand marché de Facebook (l’Inde, avec 350 millions d’utilisateurs), la désinformation et les appels à la violence se sont multipliés en raison d’un déficit linguistique. C’est encore pire avec les dialectes variés de l’Afrique du Nord et du Moyen-Orient. En conséquence, les examens de contenu humains et automatisés ont par erreur permis au discours de haine de se répandre tandis que les messages bénins sont supprimés pour avoir apparemment fait la promotion d’activités terroristes.
  • Faire de la politique : Le langage le plus clair est devenu une arme aux États-Unis. Les contrefaçons profondes et les campagnes de désinformation se sont normalisées, mais les messages que Facebook supprime ou signale à juste titre conformément à ses conditions de service suscitent l’ire des utilisateurs qui estiment que leurs droits d’expression sont violés et leurs voix étouffées. Cela a provoqué une réaction importante du public, ainsi qu’une poignée de nouvelles procédures judiciaires. Pas plus tard que le 1er décembre, un juge fédéral a bloqué l’entrée en vigueur d’une loi du Texas qui permettrait aux résidents de l’État de poursuivre Facebook en dommages-intérêts si leur contenu était supprimé en raison de convictions politiques. Une loi similaire en Floride, qui tentait de tenir Facebook responsable de la censure des candidats politiques, des sites d’information et des utilisateurs, a également été annulée. Ces tentatives, cependant, montrent à quel point les gens sont devenus furieux à propos des pratiques de modération de contenu qu’ils n’aiment pas ou qu’ils perçoivent comme changeant avec le temps pour aller à leur encontre.
  • Déterminer quoi faire avec le contenu interdit : Il y a aussi la question de savoir ce qu’il advient de ce contenu une fois qu’il est supprimé et si une entreprise a la responsabilité éthique de remettre un contenu répréhensible ou d’alerter les autorités concernant une activité illégale potentielle. Par exemple, les procureurs exigent actuellement que Facebook leur transmette des données qui les aideront à identifier les membres d’un groupe, la Garde civile du Nouveau-Mexique, qui ont été impliqués dans un incident violent au cours duquel un manifestant a été abattu. Facebook affirme qu’il ne peut pas aider car il a supprimé les enregistrements du groupe, qui avaient été interdits. Les tensions continuent d’éclater entre les forces de l’ordre et les entreprises sociales en termes de qui possède quoi, d’attentes raisonnables en matière de confidentialité et de la possibilité pour les entreprises de publier du contenu

Toutes ces questions doivent être examinées attentivement par les entreprises qui envisagent d’intégrer une composante sociale dans leur application ou service.

La prochaine génération d’applications sociales

L’engagement social est la clé des ventes, de l’adoption et bien plus encore, mais nous ne devons pas oublier que les humains sont imparfaits. La pêche à la traîne, le spam, la pornographie, le phishing et les escroqueries financières font autant partie d’Internet que les navigateurs et les paniers d’achat. Ils peuvent anéantir et détruire une communauté.

Considérez : si Facebook et son armée de développeurs, de modérateurs et de technologie d’intelligence artificielle ont du mal, quelle chance avez-vous si vous ne faites pas de la modération et des directives de la communauté une priorité dès le départ ?

Les entreprises doivent créer des fonctionnalités de modération – ou s’associer à des entreprises qui fournissent des solutions robustes – qui peuvent évoluer avec l’entreprise, en particulier à mesure que les services se mondialisent. Cela ne peut pas être surestimé. C’est fondamental pour le succès et la viabilité à long terme d’une plateforme – et pour l’avenir du mouvement social+.

Cependant, pour que les outils de modération fassent leur part, les entreprises doivent créer des codes de conduite clairement définis pour les communautés, qui minimisent les zones grises et qui soient rédigés de manière claire et concise afin que tous les utilisateurs comprennent les attentes.

La transparence est vitale. Les entreprises doivent également mettre en place une structure sur la manière dont elles gèrent les comportements inappropriés : quels sont les processus de suppression des publications ou de blocage des utilisateurs ? Combien de temps seront-ils bloqués sur les comptes ? Peuvent-ils faire appel ?

Et puis le grand test – les entreprises doivent appliquer ces règles dès le début avec cohérence. Chaque fois qu’il y a ambiguïté ou comparaison entre instances, l’entreprise est perdante.

Les organisations doivent également définir leur position sur leur responsabilité éthique en matière de contenu répréhensible. Les entreprises doivent décider elles-mêmes de la manière dont elles géreront la confidentialité et le contenu des utilisateurs, en particulier ceux qui pourraient intéresser les forces de l’ordre. Il s’agit d’un problème compliqué, et le moyen pour les entreprises sociales de garder les mains propres est d’articuler clairement la position de l’entreprise en matière de confidentialité plutôt que de s’en cacher, en ne la révélant que lorsqu’un problème survient.

Des modèles sociaux sont intégrés à toutes les applications, de la fintech aux soins de santé en passant par la livraison de nourriture, pour rendre nos vies numériques plus engageantes et amusantes. Dans le même temps, les erreurs sont inévitables car les entreprises se taillent une toute nouvelle façon de communiquer avec leurs utilisateurs et leurs clients.

Ce qui est important maintenant, c’est que les entreprises sociales+ apprennent des pionniers comme Facebook afin de créer des mondes en ligne plus sûrs et plus coopératifs. Cela demande juste un peu de prévoyance et d’engagement.

Source-146