La Cour suprême autorise les mods Reddit à défendre anonymement l’article 230

Au cours des derniers jours, des dizaines d’entreprises technologiques ont déposé des mémoires à l’appui de Google dans une affaire de la Cour suprême qui teste la responsabilité des plateformes en ligne pour recommander du contenu. Des parties prenantes évidentes comme Meta et Twitter, aux côtés de plates-formes populaires telles que Craigslist, Etsy, Wikipedia, Roblox et Tripadvisor, ont exhorté le tribunal à maintenir l’immunité de l’article 230 dans l’affaire ou à risquer de brouiller les chemins sur lesquels les utilisateurs s’appuient pour se connecter les uns aux autres et découvrir des informations en ligne. .

De tous ces mémoires, cependant, celui de Reddit était peut-être le plus convaincant. La plateforme a plaidé au nom des internautes ordinaires, qui selon elle pourraient être ensevelis dans des poursuites « frivoles » pour fréquentation de Reddit, si la section 230 est affaiblie par le tribunal. Contrairement à d’autres entreprises qui embauchent des modérateurs de contenu, le contenu affiché par Reddit est « principalement piloté par des humains, et non par des algorithmes centralisés ». Pour cette raison, le dossier de Reddit brosse un tableau des trolls qui poursuivent non pas les grandes entreprises de médias sociaux, mais des individus qui ne reçoivent aucune compensation pour leur travail recommandant du contenu dans les communautés. Cette menace légale s’étend à la fois aux modérateurs de contenu bénévoles, a fait valoir Reddit, ainsi qu’aux utilisateurs plus occasionnels qui collectent le «karma» de Reddit en votant pour et contre les messages pour aider à faire apparaître le contenu le plus engageant dans leurs communautés.

« L’article 230 du Communications Decency Act protège les plates-formes Internet de toute responsabilité, mais ce qui manque à la discussion, c’est qu’il protège de manière cruciale les utilisateurs d’Internet – les gens ordinaires – lorsqu’ils participent à la modération, comme la suppression de contenu indésirable de leurs communautés, ou les utilisateurs qui votent pour et contre. messages », a déclaré un porte-parole de Reddit à Ars.

Reddit fait valoir dans le mémoire que de telles poursuites frivoles ont été intentées contre les utilisateurs de Reddit et la société dans le passé, et les protections de l’article 230 ont toujours permis aux utilisateurs de Reddit d’éviter les litiges « rapidement et à peu de frais ».

L’affaire Google a été soulevée par la famille d’une femme tuée dans un bistrot parisien lors d’une attaque terroriste de l’EI en 2015, Nohemi Gonzalez. Parce que l’Etat islamique aurait compté sur YouTube pour recruter avant cette attaque, la famille a intenté une action en justice pour tenir Google responsable d’avoir prétendument aidé et encouragé des terroristes.

Un porte-parole de Google a lié Ars à une déclaration disant: «Une décision portant atteinte à l’article 230 obligerait les sites Web soit à supprimer du matériel potentiellement controversé, soit à fermer les yeux sur un contenu répréhensible pour éviter d’en avoir connaissance. Vous vous retrouveriez avec un choix forcé entre des sites grand public trop organisés ou des sites marginaux inondés de contenu répréhensible.

Eric Schnapper, un avocat représentant la famille Gonzalez, a déclaré à Ars que la question devant la Cour suprême « ne s’applique qu’aux entreprises, comme Reddit lui-même, pas aux particuliers. Cette décision ne changerait rien en ce qui concerne les modérateurs ».

« La question des recommandations se pose dans cette affaire parce que la plainte allègue que les accusés recommandaient des vidéos de recrutement de terroristes de l’Etat islamique, ce qui, dans certaines circonstances, pourrait donner lieu à une responsabilité en vertu de la loi antiterroriste », a déclaré Schnapper à Ars, notant que la question de cette responsabilité fait l’objet d’une autre affaire SCOTUS impliquant Twitter, Meta et Google.

Source-147