Une protection clé protégeant les entreprises de médias sociaux de toute responsabilité pour l’hébergement de contenu tiers – l’article 230 du Communications Decency Act – est sur le point de faire face à sa première contestation devant la Cour suprême des États-Unis.
La question posée au tribunal consiste à savoir si YouTube, propriété de Google, est responsable d’avoir aidé et encouragé les terroristes de l’EI en recommandant activement des vidéos de l’EI aux utilisateurs via ses algorithmes.
Selon les plaignants, l’Etat islamique s’est appuyé sur YouTube lors de ses efforts pour intensifier le recrutement avant que le groupe terroriste ne s’attribue le mérite d’avoir tué 130 personnes et blessé plus de 350 autres lors de six attaques coordonnées en 2015. Le procès maintenant dirigé vers la Cour suprême se concentre sur le meurtre. d’une Américaine nommée Nohemi Gonzalez, qui dînait dans un bistrot parisien lorsque les militants de l’EI ont attaqué.
Lundi, la Cour suprême a annoncé qu’elle réexaminerait l’affaire – soulevée par le père de Nohemi, Reynaldo Gonzalez – qui soutient que YouTube a aidé à diffuser les messages de l’Etat islamique. Bien que les plaignants affirment dans des documents judiciaires que YouTube n’a pas joué un rôle direct dans la mort de Gonzalez, ils allèguent que YouTube « a sciemment permis à l’Etat islamique de publier sur YouTube des centaines de vidéos radicalisantes incitant à la violence », a rapporté NBC News.
Google n’a pas fourni de commentaires à Ars avant la date limite, mais dans un dossier judiciaire en juillet, il a demandé à la Cour suprême de refuser d’examiner l’affaire. A cette époque, Google a dit qu’il était confus.
« On ne sait toujours pas quels aspects spécifiques de la technologie de YouTube sont même en cause », a déclaré Google dans le dossier du tribunal. La société de technologie a également suggéré qu’une refonte des politiques de YouTube en matière de terrorisme depuis la mort de Gonzalez signifiait que « la pertinence de cette affaire pour YouTube de 2022 est loin d’être claire ».
Parmi les changements apportés par YouTube depuis 2017, citons le fait de consacrer davantage de ressources d’ingénierie pour identifier et supprimer automatiquement le contenu lié au terrorisme, de presque doubler le nombre d’experts humains travaillant avec YouTube pour signaler plus précisément le contenu à supprimer, et d’empêcher la monétisation et les commentaires sur les contenus signalés. un contenu qui n’enfreint pas les règles mais qui mérite un avertissement.
« Ensemble, nous pouvons construire des solutions durables qui répondent aux menaces qui pèsent sur notre sécurité et nos libertés », écrivait Kent Walker, avocat général de Google, en 2017. « C’est un défi vaste et complexe. Nous nous engageons à jouer notre rôle. »
Afficher ou recommander du contenu
La position déclarée de Google est que le cas de Gonzalez est condamné, en partie à cause de « l’ambiguïté des plaidoiries des pétitionnaires quant à ce qui, en particulier, distingue la technologie de YouTube des autres technologies largement utilisées », qui sont couvertes par l’article 230. La société a défendu ses algorithmes, affirmant que son moteur de recommandation fonctionne sur la base des entrées des utilisateurs comme la plupart des autres technologies Internet, telles que les moteurs de recherche, et affirmant qu’une décision de la Cour suprême de tenir YouTube responsable de la recommandation de vidéos ISIS « menaçait les décisions organisationnelles fondamentales de l’Internet moderne ».
Ars a contacté l’avocat de Gonzalez, Eric Schnapper, qui n’a pas pu répondre immédiatement pour commenter. Cependant, dans un dossier judiciaire répondant à Google, Schnapper a écrit que Google s’appuie sur des citations partielles tirées d’opinions judiciaires antérieures et sur une sémantique tordue de la plainte pour affirmer que ce qui est en cause, c’est la façon dont il « affiche » le contenu « recommandé ». Schnapper a écrit que si ce qui était en cause était simplement ce que YouTube affichait, l’immunité de l’article 230 couvrirait en effet les pistes de Google, mais ce n’est pas ce que Gonzalez allègue.
Au cœur de la plainte de Gonzalez et ce que le tribunal doit maintenant décider, c’est si YouTube a réellement contribué au recrutement de l’EI en recommandant des vidéos, et pas seulement en les affichant. Schnapper a écrit que parce que Google a fait une telle « interprétation très douteuse de l’article 230 », il est maintenant temps pour la Cour suprême d’intervenir et de clarifier le fonctionnement de la loi.
Comme Google l’a indiqué, la décision finale du tribunal pourrait avoir un impact sur la façon dont d’autres sociétés de médias sociaux comme Facebook ou Twitter recommanderont du contenu à l’avenir. Il y a une pression politique de la part des démocrates et des républicains pour diminuer la force de l’article 230, a rapporté NBC News, « les conservateurs affirmant que les entreprises censurent le contenu de manière inappropriée et les libéraux affirmant que les entreprises de médias sociaux diffusent une dangereuse rhétorique de droite ».
La Cour suprême examinera également un appel connexe, une action en justice visant à tenir Twitter responsable de l’hébergement de contenu terroriste sur sa plate-forme en violation de la loi antiterroriste. Comme dans le cas de Gonzalez, la question de l’immunité de Twitter en vertu de l’article 230 n’a pas encore été tranchée. Twitter n’a pas immédiatement répondu à la demande de commentaire d’Ars. Auparavant, le juge de la Cour suprême Clarence Thomas a critiqué l’article 230, mais sinon, le jury ne sait pas dans quelle direction le tribunal ira dans l’affaire Google ou Twitter.
Google veut que les législateurs, et non la Cour suprême, soient responsables de la modification de l’article 230. Dans le dossier de la société, les avocats de Google ont écrit que le Congrès examinait plusieurs lois liées à l’article 230 et ont suggéré que « si le Congrès pensait que l’application de l’article 230 dans ce contexte était problématique, le Congrès pourrait agir.
Dans sa réponse, Schnapper a souligné une faille apparente dans cet argument : « Cette Cour a mis en garde à plusieurs reprises contre le fait d’attacher un sens à l’inaction du Congrès. » Il a également fait valoir que retarder les actes du Congrès met en péril les utilisateurs en ligne dans l’intervalle, notant que même Google a reconnu dans le passé que la lutte contre l’extrémisme en ligne de plus en plus répandu est une question de « grande importance publique ».