« Nous sommes un tribunal. Nous ne savons vraiment rien de ces choses. Ce ne sont pas les neuf plus grands experts d’Internet.
La juge de la Cour suprême Elena Kagan a fait le commentaire ironique d’autodérision au début des plaidoiries pour Gonzalez contre Googleune affaire historique potentielle couvrant l’article 230 de la Communications Decency Act de 1996. La remarque était un clin d’œil aux pires craintes de beaucoup de gens à propos de l’affaire. Gonzalez pourrait annuler les protections juridiques de base pour Internet, et cela sera décidé par un tribunal qui a montré un appétit pour renverser le précédent juridique et réexaminer le droit de la parole de longue date.
Mais au cours d’une séance de questions remarquablement divertissante aujourd’hui, le tribunal a jeté un regard mesuré de manière inattendue sur l’article 230. Le résultat en Gonzalez est loin d’être certain, mais jusqu’à présent, le débat suggère une prise de conscience rassurante de la part du tribunal de l’importance de la décision – et des conséquences potentielles d’une erreur.
Gonzalez contre Google couvre un type très spécifique d’interaction en ligne avec des implications potentiellement énormes. La poursuite découle d’une fusillade de l’État islamique à Paris qui a tué l’étudiante Nohemi Gonzalez en 2015. Sa famille survivante a fait valoir que YouTube avait recommandé des vidéos de terroristes et avait donc violé les lois contre l’aide et l’encouragement de groupes terroristes étrangers. Alors que l’article 230 protège généralement les sites de toute responsabilité concernant le contenu généré par les utilisateurs, la pétition fait valoir que YouTube a créé son propre discours avec ses recommandations.
« Chaque fois que quelqu’un regarde quoi que ce soit sur Internet, un algorithme est impliqué. »
L’audience d’aujourd’hui s’est concentrée sur les « vignettes », un terme que l’avocat de la famille Gonzalez, Eric Schnapper, a défini comme une combinaison d’une image fournie par l’utilisateur et d’une adresse Web générée par YouTube pour la vidéo. Plusieurs juges semblaient douteux que la création d’une URL et d’un système de tri des recommandations retire aux sites les protections de l’article 230, en particulier parce que les vignettes ne jouaient pas un rôle majeur dans le dossier d’origine. Kagan et d’autres ont demandé si le problème des vignettes disparaîtrait si YouTube renommait simplement les vidéos ou fournissait des captures d’écran, suggérant que l’argument était une technicité déroutante.
Les distinctions fines autour de l’article 230 étaient un thème récurrent de l’audience, et pour une bonne raison. Gonzalez cible les recommandations « algorithmiques » comme le contenu qui se lit automatiquement après une vidéo YouTube donnée, mais comme l’a souligné Kagan, à peu près tout ce que vous voyez sur Internet implique une sorte de tri basé sur un algorithme. « C’était une loi pré-algorithme, et tout le monde fait de son mieux pour comprendre comment cette loi s’applique », a déclaré Kagan. « Chaque fois que quelqu’un regarde quoi que ce soit sur Internet, un algorithme est impliqué. »
L’introduction de la responsabilité dans ces algorithmes soulève toutes sortes de questions hypothétiques. Doit-on punir Google pour avoir renvoyé des résultats de recherche liés à un contenu diffamatoire ou terroriste, même s’il répond à une requête de recherche directe pour une fausse déclaration ou une vidéo terroriste ? Et inversement, un site Web hypothétique est-il clair s’il écrit un algorithme conçu délibérément pour être « de mèche avec ISIS », comme l’a dit la juge Sonia Sotomayor ? Bien que cela (quelque peu surprenant) n’ait pas été évoqué dans les arguments d’aujourd’hui, au moins une décision a trouvé que la conception d’un site peut le rendre activement discriminatoire, que le résultat implique ou non des informations remplies par les utilisateurs.
Un mauvais équilibre ici pourrait faire des composants techniques de base d’Internet – comme les moteurs de recherche et la génération d’URL – un champ de mines légal. Il y a eu quelques remarques sceptiques sur les craintes d’une apocalypse Web sans article 230, mais le tribunal a demandé à plusieurs reprises comment la modification des limites de la loi affecterait pratiquement Internet et les entreprises qu’il soutient.
Le tribunal semblait parfois frustré de s’être saisi de l’affaire
Comme l’écrivain juridique Eric Goldman y fait allusion dans un compte rendu d’audience, les juges semblaient parfois frustrés d’avoir pris le Gonzalez cas du tout. Il y a une autre audience demain pour Twitter contre Taamneh, qui couvre également les cas où les entreprises sont responsables d’avoir permis à des terroristes d’utiliser leur plate-forme, et la juge Amy Coney Barrett a évoqué la possibilité d’utiliser cette affaire pour décider qu’elles ne le sont tout simplement pas – ce qui pourrait permettre au tribunal d’éviter de toucher à l’article 230 en rendant le questions autour de lui sans objet. Le juge Kavanaugh a également réfléchi à la question de savoir si le Congrès, et non le tribunal, devrait être chargé d’apporter des modifications radicales à l’article 230.
Cela ne met pas Google ou le reste d’Internet en clair, cependant. Gonzalez ne sera certainement pas la dernière affaire en vertu de l’article 230, et même si cette affaire est rejetée, l’avocate de Google, Lisa Blatt, s’est demandé si l’article 230 servait toujours l’un de ses objectifs initiaux : encourager les sites à modérer efficacement sans craindre d’être puni. pour ça.
Blatt a soulevé le spectre d’un monde qui est soit « Truman show, soit un spectacle d’horreur » – en d’autres termes, où les services Web suppriment tout ce qui est juridiquement discutable à distance ou refusent de regarder du tout ce qui se trouve sur leur site. Mais nous ne savons pas à quel point cette défense est convaincante, en particulier dans des domaines naissants comme la recherche basée sur l’intelligence artificielle, qui a été évoquée à plusieurs reprises par le juge Neil Gorsuch comme un indicateur de l’avenir étrange des plates-formes. Le Washington Post parlé avec L’éminente critique de l’article 230 Mary Anne Franks, qui a exprimé un espoir provisoire que les juges semblaient disposés à changer la règle.
Pourtant, les arguments d’aujourd’hui ont été un soulagement après le cycle juridique cauchemardesque de l’année dernière. Même le juge Clarence Thomas, qui a écrit des opinions inquiétantes sur la « Big Tech » et la section 230, a passé le plus clair de son temps à se demander pourquoi YouTube devrait être puni pour avoir fourni un système de recommandation algorithmique qui couvrait les vidéos terroristes aux côtés de celles sur les chats mignons et » pilaf d’Ouzbékistan. Pour l’instant, c’est peut-être le mieux que nous puissions attendre.