Google a averti qu’une décision à son encontre dans une affaire en cours devant la Cour suprême (SC) pourrait mettre l’ensemble de l’Internet en danger en supprimant une protection clé contre les poursuites pour décisions de modération de contenu impliquant l’intelligence artificielle (IA).
Article 230 de la loi de 1996 sur la décence des communications (s’ouvre dans un nouvel onglet) offre actuellement une « bouclier de responsabilité » général en ce qui concerne la manière dont les entreprises modèrent le contenu sur leurs plateformes.
Cependant, comme le rapporte CNN (s’ouvre dans un nouvel onglet)écrit Google dans un dépôt légal (s’ouvre dans un nouvel onglet) que, si le SC se prononçait en faveur du plaignant dans l’affaire Gonzalez contre Google, qui tourne autour des algorithmes de YouTube recommandant du contenu pro-ISIS aux utilisateurs, Internet pourrait être envahi par un contenu dangereux, offensant et extrémiste.
Automatisation avec modération
Faire partie d’une loi vieille de près de 27 ans, déjà ciblée pour être réformée par le président américain Joe Biden (s’ouvre dans un nouvel onglet)l’article 230 n’est pas équipé pour légiférer sur les développements modernes tels que les algorithmes artificiellement intelligents, et c’est là que les problèmes commencent.
Le cœur de l’argument de Google est qu’Internet s’est tellement développé depuis 1996 que l’intégration de l’intelligence artificielle dans les solutions de modération de contenu est devenue une nécessité. « Pratiquement aucun site Web moderne ne fonctionnerait si les utilisateurs devaient trier eux-mêmes le contenu », a-t-il déclaré dans le dossier.
« Une abondance de contenu » signifie que les entreprises technologiques doivent utiliser des algorithmes afin de le présenter aux utilisateurs de manière gérable, des résultats des moteurs de recherche aux offres de vols, en passant par les recommandations d’emploi sur les sites Web d’emploi.
Google a également expliqué qu’en vertu de la législation en vigueur, les entreprises technologiques qui refusent simplement de modérer leurs plates-formes constituent une voie parfaitement légale pour éviter toute responsabilité, mais que cela expose Internet au risque d’être un « cloaque virtuel ».
Le géant de la technologie a également souligné que les directives de la communauté YouTube désavouent expressément le terrorisme, le contenu pour adultes, la violence et « d’autres contenus dangereux ou offensants » et qu’il ajuste continuellement ses algorithmes pour bloquer de manière préventive les contenus interdits.
Il a également affirmé qu' »environ » 95% des vidéos violant la « politique d’extrémisme violent » de YouTube ont été automatiquement détectées au deuxième trimestre 2022.
Néanmoins, les requérants dans l’affaire soutiennent que YouTube n’a pas supprimé tout le contenu lié à l’Etat islamique et, ce faisant, a aidé « la montée de l’Etat islamique » à la notoriété.
Dans une tentative de se distancier davantage de toute responsabilité sur ce point, Google a répondu en disant que les algorithmes de YouTube recommandent du contenu aux utilisateurs en fonction des similitudes entre un contenu et le contenu qui intéresse déjà un utilisateur.
Il s’agit d’un cas compliqué et, bien qu’il soit facile de souscrire à l’idée qu’Internet est devenu trop grand pour la modération manuelle, il est tout aussi convaincant de suggérer que les entreprises devraient être tenues responsables lorsque leurs solutions automatisées échouent.
Après tout, si même les géants de la technologie ne peuvent garantir le contenu de leur site Web, les utilisateurs de filtres et controle parental ne peuvent pas être sûrs qu’ils prennent des mesures efficaces pour bloquer le contenu offensant.