Les PDG de la technologie feront face à une responsabilité pénale plus rapide en vertu de la loi britannique sur la sécurité en ligne

Le Royaume-Uni accélère l’application de pouvoirs qui pourraient voir les PDG de la technologie envoyés en prison si leurs entreprises ne se conforment pas à la nouvelle législation sur le contenu Internet axée sur la sécurité, a confirmé le gouvernement aujourd’hui.

Les dernières révisions du projet de loi incluent un délai radicalement réduit pour pouvoir appliquer des pouvoirs de responsabilité pénale contre les cadres supérieurs de la technologie qui ne coopèrent pas aux demandes d’informations du régulateur – jusqu’à seulement deux mois après l’adoption de la législation. (Et puisque le gouvernement jouit d’une large majorité à la Chambre des communes, le nouveau règlement sur la sécurité en ligne – déjà en cours d’élaboration depuis des années – pourrait devenir loi cette année.)

Alors que le projet de loi, qui a été publié en mai 2021, a déjà fait l’objet d’une série de révisions – et d’autres sont annoncées aujourd’hui – le plan de base est resté assez constant : le gouvernement introduit un cadre dédié pour contrôler la façon dont les entreprises de médias sociaux et d’autres contenus -les plates-formes ciblées doivent répondre à certains types de contenu problématique (pas seulement au contenu illégal dans certains cas), qui comprendra un régime de codes de pratique supervisé par le régulateur des médias et des communications, Ofcom, dans un rôle considérablement élargi et doté de pouvoirs considérables infliger aux contrevenants des amendes pouvant aller jusqu’à 10 % de leur chiffre d’affaires annuel mondial.

Comme le nom du projet de loi l’indique, le gouvernement se concentre sur une très large « réduction des risques » des plates-formes Internet – ce qui signifie que le projet de loi vise à lutter non seulement contre les choses explicitement illégales (comme le terrorisme ou le CSAM), mais vise à établir des règles sur la façon dont le les plus grandes plates-formes Internet doivent aborder les contenus en ligne « légaux mais préjudiciables », tels que la pêche à la traîne.

Les militants de la sécurité des enfants, en particulier, font pression depuis des années pour que les entreprises technologiques soient obligées de purger le contenu toxique.

Le gouvernement a progressivement puis rapidement embrassé cette cause populiste – affirmant que son objectif déclaré pour le projet de loi est de faire du Royaume-Uni l’endroit le plus sûr au monde pour aller en ligne et frapper fort un tambour de protection de l’enfance.

Mais il a également reconnu qu’il existe d’énormes défis à la réglementation efficace d’une arène aussi tentaculaire.

Le projet de loi révisé sera présenté au Parlement jeudi – donnant le coup d’envoi d’un débat plus large et interpartis sur ce qui reste un plan controversé mais populiste visant à introduire un « devoir de diligence » sur les sociétés de médias sociaux et d’autres plateformes de diffusion de contenu généré par les utilisateurs. Bien qu’il bénéficie d’un large soutien (mais pas universel) parmi les législateurs britanniques.

Commentant la présentation du projet de loi au parlement dans un communiqué, la secrétaire numérique Nadine Dorries a déclaré :

« Internet a transformé nos vies pour le mieux. Cela nous a connectés et nous a renforcés. Mais d’un autre côté, les entreprises technologiques n’ont pas été tenues responsables lorsque les préjudices, les abus et les comportements criminels se sont déchaînés sur leurs plateformes. Au lieu de cela, ils ont été laissés pour marquer leurs propres devoirs.

« Nous n’y pensons pas une seconde lorsque nous attachons nos ceintures de sécurité pour nous protéger au volant. Compte tenu de tous les risques en ligne, il est logique que nous garantissions des protections de base similaires à l’ère numérique. Si nous n’agissons pas, nous risquons de sacrifier le bien-être et l’innocence d’innombrables générations d’enfants au pouvoir d’algorithmes incontrôlés.

« Depuis que j’ai pris mes fonctions, j’ai écouté les gens de la politique, de la société au sens large et de l’industrie et j’ai renforcé le projet de loi, afin que nous puissions atteindre notre objectif principal : faire du Royaume-Uni l’endroit le plus sûr pour aller en ligne. »

Il est juste de dire qu’il y a un large soutien au sein du Parlement britannique pour casser le fouet sur les plates-formes technologiques en ce qui concerne les règles de contenu (les députés n’ont sûrement pas oublié comment le fondateur de Facebook a snobé les questions de contenu précédentes).

Même s’il existe une diversité d’opinions et de différends sur le détail de la meilleure façon de le faire. Il sera donc – au moins – intéressant de voir comment les parlementaires réagiront au projet au fur et à mesure qu’il passera par le processus d’examen législatif dans les mois à venir.

Beaucoup de choses dans et autour de la proposition de sécurité en ligne du Royaume-Uni restent toutefois floues, notamment dans la mesure où le régime fonctionnera bien (ou mal) dans la pratique. Et ce que ses exigences à multiples facettes signifieront pour les entreprises numériques concernées, grandes et petites.

Le détail de ce qui tombera exactement dans le seau de contenu «légal mais préjudiciable» plus flou, par exemple, sera défini dans la législation secondaire à convenir par les députés – ce dernier étant une autre nouvelle stipulation que le gouvernement a annoncée aujourd’hui, arguant que cela évitera le risque que les géants de la technologie deviennent de facto des policiers de la parole, ce qui était l’une des premières critiques du plan.

Dans ce qui ressemble à une tentative de minimiser davantage le potentiel de controverse, le communiqué de presse du gouvernement présente les objectifs du projet de loi en termes très vanillés – disant qu’il est destiné à garantir que les plateformes « respectent leurs termes et conditions déclarés » (et qui pourrait contester cela ?) – en plus de faire valoir qu’il s’agit simplement de mesures (et de pouvoirs ?) « équilibrées et proportionnées » qui obligeront finalement les géants de la technologie à s’asseoir, à prendre note et à lutter efficacement contre les discours illégaux et abusifs. (Ou sinon, eh bien, leur PDG pourrait se retrouver en prison… !)

Sans surprise, les groupes de défense des droits numériques ont rapidement saisi ce message implicitement contradictoire – réitérant les avertissements selon lesquels la législation représente une attaque massivement effrayante contre la liberté d’expression. L’Open Rights Group (ORG) n’a pas tardé à comparer la menace de prison pour les dirigeants des médias sociaux aux pouvoirs exercés par Vladimir Poutine en Russie.

« Les pouvoirs d’emprisonner les dirigeants des médias sociaux devraient être comparés aux menaces similaires de Poutine il y a quelques semaines », a déclaré le directeur exécutif d’ORG, Jim Killock, dans un communiqué répondant aux dernières révisions du DCMS.

« Le fait que le projet de loi ne cesse de changer son contenu après quatre ans de débat devrait dire à tout le monde que c’est un gâchis, et susceptible d’être une amère déception dans la pratique », a-t-il ajouté.

« Le projet de loi contient toujours des pouvoirs permettant aux ministres de décider quelles plateformes de contenu légal doivent essayer de supprimer. Les approbations parlementaires automatiques pour les déclarations ministérielles compromettront toujours l’indépendance de l’organisme de réglementation. Cela signifierait une censure sanctionnée par l’État du contenu légal.

La réponse du gouvernement à la critique de l’impact potentiel sur la liberté d’expression comprend des exigences du projet de loi pour que les entreprises de médias sociaux « protègent le journalisme » et le « débat politique démocratique », comme le dit son communiqué de presse – bien qu’il soit plutôt moins clair comment (ou si) les plates-formes vont/peuvent réellement le faire.

Au lieu de cela, DCMS réitère que le « contenu d’actualités » (hmm, est-ce que cela couvre toute personne en ligne qui réclamations être journaliste?) a été exclue – soulignant que cette catégorie particulière qui étend la définition est «complètement exempte de tout règlement en vertu du projet de loi». (Donc, eh bien, la « conformité » semble déjà très compliquée *.)

Sur le risque de responsabilité pénale qui fait la une des journaux pour les cadres supérieurs de la technologie – probablement une mesure populiste dont le gouvernement espère probablement qu’elle aidera à mobiliser le soutien du public pour étouffer les voix d’experts objectant comme celle d’ORG – la secrétaire d’État au numérique, Nadine Dorries, avait déjà signalé lors des audiences de la commission parlementaire l’automne dernier qu’elle souhaitait accélérer l’application des pouvoirs en matière de responsabilité pénale. (De manière mémorable, elle n’a pas perdu de temps à brandir la menace d’une peine de prison plus rapide pour les cadres supérieurs de Meta – disant qu’ils devraient se concentrer sur la sécurité et oublier le métaverse.)

Le projet de loi original, qui précédait le mandat de Dorries à la tête du dossier numérique, avait reporté le pouvoir pendant au moins deux ans. Mais ce délai a été critiqué par les militants de la sécurité des enfants – qui ont averti qu’à moins que la loi n’ait de vrais mordants, elle serait inefficace car les plateformes pourront simplement l’ignorer. (Et un risque pressant d’emprisonnement pour les cadres supérieurs de la technologie, comme Nick Clegg de Meta, ancien vice-Premier ministre du Royaume-Uni, pourrait certainement concentrer certains esprits de la suite C sur la conformité.)

Le pouvoir de prison plus rapide n’est en aucun cas la première révision substantielle du projet de loi non plus. Comme le souligne Killock, il y a eu tout un banquet de «révisions» à ce stade – qui s’est manifesté, ces dernières semaines, lorsque le Département du numérique, de la culture, des médias et des sports (DCMS) a publié un flux continu d’annonces selon lesquelles il est plus loin élargissant la portée du projet de loi et renforçant son pouvoir.

Cela a inclus l’introduction d’annonces frauduleuses et de sites Web pornographiques (dans ce dernier cas, pour les forcer à utiliser des technologies de vérification de l’âge) ; élargir la liste des contenus criminels ajoutés au visage du projet de loi et l’introduction de nouvelles infractions pénales – y compris le cyberflash ; et définir des mesures pour lutter contre la pêche à la traîne anonyme en s’appuyant sur des plates-formes pour réduire la liberté d’accès.

Deux commissions parlementaires qui ont examiné la proposition initiale l’année dernière ont ensuite mis en garde contre les défauts majeurs – et ont demandé une série de changements – des recommandations que le DCMS a déclaré avoir prises en compte lors de ces révisions.

Il y a encore plus d’extras aujourd’hui : Y compris plus de nouvelles infractions (liées à l’information) sont ajoutées au projet de loi — pour rendre pénalement responsables les dirigeants des entreprises concernées en cas de destruction de preuves ; ne pas se présenter ou fournir de fausses informations lors d’entretiens avec l’Ofcom ; et pour avoir gêné le régulateur lorsqu’il entre dans les bureaux de l’entreprise.

DCMS note que c’est la violation de ces infractions qui pourrait conduire les cadres supérieurs des principales plateformes à être condamnés à une peine pouvant aller jusqu’à deux ans de prison ou à une amende.

Un autre ajout, lié à ce que le gouvernement décrit comme une « technologie proactive » – ​​c’est-à-dire des outils de modération de contenu, de profilage des utilisateurs et d’identification des comportements destinés à « protéger les utilisateurs » – arrive sous la forme de des dispositions ont été ajoutées pour permettre à l’Ofcom de « définir des attentes pour l’utilisation de ces technologies proactives dans les codes de pratique et obliger les entreprises à utiliser des outils meilleurs et plus efficaces, si cela s’avère nécessaire ».

« Les entreprises devront démontrer qu’elles utilisent les bons outils pour remédier aux dommages, qu’elles sont transparentes et que toutes les technologies qu’elles développent répondent aux normes de précision et d’efficacité requises par le régulateur », ajoute-t-il, stipulant également que l’Ofcom ne pourra pas recommander ces outils sont appliqués sur des messageries privées ou des contenus légaux mais préjudiciables.

Les plates-formes seront également désormais tenues de signaler le contenu CSAM qu’elles détectent sur leurs plates-formes directement à la National Crime Agency, dans un autre changement qui remplace un régime de signalement volontaire existant et qui, selon le DCMS, « reflète l’engagement du gouvernement à lutter contre ce crime horrible ».

« Les rapports à la National Crime Agency devront respecter un ensemble de normes claires pour garantir que les forces de l’ordre reçoivent les informations de haute qualité dont elles ont besoin pour protéger les enfants, poursuivre les délinquants et limiter la revictimisation à vie en empêchant la recirculation continue de contenus illégaux », a-t-il ajouté. précise également, en ajoutant : « Les entreprises concernées devront démontrer les obligations de déclaration existantes en dehors du Royaume-Uni pour être exemptées de cette exigence, ce qui évitera la duplication des efforts de l’entreprise. »

Après avoir apporté tant de révisions à ce que le gouvernement aime qualifier de législation « de classe mondiale », avant même le début du débat parlementaire officiel, cela suggère que les accusations selon lesquelles la proposition est à la fois exagérée et à moitié cuite semblent difficiles à ébranler.

Les députés peuvent également identifier un manque de cohérence costumé dans la conviction populiste et espionner une opportunité de se tenir debout et de faire pression pour que leurs propres haines personnelles soient également incluses dans le mélange (comme l’a averti un ancien ministre d’État) – avec le risque qu’un le projet de loi naissant grumeleux finit par être encore plus lourd et chargé de demandes impossibles.

* Une ligne dans le propre communiqué de presse du DCMS semble concéder au moins un gâchis imminent – et/ou la nécessité d’ajouter encore plus de révisions/mesures – notant : « Les ministres continueront également à réfléchir à la manière de s’assurer que les plateformes ne suppriment pas de contenu de médias reconnus.

Source-146