mercredi, novembre 20, 2024

L’UE publie des orientations sur la sécurité des élections à l’intention des géants des médias sociaux et d’autres acteurs concernés par le DSA

L’Union européenne a publié mardi un projet de lignes directrices en matière de sécurité électorale visant les quelque deux douzaines de plateformes (plus grandes) comptant plus de 45 millions d’utilisateurs actifs mensuels régionaux qui sont réglementées par la loi sur les services numériques (DSA) et, par conséquent, ont l’obligation légale d’atténuer les risques systémiques. des risques tels que les deepfakes politiques tout en protégeant les droits fondamentaux comme la liberté d’expression et la vie privée.

Les plateformes concernées incluent Facebook, Google Search, Instagram, LinkedIn, TikTok, YouTube et X.

La Commission a désigné les élections comme l’un des rares domaines prioritaires pour l’application du DSA sur les très grandes plateformes en ligne (VLOP) et les très grands moteurs de recherche en ligne (VLOSE). Ce sous-ensemble d’entreprises réglementées par la DSA est tenu d’identifier et d’atténuer les risques systémiques, tels que la manipulation d’informations ciblant les processus démocratiques dans la région, en plus de se conformer au régime complet de gouvernance en ligne.

Conformément aux orientations de l’UE en matière de sécurité électorale, le bloc s’attend à ce que les géants de la technologie réglementés intensifient leur action en matière de protection des votes démocratiques et déploient des ressources de modération de contenu performantes dans les multiples langues officielles parlées à travers le bloc, en s’assurant qu’ils disposent de suffisamment de personnel pour répondre efficacement aux risques qui en découlent. du flux d’informations sur leurs plateformes et agir sur les rapports des vérificateurs de faits tiers – avec le risque de lourdes amendes pour avoir laissé tomber la balle.

Cela nécessitera que les plateformes parviennent à un équilibre précis en matière de modération du contenu politique – sans se laisser distancer par leur capacité à faire la distinction, par exemple, entre la satire politique, qui devrait rester en ligne au titre de la liberté d’expression protégée, et la désinformation politique malveillante, dont les créateurs pourraient espérer pour influencer les électeurs et fausser les élections.

Dans ce dernier cas, le contenu relève de la catégorisation DSA de risque systémique que les plateformes sont censées détecter et atténuer rapidement. La norme de l’UE exige ici qu’ils mettent en place des mesures d’atténuation « raisonnables, proportionnées et efficaces » pour les risques liés aux processus électoraux, ainsi que le respect d’autres dispositions pertinentes de la vaste réglementation sur la modération des contenus et la gouvernance.

La Commission a travaillé à un rythme soutenu sur les lignes directrices électorales, lançant une consultation sur un projet de version le mois dernier. Le sentiment d’urgence à Bruxelles découle des prochaines élections au Parlement européen en juin. Les responsables ont déclaré qu’ils testeraient l’état de préparation des plateformes le mois prochain. L’UE ne semble donc pas prête à laisser le respect des plateformes au hasard, même avec une législation stricte qui signifie que les géants de la technologie risquent de lourdes amendes s’ils ne répondent pas cette fois-ci aux attentes de la Commission.

Contrôles utilisateur pour les flux algorithmiques

Parmi les orientations électorales de l’UE destinées aux grandes entreprises de médias sociaux et à d’autres grandes plateformes, il y a la nécessité de donner à leurs utilisateurs un choix significatif par rapport aux systèmes de recommandation algorithmiques et basés sur l’IA, afin qu’ils puissent exercer un certain contrôle sur le type de contenu qu’ils voient. .

« Les systèmes de recommandation peuvent jouer un rôle important dans l’évolution du paysage de l’information et de l’opinion publique », note le document d’orientation. « Pour atténuer le risque que de tels systèmes peuvent poser en ce qui concerne les processus électoraux, [platform] les fournisseurs… devraient envisager : (i.) Veiller à ce que les systèmes de recommandation soient conçus et ajustés de manière à donner aux utilisateurs des choix et des contrôles significatifs sur leurs flux, en tenant dûment compte de la diversité et du pluralisme des médias.

Les systèmes de recommandation des plateformes devraient également comporter des mesures visant à déclasser la désinformation ciblée sur les élections, sur la base de ce que les lignes directrices qualifient de « méthodes claires et transparentes », comme les contenus trompeurs dont les faits ont été vérifiés comme étant faux et/ou les publications provenant de comptes trouvés à plusieurs reprises comme étant faux. propager la désinformation.

Les plateformes doivent également déployer des mesures d’atténuation pour éviter le risque que leurs systèmes de recommandation ne propagent de la désinformation générative basée sur l’IA (c’est-à-dire des deepfakes politiques). Ils devraient également évaluer de manière proactive leurs moteurs de recommandation pour détecter les risques liés aux processus électoraux et déployer des mises à jour pour réduire les risques. L’UE recommande également la transparence dans la conception et le fonctionnement des flux basés sur l’IA et exhorte les plateformes à procéder à des tests contradictoires, à des équipes rouges, etc., afin d’accroître leur capacité à détecter et à éliminer les risques.

Concernant GenAI, l’avis de l’UE recommande également le filigrane des supports synthétiques – tout en notant ici les limites de la faisabilité technique.

Les mesures d’atténuation recommandées et les meilleures pratiques pour les grandes plateformes dans les 25 pages du projet de lignes directrices publié aujourd’hui prévoient également que les plateformes mobiliseront des ressources internes pour se concentrer sur des menaces électorales spécifiques, comme autour des événements électoraux à venir, et mettront en place des processus pour partager des informations pertinentes et une analyse des risques.

Les ressources doivent avoir une expertise locale

Les orientations soulignent la nécessité d’une analyse des « risques spécifiques au contexte local », en plus de la collecte d’informations spécifiques aux États membres/nationales et régionales pour alimenter le travail des entités responsables de la conception et de l’étalonnage des mesures d’atténuation des risques. Et pour des « ressources adéquates de modération de contenu », avec une capacité en langue locale et une connaissance des contextes et spécificités nationaux et/ou régionaux – un reproche de longue date de l’UE lorsqu’il s’agit des efforts des plateformes pour réduire les risques de désinformation.

Une autre recommandation est qu’ils renforcent les processus et les ressources internes autour de chaque élection en mettant en place « une équipe interne dédiée et clairement identifiable » avant la période électorale – avec des ressources proportionnelles aux risques identifiés pour l’élection en question.

Les orientations de l’UE recommandent également explicitement d’embaucher du personnel possédant une expertise locale, y compris des connaissances linguistiques. Les plateformes ont souvent cherché à réutiliser une ressource centralisée, sans toujours rechercher une expertise locale dédiée.

« L’équipe doit couvrir toutes les expertises pertinentes, y compris dans des domaines tels que la modération du contenu, la vérification des faits, la perturbation des menaces, les menaces hybrides, la cybersécurité, la désinformation et le FIMI. [foreign information manipulation and interference]les droits fondamentaux et la participation du public et coopérer avec des experts externes concernés, par exemple avec les pôles de l’Observatoire européen des médias numériques (EDMO) et des organisations indépendantes de vérification des faits », écrit également l’UE.

Les directives permettent aux plateformes d’augmenter potentiellement leurs ressources autour d’événements électoraux particuliers et de démobiliser les équipes une fois le vote terminé.

Il note que les périodes pendant lesquelles des mesures supplémentaires d’atténuation des risques peuvent être nécessaires sont susceptibles de varier, en fonction du niveau de risques et des règles spécifiques des États membres de l’UE en matière d’élections (qui peuvent varier). Mais la Commission recommande que les plateformes disposent de mesures d’atténuation déployées et opérationnelles au moins un à six mois avant une période électorale, et qu’elles continuent au moins un mois après les élections.

Sans surprise, les mesures d’atténuation les plus intenses devraient être prises au cours de la période précédant la date des élections, afin de faire face à des risques tels que la désinformation ciblant les procédures de vote.

Discours de haine dans le cadre

L’UE conseille généralement aux plateformes de s’appuyer sur d’autres lignes directrices existantes, notamment le Code de bonnes pratiques en matière de désinformation et le Code de conduite pour lutter contre le discours de haine, afin d’identifier les meilleures pratiques en matière de mesures d’atténuation. Mais il stipule qu’ils doivent garantir que les utilisateurs aient accès aux informations officielles sur les processus électoraux, telles que des bannières, des liens et des fenêtres contextuelles conçues pour diriger les utilisateurs vers des sources d’informations faisant autorité sur les élections.

« Lors de l’atténuation des risques systémiques pour l’intégrité électorale, la Commission recommande qu’il soit également dûment tenu compte de l’impact des mesures visant à lutter contre les contenus illégaux tels que l’incitation publique à la violence et à la haine, dans la mesure où ces contenus illégaux peuvent inhiber ou faire taire les voix dans le système démocratique. débat, en particulier ceux qui représentent les groupes vulnérables ou les minorités », écrit la Commission.

« Par exemple, les formes de racisme, de désinformation sexiste et de violence sexiste en ligne, y compris dans le contexte d’une idéologie extrémiste violente ou terroriste ou d’un FIMI ciblant la communauté LGBTIQ+, peuvent nuire au dialogue et au débat ouverts et démocratiques, et accroître encore davantage la division et la polarisation sociales. À cet égard, le Code de conduite relatif à la lutte contre les discours haineux illégaux en ligne peut servir de source d’inspiration pour envisager des mesures appropriées.»

Il leur recommande également de mener des campagnes d’éducation aux médias et de déployer des mesures visant à fournir aux utilisateurs des informations plus contextuelles, telles que des étiquettes de vérification des faits ; des invites et des coups de coude ; des indications claires sur les comptes officiels ; un étiquetage clair et non trompeur des comptes gérés par des États membres, des pays tiers et des entités contrôlées ou financées par des pays tiers ; des outils et des informations pour aider les utilisateurs à évaluer la fiabilité des sources d’information ; outils pour évaluer la provenance; et établir des processus pour contrer l’utilisation abusive de l’une de ces procédures et outils – qui se lit comme une liste de choses qu’Elon Musk a démantelées depuis qu’il a pris le contrôle de Twitter (maintenant X).

Notamment, Musk a également été accusé d’avoir laissé fleurir des discours de haine sur la plateforme sous sa surveillance. Et au moment de la rédaction de cet article, X fait toujours l’objet d’une enquête de la part de l’UE pour une série de violations présumées de la DSA, notamment en ce qui concerne les exigences de modération du contenu.

La transparence pour renforcer la responsabilité

Concernant la publicité politique, les lignes directrices orientent les plateformes vers les nouvelles règles de transparence dans ce domaine, les conseillant de se préparer à la réglementation juridiquement contraignante en prenant dès maintenant des mesures pour s’aligner sur les exigences. (Par exemple, en étiquetant clairement les publicités politiques, en fournissant des informations sur le sponsor derrière ces messages politiques payants, en maintenant un référentiel public de publicités politiques et en mettant en place des systèmes pour vérifier l’identité des annonceurs politiques.)

Ailleurs, les orientations expliquent également comment gérer les risques électoraux liés aux influenceurs.

Les plateformes devraient également disposer de systèmes leur permettant de démonétiser la désinformation, conformément aux directives, et sont invitées à fournir un accès aux données « stables et fiables » aux tiers entreprenant un examen et des recherches sur les risques électoraux. L’accès aux données pour étudier les risques électoraux devrait également être assuré gratuitement, précise l’avis.

Plus généralement, les orientations encouragent les plateformes à coopérer avec les organismes de contrôle, les experts de la société civile et entre elles lorsqu’il s’agit de partager des informations sur les risques liés à la sécurité des élections – en les invitant à établir des canaux de communication pour obtenir des conseils et signaler les risques pendant les élections.

Pour gérer les incidents à haut risque, l’avis recommande aux plateformes d’établir un mécanisme interne de réponse aux incidents qui implique la haute direction et cartographie les autres parties prenantes concernées au sein de l’organisation afin de responsabiliser autour de leurs réponses aux événements électoraux et d’éviter le risque de rejet de la responsabilité.

Après les élections, l’UE suggère aux plateformes de réaliser et de publier une évaluation de leurs résultats, en tenant compte des évaluations de tiers (c’est-à-dire, plutôt que de simplement chercher à évaluer leurs propres devoirs, comme elles l’ont toujours préféré, en essayant de mettre un glossaire de relations publiques au sommet). risques manipulés en cours par la plateforme).

Les lignes directrices en matière de sécurité électorale ne sont pas obligatoires en tant que telles, mais si les plateformes optent pour une approche autre que celle recommandée pour lutter contre les menaces dans ce domaine, elles doivent être en mesure de démontrer que leur approche alternative répond aux normes du bloc, selon la Commission.

S’ils ne le font pas, ils risquent d’être reconnus coupables d’une infraction à la DSA, qui prévoit des pénalités pouvant aller jusqu’à 6 % du chiffre d’affaires annuel mondial pour les violations confirmées. Les plateformes sont donc incitées à adhérer au programme du bloc visant à accroître les ressources pour lutter contre la désinformation politique et d’autres risques liés à l’information lors des élections, afin de réduire leur risque réglementaire. Mais ils devront quand même mettre en œuvre les conseils.

D’autres recommandations spécifiques pour les prochaines élections au Parlement européen, qui se dérouleront du 6 au 9 juin, sont également présentées dans les orientations de l’UE.

Sur le plan technique, les lignes directrices en matière de sécurité électorale restent à l’état de projet à ce stade. Mais la Commission a déclaré que l’adoption formelle est attendue en avril, une fois que toutes les versions linguistiques des orientations seront disponibles.

Source-146

- Advertisement -

Latest