La « personnalisation » controversée des grandes technologies suscite un nouvel appel pour que les flux de contenu basés sur le profilage soient désactivés par défaut dans l’UE

Un autre bras de fer politique pourrait émerger autour des systèmes de recommandation de contenu des grandes technologies dans l’Union européenne, où la Commission est confrontée à un appel d’un certain nombre de parlementaires à freiner les flux de contenu basés sur le profilage – c’est-à-dire les moteurs de « personnalisation » qui traitent les données des utilisateurs. afin de déterminer quel contenu leur montrer.

Le suivi et le profilage des utilisateurs par les plateformes grand public pour alimenter des flux de contenu « personnalisés » suscitent depuis longtemps des inquiétudes quant aux préjudices potentiels pour les individus et les sociétés démocratiques, les critiques suggérant que cette technologie favorise la dépendance aux médias sociaux et présente des risques pour la santé mentale des personnes vulnérables. Certains craignent également que la technologie ne sape la cohésion sociale en canalisant leur indignation et leur colère.

Le lettre, signé par 17 députés européens issus de groupes politiques dont le S&D, la gauche, les Verts, le PPE et Renew Europe, plaide pour que les systèmes de recommandation des plateformes technologiques soient désactivés par défaut – une idée qui a été lancée lors des négociations sur la loi sur les services numériques (DSA) du bloc. ) mais qui n’a pas été retenu dans le règlement final car il ne disposait pas d’une majorité démocratique. Au lieu de cela, les législateurs européens ont accepté des mesures de transparence pour les systèmes de recommandation, ainsi que l’exigence selon laquelle les grandes plates-formes (appelées VLOP) doivent fournir au moins un flux de contenu qui n’est pas basé sur le profilage.

Mais dans leur lettre, les députés demandent une suppression totale de cette technologie. « Les systèmes de recommandation basés sur l’interaction, en particulier les systèmes hyper-personnalisés, constituent une menace sérieuse pour nos citoyens et notre société dans son ensemble, car ils donnent la priorité aux contenus émotifs et extrêmes, ciblant spécifiquement les individus susceptibles d’être provoqués », écrivent-ils.

« Le cycle insidieux expose les utilisateurs à des contenus sensationnalistes et dangereux, prolongeant leur engagement sur la plateforme pour maximiser les revenus publicitaires. L’expérience d’Amnesty sur TikTok a révélé que l’algorithme exposait un jeune de 13 ans simulé à des vidéos glorifiant le suicide en seulement une heure. De plus, les recherches internes de Meta ont révélé que 64 % des adhésions à des groupes extrémistes résultent de leurs outils de recommandation, exacerbant ainsi la propagation des idéologies extrémistes.

L’appel fait suite au projet de directives de sécurité en ligne pour les plateformes de partage de vidéos, publié plus tôt ce mois-ci par la commission irlandaise des médias (Coimisiún na Meán) – qui sera responsable de la surveillance DSA au niveau local une fois que la réglementation deviendra applicable aux services concernés en février prochain. Coimisiún na Meán mène actuellement une consultation sur des orientations proposant que les plateformes de partage de vidéos prennent « des mesures pour garantir que les algorithmes de recommandation basés sur le profilage soient désactivés par défaut ».

La publication de ces directives fait suite à un épisode de violents troubles civiques à Dublin qui, selon les autorités policières du pays, ont été attisés par la désinformation diffusée sur les réseaux sociaux et les applications de messagerie par des « hooligans » d’extrême droite. Et, plus tôt cette semaine, le Conseil irlandais pour les libertés civiles (ICCL) — qui fait campagne depuis longtemps sur les questions de droits numériques — a également appelé la Commission à soutenir la proposition de la Coimisiún na Meán, et a également publié son propre rapport plaidant pour des flux personnalisés pour être désactivé par défaut car il soutient que les algorithmes des médias sociaux déchirent les sociétés.

Dans leur lettre, les députés s’appuient également sur la proposition du régulateur irlandais des médias, suggérant qu’elle permettrait de résoudre « efficacement » les problèmes liés aux systèmes de recommandation qui ont tendance à promouvoir des « contenus émotifs et extrêmes » qui, selon eux, peuvent nuire à la cohésion civique.

La lettre fait également référence à un rapport récemment adopté par le Parlement européen sur la conception addictive des services en ligne et la protection des consommateurs qui, selon eux, « a mis en évidence l’impact néfaste des systèmes de recommandation sur les services en ligne qui s’engagent dans le profilage des individus, en particulier des mineurs, dans le but de garder les utilisateurs sur la plateforme le plus longtemps possible, les manipulant ainsi par l’amplification artificielle de la haine, du suicide, de l’automutilation et de la désinformation ».

« Nous appelons la Commission européenne à suivre l’exemple de l’Irlande et à prendre des mesures décisives en approuvant non seulement cette mesure dans le cadre du TRIS [Technical Regulations Information System] procédure mais aussi en préconisant cette mesure comme mesure d’atténuation à prendre par les Très Grandes Plateformes en Ligne [VLOPs] conformément à l’article 35, paragraphe 1, point c), de la loi sur les services numériques, afin de garantir aux citoyens un contrôle significatif sur leurs données et leur environnement en ligne », écrivent les députés, ajoutant : « La protection de nos citoyens, en particulier de la jeune génération, est de la plus haute importance. importance, et nous pensons que la Commission européenne a un rôle crucial à jouer pour garantir un environnement numérique sûr pour tous. Nous attendons avec impatience votre action rapide et décisive sur cette question.

Dans le cadre du TRIS, les États membres de l’UE sont tenus de notifier à la Commission les projets de réglementations techniques avant qu’ils ne soient adoptés en tant que législation nationale afin que l’UE puisse procéder à un examen juridique pour garantir que les propositions sont conformes aux règles du bloc – dans ce cas, le DSA. .

Ce système signifie que les lois nationales qui cherchent à « dorer » les réglementations européennes risquent d’échouer à l’examen. Ainsi, la proposition de la commission irlandaise des médias visant à désactiver par défaut les systèmes de recommandation des plateformes vidéo pourrait ne pas survivre au processus TRIS, étant donné qu’elle semble aller plus loin que la lettre de la loi pertinente.

Cela dit, même si la proposition de la Coimisiún na Meán ne passe pas l’examen de cohérence juridique de l’UE, la DSA impose aux plates-formes plus grandes (alias VLOPS) l’obligation d’évaluer et d’atténuer les risques découlant des systèmes de recommandation. C’est donc au moins possible les plateformes pourraient décider de désactiver elles-mêmes ces systèmes par défaut à titre de mesure de conformité pour répondre à leurs obligations d’atténuation du risque systémique DSA.

Bien qu’aucune de ces plateformes financées par la publicité et axées sur l’engagement ne choisisse clairement ce pas comme valeur commerciale par défaut, aucune n’est encore allée aussi loin.

La Commission a refusé de commenter publiquement la lettre des députés européens (ou le rapport de l’ICCL) lorsque nous lui avons demandé. Au lieu de cela, un porte-parole a souligné ce qu’il a décrit comme des obligations « claires » sur les systèmes de recommandation des VLOP, énoncées à l’article 38 du DSA – qui exige que les plateformes fournissent au moins une option pour chacun de ces systèmes qui n’est pas basée sur le profilage. Mais nous avons pu aborder le débat sur les flux de profilage avec un responsable européen qui s’exprimait en coulisses afin de pouvoir parler plus librement.

Ils ont convenu que les plateformes pourraient choisir de désactiver par défaut les systèmes de recommandation basés sur le profilage dans le cadre de leur conformité à l’atténuation des risques systémiques DSA, mais ont confirmé qu’aucune n’était encore allée aussi loin de sa propre initiative.

Jusqu’à présent, nous n’avons vu que des cas où des flux sans profilage ont été mis à la disposition des utilisateurs en option – comme par TikTok et Instagram – afin de répondre à l’exigence DSA susmentionnée (article 38) pour offrir aux utilisateurs le choix d’éviter. ce genre de personnalisation du contenu. Cependant, cela nécessite une désinscription active de la part des utilisateurs – alors que le fait de définir par défaut des flux sans profilage constituerait clairement un type de réglementation du contenu plus strict, car il ne nécessiterait aucune action de l’utilisateur pour prendre effet.

Le responsable de l’UE avec qui nous avons parlé a confirmé que la Commission étudiait les systèmes de recommandation en sa qualité de chargé de l’application du DSA sur les VLOP – notamment via la procédure formelle qui a été ouverte le X plus tôt cette semaine. Les systèmes de recommandation ont également été au centre de certaines des demandes formelles d’informations que la Commission a envoyées aux VLOP, dont une sur Instagram axée sur les risques pour la sécurité des enfants, nous ont-ils dit. Et ils ont convenu que l’UE pourrait forcer les grandes plateformes à désactiver par défaut les flux personnalisés dans son rôle de contrôleur, c’est-à-dire en utilisant les pouvoirs dont elle dispose pour faire respecter la loi.

Mais ils ont suggéré que la Commission ne prendrait une telle mesure que si elle estimait qu’elle serait efficace pour atténuer des risques spécifiques. Le responsable a souligné qu’il existe plusieurs types de flux de contenu basés sur le profilage, même par plate-forme, et a souligné la nécessité de considérer chacun dans son contexte. Plus généralement, ils ont plaidé pour une « nuance » dans le débat autour des risques des systèmes de recommandation.

L’approche de la Commission consistera ici à entreprendre des évaluations des préoccupations au cas par cas, ont-ils suggéré – en plaidant en faveur d’interventions politiques fondées sur des données sur les VLOP, plutôt que de mesures générales. Après tout, il s’agit d’un ensemble de plates-formes suffisamment diversifiées pour englober les géants du partage de vidéos et des médias sociaux, mais également les services de vente au détail et d’information – et (plus récemment) les sites pornographiques. Le risque que les décisions d’exécution ne soient pas contestées en justice en l’absence de preuves solides pour les étayer est clairement une préoccupation de la Commission.

Le responsable a également fait valoir qu’il était nécessaire de recueillir davantage de données pour comprendre même les facettes fondamentales pertinentes au débat sur les systèmes de recommandation, par exemple si la personnalisation désactivée par défaut serait efficace en tant que mesure d’atténuation des risques. Les aspects comportementaux nécessitent également une étude plus approfondie, ont-ils suggéré.

Les enfants en particulier peuvent être très motivés pour contourner une telle limitation en inversant simplement le paramètre, ont-ils soutenu, comme les enfants se sont montrés capables de le faire lorsqu’il s’agit d’échapper au contrôle parental – affirmant qu’il n’est pas clair que la désactivation par défaut des systèmes de recommandation basés sur le profilage le ferait. être réellement efficace en tant que mesure de protection de l’enfance.

Dans l’ensemble, le message de notre source européenne était un plaidoyer pour que le règlement – ​​et la Commission – aient le temps de travailler. Le DSA n’est entré en vigueur sur la première série de VLOP que vers la fin août. Cette semaine encore, nous avons assisté à l’ouverture de la première enquête formelle (sur X), qui comprend un composant de système de recommandation (lié aux préoccupations concernant le système de modération de contenu participatif de X, connu sous le nom de Notes de la communauté).

Nous avons également assisté à une vague de demandes formelles d’informations sur les plateformes ces dernières semaines, après qu’elles ont soumis leur première série de rapports d’évaluation des risques – ce qui indique que la Commission n’est pas satisfaite du niveau de détail fourni jusqu’à présent. Cela implique que des mesures plus fermes pourraient bientôt suivre à mesure que l’UE s’installe dans son nouveau rôle de shérif régional de l’Internet. En fin de compte, 2024 s’annonce comme une année importante pour la réponse politique du bloc visant à s’attaquer aux grandes technologies. Et pour évaluer si l’application de la loi par l’UE produit les résultats dont les défenseurs des droits numériques aspirent.

« Ce sont des questions sur lesquelles nous remettons en question les plateformes dans le cadre de nos pouvoirs légaux – mais l’algorithme d’Instagram est différent de celui de X, il est différent de celui de TikTok – nous devrons être nuancés sur ce point », nous a dit le responsable, suggérant que l’approche de la Commission va changer. une mosaïque d’interventions, qui pourraient inclure l’imposition de différents paramètres par défaut pour les VLOP, en fonction des contextes et des risques dans les différents flux. « Nous préférerions adopter une approche qui prenne réellement en compte à chaque fois les spécificités des plateformes. »

« Nous commençons maintenant cette mesure coercitive. Et c’est en fait une raison de plus pour ne pas diluer notre énergie dans des cadres juridiques concurrents ou quelque chose du genre », ont-ils ajouté, appelant les défenseurs des droits numériques à adhérer au programme de la Commission. « Je préférerais que nous travaillions dans le cadre du DSA – qui peut résoudre les problèmes qui [the MEPs’ letter and ICCL report] augmente les systèmes de recommandation et amplifie les contenus illégaux.

Source-146