TikTok condamné à une amende en Italie après que la contestation de la « cicatrice française » ait conduit à une enquête sur la sécurité des consommateurs

L’autorité italienne de la concurrence et de la consommation, l’AGCM, a infligé à TikTok une amende de 10 millions d’euros (près de 11 millions de dollars) à la suite d’une enquête sur des problèmes de sécurité algorithmique.

L’autorité a ouvert l’année dernière une enquête sur un défi de « cicatrice française » dans lequel des utilisateurs de la plateforme auraient partagé des vidéos de marques sur leur visage faites en se pinçant la peau.

Dans un communiqué de presse jeudi, l’AGCM a déclaré que trois sociétés régionales du groupe ByteDance, TikTok Technology Limited, basée en Irlande, TikTok Information Technologies UK Limited et TikTok Italy Srl, avaient été sanctionnées pour ce qu’elle a résumé comme une « pratique commerciale déloyale ».

« L’entreprise n’a pas réussi à mettre en place des mécanismes appropriés pour surveiller les contenus publiés sur la plateforme, notamment ceux susceptibles de menacer la sécurité des mineurs et des personnes vulnérables. De plus, ces contenus sont systématiquement reproposés aux utilisateurs du fait de leur profilage algorithmique, stimulant une utilisation toujours croissante du réseau social », écrit l’AGCM.

L’autorité a indiqué que son enquête avait confirmé la responsabilité de TikTok dans la diffusion de contenus « susceptibles de menacer la sécurité psycho-physique des utilisateurs, surtout s’ils sont mineurs et vulnérables », comme des vidéos liées au défi « Cicatrice française ». Il a également constaté que la plateforme n’avait pas pris les mesures adéquates pour empêcher la diffusion de tels contenus et a déclaré qu’elle ne se conformait pas pleinement aux directives de sa propre plateforme.

L’AGCM a également critiqué la façon dont TikTok applique les lignes directrices – qui, selon elle, sont appliquées « sans tenir compte de manière adéquate de la vulnérabilité spécifique des adolescents ». Il a souligné, par exemple, que le cerveau des adolescents est encore en développement et que les jeunes peuvent être particulièrement à risque car ils peuvent être sujets à la pression de leurs pairs pour imiter le comportement de groupe afin d’essayer de s’intégrer socialement.

Les remarques de l’autorité soulignent particulièrement le rôle du système de recommandation de TikTok dans la diffusion de contenus « potentiellement dangereux », soulignant l’incitation de la plateforme à stimuler l’engagement et à augmenter les interactions des utilisateurs et le temps passé sur le service pour augmenter les revenus publicitaires. Le système alimente les flux « Pour vous » et « Suivi » de TikTok et est, par défaut, basé sur le profilage algorithmique des utilisateurs, suivant leur activité numérique pour déterminer le contenu à leur montrer.

« Cela provoque un conditionnement excessif des utilisateurs qui sont incités à utiliser de plus en plus la plateforme », a suggéré l’AGCM dans une autre remarque qui se distingue par sa critique de l’engagement motivé par les flux de contenu basés sur le profilage.

Nous avons contacté l’autorité avec des questions. Mais son évaluation négative des risques du profilage algorithmique semble intéressante à la lumière des appels renouvelés de certains législateurs européens en faveur de la désactivation par défaut des flux de contenu basés sur le profilage.

Des groupes de la société civile, tels que l’ICCL, soutiennent également que cela fermerait le robinet d’indignation que les plateformes de médias sociaux financées par la publicité monétisent grâce à des systèmes de recommandation axés sur l’engagement, qui ont pour effet secondaire d’amplifier la division et de saper la cohésion sociétale dans un but lucratif.

TikTok conteste la décision de l’AGCM de prononcer une sanction.

Dans un communiqué, la plateforme a cherché à minimiser son évaluation des risques algorithmiques posés aux mineurs et aux personnes vulnérables en décrivant l’intervention comme étant liée à un seul défi controversé mais à petite échelle. Voici ce que TikTok nous a dit :

Nous ne sommes pas d’accord avec cette décision. Le contenu dit « French Scar » faisait en moyenne seulement 100 recherches quotidiennes en Italie avant l’annonce de l’AGCM l’année dernière, et nous avons depuis longtemps limité la visibilité de ce contenu aux U18, et l’avons également rendu inéligible au flux For You.

Alors que l’application italienne est limitée à un État membre de l’UE, la Commission européenne est chargée de superviser le respect par TikTok des dispositions en matière de responsabilité algorithmique et de transparence de la loi paneuropéenne sur les services numériques (DSA) – où les sanctions en cas de non-conformité peuvent aller jusqu’à 6 % de la loi. chiffre d’affaires annuel global. TikTok a été désignée comme une très grande plate-forme dans le cadre du DSA en avril de l’année dernière, et sa conformité est attendue d’ici la fin de l’été.

Un changement notable résultant du DSA est que TikTok propose aux utilisateurs des flux sans profilage. Cependant, ces flux alternatifs sont désactivés par défaut, ce qui signifie que les utilisateurs restent soumis au suivi et au profilage basés sur l’IA à moins qu’ils ne prennent eux-mêmes des mesures pour les désactiver.

Le mois dernier, l’UE a ouvert une enquête formelle sur TikTok, citant parmi ses domaines d’intérêt les conceptions addictives, les contenus préjudiciables et la protection des mineurs. Cette procédure reste en cours.

TikTok a déclaré qu’elle attendait avec impatience l’opportunité de fournir à la Commission une explication détaillée de son approche en matière de protection des mineurs.

Cependant, l’entreprise a eu un certain nombre de démêlés avec les autorités régionales préoccupées par la sécurité des enfants ces dernières années, notamment une intervention de l’autorité italienne de protection des données en matière de protection des enfants ; une amende de 345 millions d’euros l’automne dernier pour des manquements à la protection des données concernant également des mineurs ; et des plaintes de longue date émanant de groupes de protection des consommateurs qui s’inquiètent de la sécurité mineure et du profilage.

TikTok est également confronté à la possibilité d’une réglementation accrue par les agences au niveau des États membres appliquant la directive européenne sur les services de médias audiovisuels. Comme l’Irlande Coimisiún na Meán, qui envisage d’appliquer aux plateformes de partage de vidéos des règles qui exigeraient que les algorithmes de recommandation basés sur le profilage soient désactivés par défaut.

La situation n’est pas plus brillante non plus pour la plateforme aux États-Unis, puisque les législateurs viennent de proposer un projet de loi visant à interdire TikTok à moins qu’il ne rompe les liens avec la société mère chinoise ByteDance, invoquant la sécurité nationale et le potentiel de suivi et de profilage des utilisateurs de la plateforme. une voie permettant à un gouvernement étranger de manipuler les Américains.

Source-146