Meta fait face à davantage de questions en Europe sur les risques pour la sécurité des enfants sur Instagram

Meta a reçu une autre demande formelle d’informations (RFI) de la part des régulateurs de l’Union européenne demandant plus de détails sur sa réponse aux problèmes de sécurité des enfants sur Instagram – y compris ce qu’elle fait pour lutter contre les risques liés au partage de matériel d’abus sexuel d’enfants auto-généré (SG- CSAM) sur le réseau social.

La demande est faite dans le cadre du règlement en ligne récemment redémarré du bloc, le Digital Services Act (DSA), qui a commencé à s’appliquer aux plates-formes de plus grande envergure (y compris Instagram) fin août.

Le DSA impose aux Big Tech l’obligation de lutter contre les contenus illégaux, notamment en mettant en place des mesures et des protections pour empêcher toute utilisation abusive de leurs services. Le règlement met également fortement l’accent sur la protection des mineurs. Il n’est donc pas surprenant de voir un certain nombre de premières demandes d’informations émises par la Commission européenne concernant la sécurité des enfants.

La dernière demande de la Commission adressée à Meta fait suite à un rapport du WSJ suggérant qu’Instagram a du mal à résoudre un problème CSAM exposé cet été – lorsqu’il a signalé que les algorithmes d’Instagram connectaient un réseau de comptes utilisés pour créer des comptes. , acheter et échanger du contenu sexuel avec des mineurs.

En juin, suite à l’exposé du WSJ, l’UE a averti Meta qu’elle s’exposerait à un risque de « lourdes sanctions » si elle n’agissait pas rapidement pour résoudre les problèmes de protection de l’enfance.

Aujourd’hui, quelques mois plus tard, un autre rapport du WSJ affirme que Meta n’a pas réussi à résoudre les problèmes identifiés – malgré la mise en place par l’entreprise d’un groupe de travail sur la sécurité des enfants pour tenter d’empêcher « ses propres systèmes d’activer et même de promouvoir un vaste réseau de comptes pédophiles ». , comme le dit le journal.

« Cinq mois plus tard, des tests effectués par le Journal ainsi que par le Centre canadien de protection de l’enfance démontrent que les systèmes de recommandation de Meta font toujours la promotion de tels contenus. [i.e. accounts dedicated to producing and sharing underage-sex content]», rapporte-t-il. « L’entreprise a supprimé les hashtags liés à la pédophilie, mais ses systèmes en recommandent parfois de nouveaux avec des variantes mineures. Même lorsque Meta est alerté des comptes et des groupes d’utilisateurs problématiques, il n’a pas réussi à les supprimer.

Les performances inégales de Meta dans la lutte contre le partage illégal de CSAM/SG-CSAM et l’incapacité d’agir efficacement face aux risques associés pour la sécurité des enfants pourraient coûter très cher à l’entreprise dans l’UE : la DSA habilite la Commission à infliger des amendes allant jusqu’à 6 % du montant des amendes. chiffre d’affaires annuel global s’il constate que les règles de la réglementation ont été enfreintes.

Il y a un peu plus d’un an, Meta avait déjà été condamnée à une amende inférieure à un demi-milliard de dollars après qu’Instagram ait violé les règles européennes de protection des données sur les mineurs.

« La Commission demande à Meta de fournir des informations supplémentaires sur les mesures qu’elle a prises pour se conformer à ses obligations d’évaluation des risques et de prendre des mesures d’atténuation efficaces liées à la protection des mineurs, y compris en ce qui concerne la diffusion de SG-CSAM sur Instagram. Des informations sont également demandées sur le système de recommandation d’Instagram et l’amplification de contenus potentiellement dangereux », a écrit aujourd’hui l’UE dans un communiqué de presse, annonçant sa dernière étape de collecte d’informations sur la plateforme.

Outre la possibilité de sanctions financières, la réputation de Meta pourrait être menacée si les régulateurs européens remettaient en question à plusieurs reprises son approche en matière de protection des mineurs.

Il s’agit de la troisième RFI que Meta reçoit depuis que la conformité DSA a commencé à s’appliquer à l’entreprise – et la deuxième à se concentrer sur la sécurité des enfants sur Instagram. (L’UE a également demandé à Meta plus de détails sur sa gestion des risques liés au contenu liés à la guerre entre Israël et le Hamas ; et sur ce qu’elle fait pour garantir la sécurité des élections.)

Jusqu’à présent, l’UE n’a annoncé aucune procédure d’enquête formelle au titre du DSA. Mais la première vague de demandes d’informations montre que l’entreprise est en train de procéder à des évaluations qui pourraient conduire à une telle mesure, ouvrant ainsi la voie à des sanctions ultérieures si des violations étaient confirmées.

Meta a reçu jusqu’au 22 décembre pour fournir à la Commission la dernière tranche de données demandées sur la sécurité des enfants. Le non-respect des RFI – par exemple en envoyant des informations incorrectes, incomplètes ou trompeuses en réponse à une demande – peut également entraîner des sanctions DSA.

Meta a été contacté pour commenter la dernière RFI.

Source-146