L’UE enquête sur Meta pour des problèmes de dépendance et de sécurité des mineurs

Meta est de retour dans l’eau chaude pour ses méthodes (ou son absence) de protection des enfants. La Commission européenne a lancé une procédure formelle pour déterminer si le propriétaire de Facebook et d’Instagram a violé la loi sur les services numériques (DSA) en contribuant à la dépendance des enfants aux médias sociaux et en ne garantissant pas qu’ils bénéficient de niveaux élevés de sécurité et de confidentialité.

L’enquête de la Commission examinera spécifiquement si Meta évalue et agit correctement contre les risques induits par les interfaces de ses plateformes. Elle s’inquiète de la manière dont leurs conceptions pourraient « exploiter les faiblesses et l’inexpérience des mineurs et provoquer des comportements addictifs, et/ou renforcer ce que l’on appelle l’effet ‘trou du lapin’. Une telle évaluation est nécessaire pour contrer les risques potentiels pour l’exercice du droit fondamental à au bien-être physique et mental des enfants ainsi qu’au respect de leurs droits.

La procédure examinera également si Meta prend les mesures nécessaires pour empêcher les mineurs d’accéder à des contenus inappropriés, dispose d’outils efficaces de vérification de l’âge et si les mineurs disposent d’outils de confidentialité simples et solides, tels que les paramètres par défaut.

Le DSA établit des normes pour les très grandes plateformes en ligne et moteurs de recherche (ceux comptant 45 millions d’utilisateurs mensuels ou plus dans l’UE) comme Meta. Les obligations des entreprises désignées incluent la transparence sur les décisions en matière de publicité et de modération de contenu, le partage de leurs données avec la Commission et l’examen des risques que posent leurs systèmes dans des domaines tels que la violence sexiste, la santé mentale et la protection des mineurs.

Meta a répondu à la procédure formelle en soulignant des fonctionnalités telles que les paramètres de surveillance parentale, le mode silencieux et la restriction automatique du contenu destiné aux adolescents. « Nous souhaitons que les jeunes bénéficient d’expériences en ligne sûres et adaptées à leur âge et nous avons passé une décennie à développer plus de 50 outils et politiques conçus pour les protéger. Il s’agit d’un défi auquel l’ensemble du secteur est confronté, et nous sommes impatients de partager les détails de notre travailler avec la Commission européenne », a déclaré un porte-parole de Meta. Engadget.

Cependant, Meta n’a toujours pas donné la priorité à la sécurité des jeunes. Des incidents alarmants précédents incluent l’algorithme d’Instagram suggérant des contenus mettant en scène l’exploitation sexuelle d’enfants et affirmant qu’il conçoit ses plateformes pour créer une dépendance chez les jeunes tout en suggérant des contenus psychologiquement nocifs, tels que la promotion de troubles de l’alimentation et de dysmorphie corporelle.

Meta a également servi de plaque tournante de désinformation pour les personnes de tous âges. La Commission a déjà lancé une procédure formelle contre l’entreprise le 30 avril en raison de préoccupations concernant la publicité trompeuse, l’accès aux données pour les chercheurs et l’absence d’un « outil tiers efficace de discours civique et de surveillance des élections en temps réel » avant les élections au Parlement européen de juin. entre autres préoccupations. Plus tôt cette année, Meta a annoncé que CrowdTangle, qui a montré publiquement comment les fausses nouvelles et les théories du complot circulent sur Facebook et Instagram, serait complètement fermé en août.

Source-145