Meta et Snap sont les dernières entreprises technologiques à avoir reçu des demandes formelles d’informations (RFI) de la Commission européenne sur les mesures qu’elles prennent pour protéger les mineurs sur leurs plateformes, conformément aux exigences énoncées dans la loi sur les services numériques (DSA) du bloc.
Hier, la Commission a envoyé des demandes d’informations similaires à TikTok et YouTube, également axées sur la protection des enfants. La sécurité des mineurs est rapidement devenue un domaine prioritaire pour la surveillance des DSA par l’UE.
En avril, la Commission a désigné 19 très grandes plateformes en ligne (VLOP) et très grands moteurs de recherche en ligne (VLOSE), parmi lesquels les réseaux sociaux Facebook et Instagram de Meta et l’application de messagerie de Snap, Snapchat.
Même si le régime complet ne sera opérationnel qu’en février de l’année prochaine, lorsque la conformité entrera en vigueur pour les petits services, les grandes plates-formes devraient déjà être conformes au DSA, à partir de fin août.
La dernière RFI demande plus de détails à Meta et Snap sur la manière dont ils se conforment aux obligations liées à l’évaluation des risques et aux mesures d’atténuation pour protéger les mineurs en ligne – avec une référence particulière aux risques pour la santé mentale et physique des enfants.
Les deux sociétés ont jusqu’au 1er décembre pour répondre à la dernière RFI.
Contacté pour commenter, un porte-parole de Snap a déclaré :
Nous avons reçu la DDR et répondrons à la Commission en temps opportun. Nous partageons les objectifs de l’UE et de la DSA visant à garantir que les plateformes numériques offrent à leurs utilisateurs une expérience adaptée à leur âge, sûre et positive.
Meta nous a également envoyé une déclaration :
Nous sommes fermement engagés à offrir aux adolescents des expériences en ligne sûres et positives et avons déjà introduit plus de 30 outils pour soutenir les adolescents et leurs familles. Il s’agit notamment d’outils de supervision permettant aux parents de décider quand et pendant combien de temps leurs adolescents utilisent Instagram, d’une technologie de vérification de l’âge qui permet de garantir que les adolescents vivent des expériences adaptées à leur âge, et d’outils comme le mode silencieux et Take A Break qui aident les adolescents à gérer leur temps d’écran. Nous sommes impatients de fournir plus de détails sur ces travaux à la Commission européenne.
Ce n’est pas la première DSA RFI que Meta reçoit ; la Commission lui a également récemment demandé plus de détails sur ce qu’elle fait pour atténuer les contenus illégaux et les risques de désinformation liés à la guerre entre Israël et le Hamas ; et pour plus de détails sur les mesures prises pour garantir la sécurité des élections.
La guerre au Moyen-Orient et la sécurité des élections sont rapidement apparues comme d’autres domaines prioritaires pour l’application du DSA par la Commission, aux côtés de la protection des enfants.
Ces derniers jours, l’UE a également publié une demande d’information sur le géant chinois du commerce électronique AliExpress – demandant plus d’informations sur les mesures visant à se conformer aux obligations liées à la protection des consommateurs, en particulier dans des domaines tels que les produits illégaux comme les faux médicaments. Les risques liés aux marchandises dangereuses vendues en ligne semblent donc être une autre priorité prioritaire.
Domaines prioritaires
La Commission affirme que son objectif initial d’appliquer le DSA sur les VLOPs/VLOSEs est « explicite » – en se concentrant sur les domaines où elle considère qu’il est impératif que le cadre phare de transparence et de responsabilité fournisse des résultats rapidement.
« Lorsque vous êtes un nouveau régulateur numérique, comme nous le sommes, vous devez commencer votre travail en identifiant les domaines prioritaires », a déclaré un responsable de la Commission lors d’une réunion d’information avec des journalistes. « Évidemment, dans le contexte du conflit Hamas-Israël – contenus illégaux, antisémitisme, racisme – c’est un domaine important. Nous devions être là pour rappeler aux plateformes leur devoir d’être prêts, avec leurs systèmes, à pouvoir supprimer rapidement les contenus illégaux.
« Imaginez, vous savez, des images potentielles en direct de ce qui pourrait arriver ou aurait pu arriver aux otages, nous avons donc vraiment dû dialoguer avec eux dès le début. Être également un partenaire dans la lutte contre la désinformation là-bas.
Un autre « domaine important », dans lequel la Commission a particulièrement agi cette semaine, est la protection de l’enfance, étant donné la « grande promesse » du règlement visant à améliorer l’expérience en ligne des mineurs. Les premières plateformes d’évaluation des risques produites en matière de sécurité des enfants montrent des marges d’amélioration, selon la Commission.
Les informations contenues dans la première série de rapports de transparence que la DSA exige des VLOP et des VLOSE, qui ont été publiés ces dernières semaines avant la date limite fixée au début du mois, sont « un sac mélangé », a également déclaré un responsable de l’UE.
La Commission n’a pas mis en place un référentiel centralisé où les gens peuvent facilement accéder à tous les rapports. Mais ils sont disponibles sur les sites propres des plateformes. (Les rapports de transparence DSA de Meta pour Facebook et Instagram peuvent être téléchargés à partir d’ici, par exemple ; tandis que le rapport de Snap est ici.)
Les divulgations incluent des indicateurs clés tels que les utilisateurs actifs par État membre de l’UE. Les rapports contiennent également des informations sur les ressources de modération de contenu des plateformes, notamment des détails sur les capacités linguistiques du personnel de modération de contenu.
Le fait que les plateformes ne disposent pas d’un nombre suffisant de modérateurs de contenu maîtrisant toutes les langues parlées dans l’UE constitue depuis longtemps une pomme de discorde pour le bloc. Et lors du briefing d’aujourd’hui, un responsable de la Commission l’a décrit comme une « lutte constante » avec les plateformes, y compris celles qui ont signé le Code de bonnes pratiques de l’UE en matière de désinformation, qui est antérieur d’environ cinq ans au DSA.
Le responsable a ajouté qu’il était peu probable que l’UE finisse par exiger qu’un nombre défini de modérateurs soient engagés par les VLOP/VLOSE par langue de l’État membre. Mais ils ont suggéré que les rapports sur la transparence devraient s’efforcer d’appliquer la « pression des pairs » – par exemple en mettant en évidence des différences « énormes » dans les ressources relatives.
Au cours de la séance d’information, la Commission a souligné certaines comparaisons qu’elle a déjà extraites des premières séries de rapports, notamment un graphique illustrant le nombre de modérateurs de contenu signalés par les plateformes de l’UE – ce qui place YouTube loin en tête (16 974) ; suivi de Google Play (7 319) ; et TikTok (6 125).
Alors que Meta n’a signalé que 1 362 modérateurs de contenu dans l’UE – ce qui est moins que Snap (1 545) ; ou Elon Musk possédait X/Twitter (2 294).
Les responsables de la Commission ont néanmoins averti que les premiers rapports n’étaient pas standardisés. (Le rapport de Snap, par exemple, note que son équipe de modération de contenu « opère dans le monde entier » – et la répartition des ressources humaines de modération indique « les spécialités linguistiques des modérateurs ». Mais il met en garde cela en notant que certains modérateurs se spécialisent dans plusieurs langues. Ainsi , vraisemblablement, certains de ses « modérateurs de l’UE » pourraient ne pas modérer exclusivement le contenu lié aux utilisateurs de l’UE.)
« Il y a encore du travail technique à faire, malgré la transparence, car nous voulons être sûrs que tout le monde a la même conception de ce qu’est un modérateur de contenu », a noté un responsable de la Commission. « Ce n’est pas nécessairement la même chose pour chaque plateforme. Que signifie parler une langue ? Cela semble stupide, mais c’est en réalité quelque chose sur lequel nous devons enquêter un peu plus en détail.
Un autre élément qu’ils ont dit vouloir comprendre est « quel est l’état stable des modérateurs de contenu » – donc s’il y a un niveau permanent ou si, par exemple, les ressources sont mobilisées pour une élection ou un événement de crise – ajoutant que c’est le cas. un sujet sur lequel la Commission enquête actuellement.
Sur X, la Commission a également déclaré qu’il était trop tôt pour faire une déclaration concernant l’efficacité (ou non) de l’approche participative de la plateforme en matière de modération de contenu (c’est-à-dire la fonctionnalité Community Notes de X).
Mais les responsables de l’UE ont déclaré que X dispose toujours de certaines équipes d’intégrité électorale avec lesquelles ils collaborent pour en savoir plus sur son approche visant à faire respecter ses politiques dans ce domaine.
Une transparence sans précédent
Ce qui est clair, c’est que la première série de rapports de transparence DSA des plateformes a soulevé de nouvelles questions qui, à leur tour, ont déclenché une vague de RFI alors que l’UE cherche à régler la résolution des divulgations qu’elle reçoit des grandes technologies. Ainsi, la vague de RFI reflète les lacunes dans les premières révélations au fur et à mesure que le régime démarre.
Cela peut être dû en partie au fait que les rapports sur la transparence ne sont pas encore harmonisés. Mais cela est sur le point de changer puisque la Commission a confirmé qu’elle présenterait, probablement au début de l’année prochaine, un acte d’exécution (c’est-à-dire un droit dérivé) qui comprendra des modèles de déclaration pour ces divulgations.
Cela suggère que nous pourrions – à terme – nous attendre à voir moins de RFI être envoyées aux plateformes à l’avenir, à mesure que les informations qu’elles sont obligées de fournir deviennent plus standardisées et que les données circulent de manière plus régulière et prévisible.
Mais il est clair qu’il faudra du temps pour que le régime s’installe et ait l’impact souhaité par l’UE : forcer les Big Tech à adopter une relation plus responsable avec les utilisateurs et la société dans son ensemble.
En attendant, les RFI sont un signe que les roues du DSA tournent.
La Commission souhaite être vue en train d’exercer activement ses pouvoirs pour obtenir des données qui, selon elle, n’ont jamais été divulguées publiquement par les plateformes auparavant – comme les ressources de modération de contenu par marché ; ou des données sur l’exactitude des outils de modération de l’IA. Les plateformes devraient donc s’attendre à recevoir beaucoup plus de demandes de ce type au cours des mois (et années) à venir, à mesure que les régulateurs approfondiront leur surveillance et tenteront de vérifier si les systèmes VLOP/VLOSE construits en réponse au nouveau risque réglementaire sont vraiment « efficaces » ou non.
La Commission espère que le DSA ouvrira, au fil du temps, une fenêtre « sans précédent » sur le fonctionnement des géants de la technologie. Ou inaugurer une « toute nouvelle dimension de transparence », comme l’a dit aujourd’hui l’un des responsables. Et ce redémarrage va reconfigurer le fonctionnement des plateformes pour le mieux, que cela leur plaise ou non.
« JEIl est important de noter que des changements sont déjà en train de se produire », a suggéré aujourd’hui un responsable de la Commission. « Si vous regardez l’ensemble du domaine de la modération du contenu, vous voyez désormais tout noir sur blanc, avec les rapports de transparence… et c’est la pression des pairs que nous continuerons bien sûr à exercer. Mais le public peut également continuer à exercer la pression de ses pairs et se demander, attendez une minute, pourquoi X n’a-t-il pas le même nombre de modérateurs de contenu que d’autres, par exemple ? »
Aujourd’hui également, les responsables de l’UE ont confirmé qu’ils n’avaient pas encore ouvert d’enquête formelle DSA. (Encore une fois, les RFI constituent également une étape préalable séquentielle et nécessaire à toute enquête future éventuelle ouverte dans les semaines et les mois à venir.)
Toutefois, l’application de la loi – en termes d’amendes ou d’autres sanctions pour les infractions confirmées – ne pourra pas entrer en vigueur avant le printemps prochain, car le régime complet doit être opérationnel avant que les procédures formelles d’application puissent avoir lieu. Les prochains mois du DSA seront donc dominés par la collecte d’informations ; et – l’UE l’espère – commencera à démontrer le pouvoir de la transparence pour façonner un nouveau discours plus quantifié sur les Big Tech.
Encore une fois, cela suggère que l’on constate déjà des changements positifs sur ce front. Ainsi, au lieu des habituelles « réponses génériques et chiffres absolus » systématiquement présentées par les géants de la technologie dans les rapports volontaires (comme le Code de désinformation susmentionné), les RFI, dans le cadre du DSA juridiquement contraignant, extraient « des données et des informations beaucoup plus utilisables ». selon un responsable de la Commission.
« Si nous constatons que nous n’obtenons pas les bonnes réponses, [we might] ouvrir une enquête, une enquête formelle ; nous pourrions arriver à des mesures provisoires ; nous pourrions parvenir à des accords de conformité », a noté un autre responsable, décrivant le processus comme « toute une avalanche d’étapes individuelles – et ce n’est qu’à la toute fin qu’il y aurait une éventuelle décision de sanctions ». Mais ils ont également souligné que la transparence elle-même peut être un déclencheur de changement, soulignant le pouvoir de la « pression des pairs » et la menace du « risque de réputation » pour conduire la réforme.