mardi, novembre 5, 2024

X d’Elon Musk condamné à une amende de 380 000 $ pour de « graves » problèmes de sécurité des enfants, selon un organisme de surveillance

Aujourd’hui, X (anciennement Twitter) est devenue la première plateforme condamnée à une amende en vertu de la loi australienne sur la sécurité en ligne. L’amende intervient après que X n’a ​​pas répondu à plus d’une douzaine de questions clés de la commissaire australienne à la sécurité électronique, Julie Inman Grant, qui a demandé des éclaircissements sur l’efficacité avec laquelle X détecte et atténue les méfaits de l’exploitation et du toilettage des enfants sur la plateforme.

Dans un communiqué de presse, Inman Grant a déclaré que X avait 28 jours pour faire appel de la décision ou payer l’amende d’environ 380 000 $. Même si l’amende semble minime, l’atteinte à la réputation pourrait encore nuire aux chances de X de persuader les annonceurs d’augmenter leurs dépenses sur la plateforme, a suggéré Reuters. Et tout manquement à se conformer ou à répondre pourrait entraîner des amendes encore plus élevées, X pouvant potentiellement devoir payer jusqu’à 493 402 $ par jour pour non-conformité présumée remontant à mars 2023, a rapporté The Guardian. Cela pourrait rapidement atteindre des dizaines de millions si X ne respectait pas la date limite fixée par le régulateur australien.

« S’ils choisissent de ne pas payer, eSafety peut prendre d’autres mesures ou demander une sanction civile devant les tribunaux », a déclaré Inman Grant au Sydney Morning Herald. « Nous parlons de certains des crimes les plus odieux perpétrés sur ces plateformes, commis contre des enfants innocents. »

Alors qu’eSafety a signalé que toutes les grandes entreprises technologiques, notamment Meta, Apple, Microsoft, Skype, Snap, Discord, TikTok, Twitch, X et Google, ont de « sérieuses lacunes » en matière de lutte contre les contenus pédopornographiques (CSAM). et le toilettage, la non-conformité de X « s’est avérée plus grave ».

Dans certains cas, X a laissé des réponses « entièrement vides », a rapporté Inman Grant, et dans d’autres, X a fourni des informations inexactes. Le rapport expliquait :

Twitter/X n’a ​​pas répondu à un certain nombre de questions clés, notamment le temps nécessaire à la plateforme pour répondre aux rapports faisant état d’exploitation sexuelle d’enfants ; les mesures mises en place pour détecter l’exploitation sexuelle des enfants dans les diffusions en direct ; et les outils et technologies qu’il utilise pour détecter le matériel d’exploitation sexuelle des enfants. L’entreprise n’a pas non plus répondu de manière adéquate aux questions relatives au nombre d’employés en matière de sécurité et de politique publique encore employés chez Twitter/X après l’acquisition d’octobre 2022 et les suppressions d’emplois ultérieures.

X n’a pas répondu à la demande de commentaire d’Ars.

En février, lorsque l’organisme de surveillance australien a publié pour la première fois un avis de conformité, Twitter Safety vanté sur la plateforme que Twitter « évoluait plus rapidement que jamais pour rendre Twitter plus sûr et maintenir le matériel d’exploitation sexuelle des enfants (ESC) hors de notre plateforme ». Le mois dernier, ce compte—qui s’appelle désormais X Safety—posté qu ‘ »il n’y a pas de place dans ce monde ou sur X pour la maltraitance des enfants », affirmant que « au cours de l’année écoulée, nous avons renforcé nos politiques, déployé de nouvelles technologies automatisées et augmenté le nombre de cyber-informations que nous envoyons » au Centre national pour les enfants disparus et exploités.

Ce message indiquait également que X avait pris « des mesures sur cinq fois plus de contenu » que la plateforme l’avait fait en 2022, notant que « 95 % des comptes que nous suspendons sont découverts avant tout rapport d’utilisateur », ce qui était « une hausse par rapport à 75 % ».  » Le rapport australien précise qu’avant l’acquisition de Twitter par Musk, la plateforme détectait de manière proactive 90 % des CSAM, mais qu’après des licenciements massifs, le taux de détection proactive des CSAM est tombé à 75 % et X n’a ​​pas précisé à eSafety dans quelle mesure elle s’est améliorée depuis lors.

Source-147

- Advertisement -

Latest