vendredi, novembre 29, 2024

Musk risque des amendes si l’équipe de sécurité des enfants éviscérée de Twitter est débordée

Il y a quelques semaines, le PDG de Twitter, Elon Musk, a demandé à son personnel restant de faire preuve de loyauté en les incitant à cliquer sur un lien « oui » dans un e-mail. En cliquant sur oui, les employés disaient à Musk qu’ils acceptaient de travailler plus longtemps, s’ils pouvaient conserver leur emploi. C’était une façon pour Musk de voir qui, dans son équipe existante, était vraiment prêt à suivre ses efforts « purs et durs » pour construire Twitter 2.0. Musk a rapidement compris à quel point son offre était peu attrayante lorsqu’un nombre écrasant d’employés n’ont pas cliqué sur oui, et parmi ceux qui ont rejeté les conditions sévères de Musk se trouvait apparemment près de la moitié de l’équipe mondiale de Twitter dédiée à la prévention de l’exploitation sexuelle des enfants sur la plate-forme.

Trois personnes familières avec le personnel actuel de Twitter ont déclaré à Bloomberg qu’au début de 2022, Twitter avait 20 membres de l’équipe chargés d’examiner et de faire remonter les signalements de matériel d’abus sexuel d’enfants (CSAM). Aujourd’hui, après les licenciements et les démissions, il y a moins de 10 spécialistes formant ce que Bloomberg a décrit comme « une équipe squelettique débordée ». Il semble que malgré Musk tweete continuellement que bloquer le CSAM est la priorité absolue de Twitter et va même jusqu’à invitant les utilisateurs à tweeter CSAM directement sur luiMusk est peut-être déjà en train de perdre sa bataille pour garder le matériel hors de Twitter.

« Musk n’a pas créé un environnement où l’équipe voulait rester », ont déclaré des sources à Bloomberg.

Le personnel que Musk a perdu, selon Bloomberg, comprenait des experts en sécurité des enfants et d’anciens agents des forces de l’ordre aux États-Unis, en Irlande et à Singapour. Des sources ont déclaré que cette équipe travaillait déjà de plus longues heures – avant que Musk ne demande aux employés de s’engager à plus d’heures – essayant simplement de suivre le flux constant de signalements d’utilisateurs et de demandes légales.

Ces personnes ont supprimé le CSAM, participé aux enquêtes des forces de l’ordre et, en s’appuyant sur le raisonnement humain plutôt que sur l’intelligence artificielle, ont identifié des comptes traitant de mineurs ou promouvant l’attirance pour les mineurs comme sains.

Bien que Twitter ait récemment supprimé certains hashtags connus utilisés pour diffuser le CSAM, cette décision n’était pas une solution complète ou permanente car les hashtags changent, tout comme le langage codé que les abuseurs utilisent pour contourner la suppression automatisée du contenu. Étant donné que la suppression de ces hashtags s’est produite après la prise de contrôle de Musk, il est facile de lui attribuer la décision et de la considérer comme son engagement à bloquer le CSAM. Cependant, des sources ont déclaré à Bloomberg que la décision de supprimer les hashtags avait été prise avant l’arrivée de Musk.

Selon Wired, il ne reste qu’un seul membre de l’équipe de sécurité des enfants pour gérer tous les signalements provenant de la région Asie-Pacifique. Cela signifie que Twitter a un expert qui comprend à la fois les lois régionales pour se coordonner avec les forces de l’ordre et l’évolution des mots de code utilisés dans des langues autres que l’anglais dans cette région pour échapper à la détection.

Aux petites heures du matin aujourd’hui, Musk était réveillé et tweetaitinsistant sur le fait que la suppression du CSAM de Twitter « sera à jamais notre priorité absolue ».

C’est une responsabilité qu’il ne peut esquiver. Contrairement à bloquer le discours de haine et désinformation– qui peut, dans certains cas, violer les règles de Twitter – Musk est légalement tenu de bloquer le CSAM sur sa plateforme.

Cela signifie que sa promesse de « liberté d’expression, pas de liberté d’accès » (prévoir de contenir les discours et informations de haine non criminels simplement en ne les promouvant pas auprès des utilisateurs de Twitter) n’est pas une stratégie acceptable pour faire face au CSAM. Surtout en Europe, les législateurs sévissent contre le CSAM, avec de nouvelles lois dictant comment les plateformes abordent la sécurité des enfants en ligne. Musk pourrait continuer à perdre de l’argent sur Twitter s’il risque des amendes, qui pourraient atteindre 10 % des revenus de Twitter, pour avoir enfreint les lois sur la sécurité des enfants. Le projet de loi britannique sur la sécurité des enfants en ligne menace même de bloquer les plates-formes au niveau régional dans les cas graves où le CSAM ne peut pas être contrôlé de manière adéquate.

Musk semble également savoir qu’il ne peut pas se permettre que Twitter soit abandonné par l’App Store d’Apple, ce que l’ancien responsable de Twitter Trust & Safety Yoel Roth a écrit dans le New York Times pourrait arriver si Twitter ne donne pas la priorité à la protection des enfants sur la plate-forme.

Twitter n’a pas répondu à la demande de commentaires d’Ars, mais The Verge a rapporté plus tôt cette année que Twitter lui-même avait conclu en avril que « Twitter ne peut pas détecter avec précision l’exploitation sexuelle des enfants et la nudité non consensuelle à grande échelle ». En septembre, Reuters a rapporté que certaines marques abandonnaient Twitter spécifiquement parce que Twitter plaçait leurs publicités à côté de CSAM. David Maddocks, le président de la marque Cole Haan, a résumé les préoccupations des annonceurs à Reuters en disant : « Nous sommes horrifiés ».

Des experts ont déclaré à Wired que les organisations de sécurité des enfants aident les plateformes de médias sociaux comme Twitter à détecter et à supprimer automatiquement un grand nombre de CSAM, mais la technologie ne peut pas remplacer les modérateurs humains qui ont accès à plus de données que les organisations extérieures.

En septembre, alors que Twitter avait encore un porte-parole, Celeste Carswell a déclaré à Reuters que Twitter « investissait davantage de ressources dédiées à la sécurité des enfants, notamment en embauchant de nouveaux postes pour rédiger des politiques et mettre en œuvre des solutions ». Ars n’a trouvé aucune offre d’emploi actuelle pour les postes de sécurité des enfants, donc la seule mise à jour depuis semble être la diapositive que Musk a récemment partagée d’une présentation Twitter 2.0 qui affirmait largement : « Nous recrutons.

Source-147

- Advertisement -

Latest