Telegram permettra aux utilisateurs de signaler des contenus illégaux dans les chats privés

Telegram a discrètement modifié sa FAQ pour supprimer la mention indiquant qu’il ne modère pas les discussions privées et de groupe, comme l’a rapporté CoinDesk. Une section intitulée « Il y a du contenu illégal sur Telegram. Comment puis-je le supprimer ? » indiquait auparavant que le contenu des chats et des discussions de groupe restait entre les participants. Désormais, la section indique que « toutes les applications Telegram ont des boutons « Signaler » » qui permettront aux utilisateurs de signaler le contenu illégal aux modérateurs de l’application. Les utilisateurs n’ont qu’à appuyer sur le message sur Android, ou à appuyer longuement dessus sur iOS, et à choisir l’option Signaler. Ils peuvent également prendre note des liens vers le contenu qu’ils souhaitent signaler et envoyer un e-mail à l’adresse e-mail de suppression du service ([email protected]).

Ce changement intervient après que le patron de Telegram, Pavel Durov, a publié son premier commentaire public après son arrestation sur sa chaîne. Durov a été arrêté dans un aéroport en France fin août dans le cadre d’une enquête des autorités sur le manque de modération de l’application et son incapacité à freiner les activités criminelles. Il a déjà été libéré de détention, mais il a été accusé de « complicité de distribution de pornographie infantile, de drogues illégales et de logiciels de piratage » sur l’application de messagerie, ainsi que de « refus de coopérer aux enquêtes sur les activités illégales sur Telegram ».

Les autorités françaises auraient dit à Durov qu’il avait été arrêté parce qu’elles n’avaient reçu aucune réponse de Telegram à propos de leur enquête. C’est surprenant, a expliqué le fondateur de l’application dans son message, car Telegram a un représentant officiel dans l’UE et une adresse e-mail accessible au public. Il a également déclaré que les autorités françaises avaient de nombreux moyens de le contacter pour obtenir de l’aide et qu’il les avait même aidées par le passé à établir une hotline Telegram pour faire face aux menaces terroristes dans le pays. En outre, il a qualifié d’« approche malavisée » la décision des autorités françaises de « poursuivre un PDG pour des crimes commis par des tiers sur la plateforme » qu’elles gèrent. Aucun innovateur ne construira jamais de nouveaux outils, a-t-il déclaré, il peut être tenu responsable de l’utilisation abusive potentielle de ces outils.

Durov a également évoqué la manière dont Telegram défend les droits fondamentaux des personnes, en particulier dans les endroits où ils sont bafoués. En Russie, par exemple, Telegram a été banni lorsque le service a refusé de fournir les clés de chiffrement qui permettent aux autorités d’espionner les utilisateurs. Il a déclaré que le service supprime « des millions de publications et de chaînes nuisibles chaque jour », publie des rapports de transparence et maintient des lignes directes avec les ONG pour les demandes de modération urgentes.

Le PDG admet cependant que Telegram a encore une marge de progression. Son « augmentation brutale du nombre d’utilisateurs » à 950 millions « a provoqué des difficultés de croissance » qui ont facilité l’utilisation de sa plateforme par les criminels. Telegram vise à « améliorer considérablement les choses à cet égard » et a déjà commencé le processus en interne. Vraisemblablement, ce changement de ses règles fait partie des efforts du service de messagerie pour répondre aux accusations des autorités selon lesquelles il n’a pas réussi à empêcher les criminels d’utiliser son application. À noter que le service a annoncé plus tôt cette année qu’il comptait 41 millions d’utilisateurs dans l’Union européenne, mais les responsables pensent qu’il a menti sur son nombre d’utilisateurs pour éviter d’être réglementé par la loi sur les services numériques (DSA).

Source-145