À la suite de suicides et de poursuites judiciaires, Snapchat restreint la création d’applications sur sa plate-forme avec de nouvelles politiques

Après la mort par suicide d’un adolescent victime d’intimidation, une mère en deuil a poursuivi l’année dernière la plate-forme où les abus avaient eu lieu – Snapchat – pour ne pas en avoir fait assez pour protéger ses jeunes utilisateurs. Un autre procès, lié à un autre suicide, a suivi le mois dernier. En réponse à la première, Snap a interdit les applications de messagerie anonyme qui avaient facilité l’intimidation en ligne et s’est engagé à réorganiser ses politiques pour déterminer le type d’expériences connectées à Snapchat qui pourraient être créées à l’aide de ses outils de développement. Aujourd’hui, la société a annoncé les résultats de son examen de la politique et les changements qu’elle apporte.

À compter de maintenant pour les nouveaux développeurs qui s’appuient sur sa plate-forme Snap Kit, Snap interdit les applications de messagerie anonymes et obligera toute personne créant des applications de recherche d’amis à limiter ces applications aux utilisateurs de 18 ans et plus. Les développeurs existants disposent de 30 jours pour se conformer aux nouvelles politiques.

Ces modifications sont limitées aux applications tierces intégrées à Snapchat et ne visent pas à résoudre d’autres problèmes de sécurité des enfants sur la plate-forme Snap.

Snap indique que la mise à jour de la politique aura un impact sur un petit sous-ensemble de leur communauté de plus de 1 500 développeurs. Seuls environ 2 % des développeurs seront touchés par l’interdiction des applications de messagerie anonymes, tandis que 3 % supplémentaires seront touchés par la nouvelle obligation de limiter l’âge de leurs applications. La société a également noté que les développeurs qui suppriment la messagerie anonyme de leurs applications peuvent faire réexaminer leurs applications et rester un partenaire Snap Kit.

Une application qui a grandement bénéficié de l’interdiction antérieure des applications de messagerie anonyme YOLO et LMK, Sendit, fait partie de celles qui devront apporter des modifications afin de continuer à travailler avec Snapchat. Quelques mois après les interdictions, Sendit avait gagné des millions de téléchargements supplémentaires d’adolescents qui voulaient toujours un moyen de publier des questions-réponses anonymes.

L’attrait des applications sociales anonymes est incontestable, en particulier pour les jeunes. Mais au fil des ans, à maintes reprises, il a été prouvé que de telles applications ne peuvent pas être utilisées de manière responsable, mais peuvent avoir des conséquences dévastatrices. Depuis les premiers jours de MySpace jusqu’aux suicides d’adolescents liés à Ask.fm jusqu’aux applications anonymes malheureusement bien financées comme Secret et Yik Yak (dont aucune n’a duré), l’anonymat entre les mains des jeunes a été testé et a constamment échoué. Compte tenu de cette histoire, il était sans doute irresponsable d’autoriser ce type d’activité sur Snapchat en premier lieu, compte tenu de son noyau démographique d’adolescents et de jeunes adultes.

En plus de l’interdiction de messagerie anonyme, Snap limitera également désormais les applications de recherche d’amis aux utilisateurs adultes de 18 ans et plus.

Les applications de recherche d’amis sont conçues pour connecter les utilisateurs avec des inconnus sur Snapchat, peuvent encourager les gens à partager leurs informations personnelles et sont un moyen courant pour les prédateurs d’enfants d’atteindre les utilisateurs Snapchat plus jeunes et vulnérables. Souvent, les applications sont utilisées à des fins de rencontres ou de sextos, pas «ami-finding », et peut être rempli de robots pornographiques. Pendant des années, les responsables de l’application des lois et les experts en sécurité des enfants ont mis en garde contre les prédateurs d’enfants sur Snapchat et ont qualifié les applications de recherche d’amis de « Tinder pour les adolescents ».

Les problèmes avec ces applications continuent aujourd’hui. Par exemple, une enquête publiée le mois dernier par le Times a détaillé les abus sexuels et le racisme endémiques qui sévissent sur l’une de ces applications, Yubo.

L’interdiction de la messagerie anonyme et les restrictions sur les applications de recherche d’amis sont les deux seuls changements majeurs apportés aux politiques de Snap aujourd’hui, mais la société note que les applications des développeurs devront toujours passer par un processus d’examen où ils devront répondre aux questions sur leur utilisation. cas et démonstration de leurs intégrations proposées. Snap a également déclaré qu’il procéderait à des examens périodiques tous les six mois pour s’assurer que la fonctionnalité des applications n’a pas changé d’une manière qui violerait ses politiques. Tout développeur qui cherche intentionnellement à tromper Snap sera complètement supprimé de Snap Kit et de la plate-forme de développement, a-t-il ajouté.

« En tant que plate-forme qui travaille avec un large éventail de développeurs, nous voulons favoriser un écosystème qui aide les applications à protéger la sécurité, la confidentialité et le bien-être des utilisateurs tout en libérant l’innovation produit pour les développeurs et en les aidant à développer leurs activités », a déclaré un porte-parole de Snap dans référence aux mises à jour de la politique. « Nous pensons que nous pouvons faire les deux et continuerons d’évaluer régulièrement nos politiques, de surveiller la conformité des applications et de travailler avec les développeurs pour mieux protéger le bien-être de notre communauté. »

La sécurité de la plate-forme de Snap a encore besoin de travail

Bien que les changements affectent les applications tierces s’intégrant à Snapchat, la société n’a pas encore résolu les problèmes de sécurité des enfants sur sa plate-forme via quelque chose comme une expérience limitée par l’âge pour les mineurs, similaire à TikTok, ou via le lancement de ses contrôles parentaux promis, qu’Instagram et TikTok l’ont maintenant.

Cependant, la société, dont l’application est classée 13+, a limité la visibilité et la possibilité de trouver les profils des mineurs, fournit des outils et des rappels pour maintenir votre liste d’amis, exige une amitié mutuelle avant la messagerie (si vous avez moins de 18 ans) et fournit des liens vers des ressources de sécurité. , comme les lignes de santé mentale.

Malgré ces efforts, les changements d’aujourd’hui devancent ce qui reste encore beaucoup à faire en matière de sécurité des enfants.

La sécurité des plateformes est déjà une priorité pour les entreprises de médias sociaux à l’échelle de l’industrie alors que la pression réglementaire s’intensifie. Dans son cas, Snap a été transporté devant le Congrès l’automne dernier pour répondre aux questions des législateurs sur divers problèmes de sécurité affectant les mineurs et les jeunes adultes utilisant son application, y compris la prévalence du contenu sur les troubles de l’alimentation et des tarifs destinés aux adultes qui sont inappropriés pour les jeunes utilisateurs adolescents de Snapchat, mais pas bloqué par une porte d’âge.

Snap a également été poursuivi en janvier aux côtés de Meta par une autre famille qui a perdu son enfant par suicide après avoir succombé à la pression d’envoyer des photos sexuellement explicites qui ont ensuite été divulguées à ses camarades de classe. La plainte indique que le manque de vérification par Snapchat de l’âge de l’enfant et son utilisation de messages qui disparaissent ont contribué à sa mort. En outre, la poursuite mentionne le rôle joué par la messagerie anonyme, bien qu’elle ne fasse pas directement référence à l’utilisation d’applications anonymes tierces.

Au cours du même mois, Snap a résolu d’autres problèmes avec sa fonction de recommandation d’amis pour rendre plus difficile pour les trafiquants de drogue de se connecter avec les adolescents sur l’application. Le problème avait fait l’objet d’une enquête de NBC News qui reliait Snapchat à la vente de pilules contenant du fentanyl qui avaient tué des adolescents et de jeunes adultes dans plus d’une douzaine d’États.

Auparavant, la société avait fait l’objet de poursuites pour son « filtre de vitesse » qui permettait aux utilisateurs de prendre des photos montrant à quelle vitesse ils allaient. Le filtre a contribué à de nombreux accidents de voiture, blessures et même décès au fil des ans. Il a ensuite été désactivé à la vitesse de conduite initialement, puis retiré en 2021. (Snap a refusé de commenter cette affaire car un litige est en cours.)

Maintenant que les législateurs cherchent enfin à maîtriser les jours du Far West de Big Tech, où la croissance et l’engagement étaient systématiquement prioritaires par rapport à la sécurité des utilisateurs, Snap se prépare à apporter des changements. Elle a embauché sa toute première responsable de la sécurité des plateformes, Jacqueline Beauchère, en septembre.

Le PDG de Snap, Evan Spiegel, a également déclaré en octobre que la société développait des outils de contrôle parental. Ces outils – qui suivraient le lancement du contrôle parental sur TikTok et, cette semaine seulement, Instagram – permettront aux parents de voir à qui parlent leurs adolescents sur l’application.

Snap n’a pas dit si les outils répondront aux autres préoccupations des parents – y compris un moyen pour les parents de désactiver l’accès de l’enfant à l’envoi ou à la réception de messages qui disparaissent, de restreindre les demandes d’amis ou d’exiger des approbations, d’empêcher l’enfant de partager des photos et d’autres médias, ou masquer le contenu destiné aux adultes (et souvent clickbait-y) qui figure en bonne place dans la section Découvrir de l’application.

«Nous voulons aider à fournir aux parents et aux adolescents des moyens de s’associer pour assurer leur sécurité et leur bien-être en ligne – de la même manière que les parents aident à préparer leurs enfants dans la vraie vie», a déclaré un porte-parole de Snap à propos du contrôle parental. « Nous espérons que ces nouveaux outils serviront d’amorce de conversation entre les parents et leurs adolescents sur la façon d’être en sécurité en ligne. »

La société a déclaré que sa suite initiale de contrôles parentaux était sur la bonne voie pour un lancement cette année. Les modifications apportées à la politique pour les développeurs sont désormais en ligne.

Si vous ou quelqu’un que vous connaissez souffrez de dépression ou avez pensé à vous faire du mal ou à vous suicider, The National Suicide Prevention Lifeline (1-800-273-8255) fournit un soutien gratuit et confidentiel 24 heures sur 24, 7 jours sur 7 aux personnes en détresse. , ainsi que des bonnes pratiques pour les professionnels et des ressources pour aider à la prévention et aux situations de crise.

Correction17/03/22 14 h 45 HE : Le filtre de vitesse de Snapchat a été initialement désactivé à la vitesse des voitures, mais n’a pas été complètement supprimé de la plate-forme avant 2021.

Source-146