Bumble a ouvert son outil d’IA pour attraper les nus indésirables

Depuis 2019, Bumble utilise l’apprentissage automatique pour protéger ses utilisateurs des photos obscènes. Surnommée , la fonctionnalité filtre les images envoyées par les matchs pour déterminer si elles représentent un contenu inapproprié. Il a été principalement conçu pour capturer des photos nues non sollicitées, mais peut également signaler des selfies torse nu et des images d’armes à feu, qui ne sont pas autorisées sur Bumble. Lorsqu’il y a une correspondance positive, l’application brouille l’image incriminée, vous permettant de décider si vous voulez la voir, la bloquer ou signaler la personne qui vous l’a envoyée.

Dans un , Bumble a annoncé qu’il était Private Detector open-source, rendant le framework disponible sur . « Nous espérons que la fonctionnalité sera adoptée par la communauté technologique au sens large alors que nous travaillons en tandem pour rendre Internet plus sûr », a déclaré la société, reconnaissant dans le processus qu’elle n’est qu’un des nombreux acteurs du marché des rencontres en ligne.

Les avances sexuelles non désirées sont une réalité fréquente pour de nombreuses femmes, à la fois en ligne et dans le monde réel. A a constaté que 57% des femmes se sentaient harcelées sur les applications de rencontres qu’elles utilisaient. Plus récemment, un du Royaume-Uni a découvert que 76 % des filles âgées de 12 à 18 ans avaient reçu des images nues non sollicitées. Le problème s’étend également au-delà des applications de rencontres, avec des applications comme sur leurs propres solutions.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145