Le plan controversé d’Apple pour tenter de lutter contre les images d’abus sexuels sur des enfants

Lorsqu’Apple a annoncé les modifications qu’il prévoyait d’apporter aux appareils iOS dans le but de lutter contre la maltraitance des enfants en trouvant du matériel d’abus sexuel d’enfants (CSAM), certaines parties de son plan ont généré des réactions négatives.

Tout d’abord, il déploie une mise à jour de son application de recherche et de son assistant vocal Siri sur iOS 15, watchOS 8, iPadOS 15 et macOS Monterey. Lorsqu’un utilisateur recherche des sujets liés à l’abus sexuel d’enfants, Apple redirige l’utilisateur vers des ressources pour signaler le CSAM ou obtenir de l’aide pour une attirance pour un tel contenu.

Mais ce sont les deux autres plans CSAM d’Apple qui ont suscité des critiques. Une mise à jour ajoutera une option de contrôle parental aux messages, envoyant une alerte aux parents si un enfant de 12 ans ou moins regarde ou envoie des images sexuellement explicites, et obscurcit les images pour tous les utilisateurs de moins de 18 ans.

Pour rester au courant des dernières nouvelles sur les plans de protection CSAM d’Apple, suivez notre histoire, que nous mettrons à jour chaque fois qu’il y aura un nouveau développement. Si vous avez besoin d’un point de départ, consultez notre explicatif ici.

source site-132