lundi, octobre 28, 2024

iOS 18.2 Introduces Child Safety Feature to Blur Nude Images and Report Them

Dans iOS 18.2, Apple introduit une nouvelle fonctionnalité de sécurité pour détecter et estomper les contenus explicites sur les appareils iOS, sans compromettre le chiffrement. D’abord lancée en Australie, cette fonction utilise l’apprentissage automatique pour avertir les utilisateurs et leur demander confirmation avant de continuer à partager des photos ou vidéos potentiellement sensibles, avec des mesures de sécurité supplémentaires pour les enfants de moins de 13 ans. Apple prévoit de déployer cette fonctionnalité à l’échelle mondiale après sa phase d’essai.

Dans la mise à jour iOS 18.2, Apple introduit une nouvelle fonctionnalité axée sur la sécurité des enfants, remplaçant partiellement ses précédents efforts sur la détection CSAM, mais sans compromettre le chiffrement de bout en bout. Initialement lancée en Australie, cette fonction s’appuie sur l’apprentissage automatique de l’appareil pour identifier et flouter les contenus à caractère sexuel, fournissant des avertissements et requérant une confirmation avant que les utilisateurs ne puissent poursuivre. Pour les enfants de moins de 13 ans, une authentification par code d’accès est nécessaire pour avancer.

Lorsque l’apprentissage automatique intègre des détections de contenus inappropriés, la photo ou la vidéo concernée est floutée automatiquement, et un message d’avertissement apparaît, signalant que le contenu pourrait être sensible. L’utilisateur est également guidé vers des ressources pour obtenir de l’aide. Les options incluent la possibilité de quitter la discussion, de bloquer le contact ou d’informer un parent ou un tuteur. Les adolescents de 13 ans et plus peuvent choisir de continuer après avoir reçu ces alertes, avec des rappels supplémentaires sur la disponibilité de l’assistance.

La fonctionnalité analyse les médias au sein de l’application Messages, pour AirDrop, dans les affichages de contact, ainsi que dans les messages vidéo de FaceTime. Elle prévoit également une analyse de « certaines applications tierces » lorsque l’utilisateur souhaite partager un contenu.

Les plateformes Apple supportées varient légèrement : sur Mac, la fonction scrute les messages et certaines applications tierces. Sur Apple Watch, elle inclut les messages et vidéo FaceTime, tandis qu’à bord de Vision Pro, elle évalue Messages, AirDrop et certaines applications tierces dans les mêmes conditions.

Pour fonctionner, cette nouveauté nécessite iOS 18, iPadOS 18, macOS Sequoia ou visionOS 2.

Selon diverses sources, Apple envisage une mise en place globale après son essai en Australie, un choix stratégique en raison des nouvelles réglementations que le pays souhaite adopter. Celles-ci obligent les entreprises technologiques à surveiller les contenus relatifs à l’exploitation des enfants tout en stipulant que l’application de la nouvelle fonctionnalité ne devrait pas compromettre la sécurité des données, sauf si cela se fait sans briser le chiffrement.

Le débat autour de la vie privée et de la sécurité des utilisateurs est ravivé par les précédents efforts d’Apple pour contrôler le CSAM. En 2021, la société avait proposé un système de recherche d’images de contenu abusif, ce qui avait soulevé des préoccupations quant à la possibilité de créer des portes dérobées pour les régimes autoritaires. Face à ces critiques, Apple a finalement abandonné ce projet, menant à l’arrivée de cette solution de sécurité plus équilibrée.

Une fois accessible à tous, les utilisateurs pourront activer ou désactiver cette fonction, qui est désormais par défaut depuis iOS 17.

- Advertisement -

Latest