Google a annoncé la création d’un nouveau outil de confidentialité disponible gratuitement pour tous.
Annoncer l’outil Magritte dans un Publier (s’ouvre dans un nouvel onglet) sur le blog Google Developers, la société a écrit que le lancement serait le dernier ajout à Initiative informatique protégée de Google (s’ouvre dans un nouvel onglet)qui, selon la société, est de changer fondamentalement « comment, quand et où les données sont traitées pour assurer techniquement leur confidentialité et leur sécurité ».
Le nouvel outil, qui sera disponible sur le référentiel de projets open source Github, utilise l’apprentissage automatique « haute précision » pour détecter les objets d’identification, tels que les plaques d’immatriculation et les tatouages, et les estomper automatiquement.
Google affirme que Magritte est le mieux placé pour aider les vidéastes et les journalistes vidéo à protéger la vie privée des autres dans le monde qui les entoure. Il a souligné qu’il a une faible dépense de calcul et que sa haute précision en fait un outil fiable pour gagner du temps.
Ailleurs, le moins accrocheur « Fully Homomorphic Encryption (FHE) Transplier », qui vise à permettre aux data scientists de calculer des données chiffrées sans pouvoir accéder aux informations personnelles, et a été sorti pour la première fois l’année dernière (s’ouvre dans un nouvel onglet)a reçu de nouvelles optimisations de circuit pour étendre ses cas d’utilisation en garantissant un coût de calcul inférieur.
Les outils sont les derniers exemples de Google se concentrant sur la recherche et le développement de technologies renforçant la confidentialité (PET) qui, en juin 2022, est devenu un centre d’intérêt (s’ouvre dans un nouvel onglet) pour l’Office of Science and Technology Policy (OSTP) du gouvernement américain.
En novembre 2022, le concept a également été présenté dans le cadre d’un concours (s’ouvre dans un nouvel onglet) géré par les gouvernements américain et britannique, qui a demandé aux participants de développer des solutions permettant la formation de modèles d’intelligence artificielle sans exposer de données personnelles, un principe connu sous le nom de confidentialité différentielle (s’ouvre dans un nouvel onglet).
En 2019, Google a créé sa bibliothèque de confidentialité différentielle – un ensemble d’outils conçus pour être faciles à utiliser par les développeurs et, dans certains cas, comme le Confidentialité sur Beam (s’ouvre dans un nouvel onglet) cadre de confidentialité, non-experts absolus – disponible sur GitHub (s’ouvre dans un nouvel onglet).