Les modèles d’apprentissage automatique pourraient devenir un désastre pour la sécurité des données

Des acteurs malveillants peuvent forcer les modèles d’apprentissage automatique à partager des informations sensibles, en empoisonnant les ensembles de données utilisés pour former les modèles, ont découvert des chercheurs.

Une équipe d’experts de Google, de l’Université nationale de Singapour, du Yale-NUS College et de l’Oregon State University a publié un article intitulé « Sérum de vérité : empoisonner les modèles d’apprentissage automatique pour révéler leurs secrets (s’ouvre dans un nouvel onglet)”, qui détaille le fonctionnement de l’attaque.

Source-130