Des experts de l’Information Commissioner’s Office (ICO) du Royaume-Uni ont mis en garde contre l’utilisation de systèmes d’analyse émotionnelle alimentés par l’IA, craignant que ses inconvénients ne l’emportent sur les avantages, du moins pour le moment.
Des outils de dépistage portables pour la surveillance de la santé ou la surveillance comportementale comme la position du corps, la parole et les mouvements des yeux et de la tête, sont donnés à titre d’exemples dans lesquels les données qui doivent être collectées pourraient être considérées comme risquées.
L’ICO affirme que le stockage et le traitement de ce type de données, qui incluent un comportement inconscient, peuvent être personnellement identifiables, ce qui présente certains défis quant à la manière dont les entreprises peuvent ensuite utiliser ces données.
Sécurité des données biométriques
« Bien qu’il existe des opportunités, les risques sont actuellement plus grands », a déclaré le sous-commissaire de l’ICO, Stephen Bonner. « À l’ICO, nous craignons qu’une analyse incorrecte des données puisse entraîner des hypothèses et des jugements inexacts sur une personne et conduire à la discrimination. .”
Ensuite, il y a le fait qu’« ils ne fonctionnent peut-être pas encore, voire jamais », selon Bonner. Apprendre à comprendre les émotions personnelles peut être extrêmement difficile pour les gens ; condenser ces informations en données qu’un ordinateur pourrait utiliser pour catégoriser encore plus ses sujets.
À l’heure actuelle, l’ICO souhaite que les entreprises utilisent une technologie «entièrement fonctionnelle, responsable et soutenue par la science». L’organisation affirme également qu’il s’agit d’une technologie d’IA « encore à voir » qui répond aux exigences de protection des données, exprimant d’autres préoccupations concernant la proportionnalité, l’équité et la transparence.
D’ici le printemps 2023, l’ICO espère avoir publié des conseils biométriques pour aider les organisations à comprendre l’importance de la sécurité, car ce type de technologie devient de plus en plus répandu dans les secteurs de la finance, du fitness, de l’éducation et même du divertissement immersif.
Dans l’intervalle, Bonner déclare que l’ICO « continuera d’examiner le marché, d’identifier les parties prenantes qui cherchent à créer ou à déployer ces technologies, et d’expliquer l’importance d’une confidentialité et d’une conformité accrues des données, tout en encourageant la confiance dans la façon dont ces systèmes travailler. »