Microsoft met à jour sa norme d’IA responsable et a révélé qu’il retirait les capacités de reconnaissance émotionnelle et faciale d’Azure Face (pour la plupart).
La Norme d’IA responsable (s’ouvre dans un nouvel onglet) est l’ensemble de règles internes de Microsoft lorsqu’il s’agit de créer des systèmes d’IA. L’entreprise souhaite que l’IA soit une force positive dans le monde et qu’elle ne soit jamais utilisée à mauvais escient par de mauvais acteurs. C’est une norme qui n’a jamais été partagée avec le public auparavant. Cependant, avec ce nouveau changement, Microsoft a décidé que ce serait le moment.
Les logiciels de reconnaissance émotionnelle et faciale ont été pour le moins controversés. De nombreuses organisations demandent l’interdiction de cette technologie. Lutte pour l’avenirpar exemple, a écrit une lettre ouverte en mai demandant à Zoom d’arrêter son propre développement de logiciel de suivi émotionnel et l’a qualifié d ‘ »invasif » et de « violation de la vie privée et des droits de l’homme ».
Changement de politique
Comme prévu, Microsoft retravaillera son service Azure Face pour répondre aux exigences de sa nouvelle norme d’IA responsable. Premièrement, l’entreprise supprime l’accès public à la capacité d’analyse des émotions de l’IA. Deuxièmement, Azure Face ne sera plus en mesure d’identifier les caractéristiques faciales d’une personne, notamment « le sexe, l’âge, [a] sourire, pilosité faciale, coiffure et maquillage.
La raison de la retraite est que la communauté scientifique mondiale n’a toujours pas de « consensus clair sur la définition des ‘émotions' ». Natasha Cramption, Chief Responsible AI Officer chez Microsoft, a déclaré que des experts internes et externes à l’entreprise avaient exprimé leurs préoccupations. Le problème réside dans « les défis liés à la manière dont les inférences se généralisent à travers les cas d’utilisation, les régions et les données démographiques, et les préoccupations accrues en matière de confidentialité… »
En plus d’Azure Face, la voix neurale personnalisée de Microsoft verra des restrictions similaires. Voix neurale personnalisée (s’ouvre dans un nouvel onglet) est une application de synthèse vocale incroyablement réaliste. Désormais, le service sera limité à quelques «clients et partenaires gérés», qui sont des personnes qui travaillent directement avec les équipes de compte de Microsoft. La société déclare que même si la technologie a un grand potentiel, elle peut être utilisée pour se faire passer pour. Afin de continuer à avoir accès à Neural Voice, tous les clients existants doivent soumettre un formulaire d’admission et être approuvés par Microsoft. Ils doivent être approuvés d’ici le 30 juin 2023, et s’ils ne sont pas sélectionnés, ces clients n’auront plus accès à Neural Voice.
Toujours en travaux
Malgré tout ce qui a été dit, Microsoft n’abandonne pas totalement sa technologie de reconnaissance faciale. L’annonce ne concerne que l’accès public. Sarah Bird, chef de projet principal du groupe chez Azure AI, a écrit sur la reconnaissance faciale responsable (s’ouvre dans un nouvel onglet). Et dans cet article, elle déclare que « Microsoft reconnaît que ces fonctionnalités peuvent être utiles lorsqu’elles sont utilisées pour un ensemble de scénarios d’accessibilité contrôlée ». L’un de ces scénarios, selon un représentant, est Seeing AI (s’ouvre dans un nouvel onglet)qui est une application iOS qui aide les malvoyants à identifier les personnes et les objets qui les entourent.
Il est bon de voir un autre géant de la technologie reconnaître les problèmes de reconnaissance faciale et le potentiel d’abus. IBM a fait quelque chose de similaire en 2020, bien que son approche soit plus absolue.
De retour en 2020, IBM a annoncé qu’il abandonnait le travail sur la reconnaissance faciale parce que l’entreprise craignait qu’elle ne soit utilisée à des fins de surveillance de masse. Voir ces deux titans de l’industrie se débarrasser de cette technologie est une victoire pour les critiques anti-reconnaissance faciale. Si vous souhaitez en savoir plus sur l’IA, TechRadar a récemment publié un article sur ce qu’elle peut faire pour la cybersécurité.