Microsoft interdit aux services de police américains d’utiliser un outil d’IA d’entreprise pour la reconnaissance faciale

Microsoft a réaffirmé son interdiction aux services de police américains d’utiliser l’IA générative pour la reconnaissance faciale via Azure OpenAI Service, le package entièrement géré et axé sur l’entreprise de la société autour de la technologie OpenAI.

Le langage ajouté mercredi aux conditions de service d’Azure OpenAI Service interdit plus clairement que les intégrations avec Azure OpenAI Service soient utilisées « par ou pour » les services de police pour la reconnaissance faciale aux États-Unis, y compris les intégrations avec l’analyse d’images actuelle – et éventuellement future – d’OpenAI. des modèles.

Un nouveau point distinct couvre « toutes les forces de l’ordre dans le monde » et interdit explicitement l’utilisation de « la technologie de reconnaissance faciale en temps réel » sur les caméras mobiles, comme les caméras corporelles et les dashcams, pour tenter d’identifier une personne dans un environnement « incontrôlé ». « environnements « sauvages ».

Les changements de politique surviennent une semaine après qu’Axon, un fabricant de produits technologiques et d’armes pour l’armée et les forces de l’ordre, a annoncé un nouveau produit qui exploite le modèle de texte génératif GPT-4 d’OpenAI pour résumer l’audio des caméras corporelles. Les critiques n’ont pas tardé à souligner les pièges potentiels, comme les hallucinations (même les meilleurs modèles d’IA générative d’aujourd’hui inventent des faits) et les préjugés raciaux introduits à partir des données de formation (ce qui est particulièrement préoccupant étant donné que les personnes de couleur sont beaucoup plus susceptibles d’être arrêtées par la police). que leurs pairs blancs).

On ne sait pas si Axon utilisait GPT-4 via Azure OpenAI Service et, si tel est le cas, si la politique mise à jour était une réponse au lancement du produit d’Axon. OpenAI avait auparavant restreint l’utilisation de ses modèles pour la reconnaissance faciale via ses API. Nous avons contacté Axon, Microsoft et OpenAI et mettrons à jour cet article si nous recevons une réponse.

Les nouvelles conditions laissent une marge de manœuvre à Microsoft.

L’interdiction totale de l’utilisation d’Azure OpenAI Service concerne uniquement les États-Unis., pas international, police. Et cela ne couvre pas la reconnaissance faciale effectuée avec Stationnaire caméras dans contrôlé environnements, comme un back-office (même si les termes interdisent toute utilisation de la reconnaissance faciale par la police américaine).

Cela correspond à l’approche récente de Microsoft et de son partenaire proche OpenAI en matière de contrats d’application de la loi et de défense liés à l’IA.

En janvier, un article de Bloomberg a révélé qu’OpenAI travaillait avec le Pentagone sur un certain nombre de projets, notamment des capacités de cybersécurité, ce qui s’écarte de l’interdiction antérieure de la startup de fournir son IA aux militaires. Ailleurs, Microsoft a proposé d’utiliser l’outil de génération d’images d’OpenAI, DALL-E, pour aider le ministère de la Défense (DoD) à créer un logiciel permettant d’exécuter des opérations militaires, selon The Intercept.

Azure OpenAI Service est devenu disponible dans le produit Azure Government de Microsoft en février, ajoutant des fonctionnalités supplémentaires de conformité et de gestion destinées aux agences gouvernementales, y compris les forces de l’ordre. Dans un article de blog, Candice Ling, vice-présidente directrice de la division gouvernementale Microsoft Federal, a promis qu’Azure OpenAI Service serait « soumis pour autorisation supplémentaire » au DoD pour les charges de travail prenant en charge les missions du DoD.

Mise à jour: Après publication, Microsoft a déclaré que sa modification initiale des conditions d’utilisation contenait une erreur et qu’en fait, l’interdiction ne s’applique qu’à la reconnaissance faciale aux États-Unis. Il ne s’agit pas d’une interdiction générale pour les services de police d’utiliser le service.

Source-146