Les députés appellent à une « pause nationale » sur l’utilisation de la reconnaissance faciale, en particulier par la police

Contenu de l’article

Le comité d’éthique de la Chambre des communes demande au gouvernement fédéral de mettre en place des restrictions et des lois sur l’utilisation de la technologie de reconnaissance faciale, y compris un moratoire sur son utilisation incontrôlée par la police.

Contenu de l’article

Dans un nouveau rapport publié mardi, les députés ont déclaré que le gouvernement devrait mettre fin à « l’utilisation de la technologie de reconnaissance faciale par les services de police (fédéraux) et les industries canadiennes » à moins que ces entités ne puissent confirmer qu’elles travaillent avec le commissaire à la protection de la vie privée ou qu’elles disposent d’une autorisation judiciaire.

Contenu de l’article

La législation actuelle du Canada ne réglemente pas adéquatement les technologies de reconnaissance faciale ou d’intelligence artificielle, selon le rapport. Il a averti que sans règles adéquates, ces technologies « pourraient causer des dommages irréparables à certaines personnes ».

« Puisqu’un tel cadre législatif n’existe pas à l’époque, une pause nationale devrait être imposée à l’utilisation du TRF, notamment en ce qui concerne les services de police.

Le comité a entendu 33 témoins, et le rapport a noté qu’une «majorité» d’entre eux recommandait d’imposer un moratoire sur l’utilisation de la technologie de reconnaissance faciale au Canada.

Contenu de l’article

Les aéroports et les industries devraient être tenus de divulguer publiquement leur utilisation de la reconnaissance faciale, tandis que le Comité des parlementaires sur la sécurité nationale et le renseignement devrait examiner toute utilisation militaire ou de renseignement de la technologie, ont-ils déclaré.

Tamir Israel, avocat à la Clinique d’intérêt public et de politique d’Internet du Canada Samuelson-Glushko, a témoigné devant le comité que les voyageurs pourraient ne pas savoir qu’ils sont soumis à la technologie, comme au mécanisme de contrôle douanier à l’aéroport Pearson de Toronto.

Le gouvernement devrait divulguer ses propres acquisitions de la technologie et «créer un registre public d’IA dans lequel tous les outils algorithmiques utilisés par toute entité opérant au Canada sont répertoriés», ont déclaré les députés.

L’avocate spécialisée dans la protection de la vie privée Carole Piovesan a déclaré au comité que si les discussions sur le FRT « ont tendance à se concentrer sur la sécurité et la surveillance », la technologie est également utilisée par d’autres secteurs, notamment les soins de santé, la vente au détail et le commerce électronique, ainsi que les télécommunications et l’informatique.

La technologie est également plus précise pour identifier les individus blancs et moins précise pour identifier les personnes de couleur. Les chercheurs ont découvert qu’il « identifie à tort plus d’une femme sur trois à la peau plus foncée, mais qu’il est précis à 99% pour les hommes blancs », indique le rapport, citant Cynthia Khoo, chercheuse à la Georgetown Law School.

Source link-46