lundi, novembre 18, 2024

Women in AI : Rashida Richardson, avocate principale chez Mastercard, se concentrant sur l’IA et la confidentialité

Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.

Rashida Richardson est avocate principale chez Mastercard, où elle s’occupe des questions juridiques liées à la vie privée et à la protection des données, en plus de l’IA.

Ancien directeur de la recherche politique à l’AI Now Institute, l’institut de recherche qui étudie les implications sociales de l’IA, et conseiller politique principal pour les données et la démocratie au Bureau de la politique scientifique et technologique de la Maison Blanche, Richardson a été professeur adjoint de droit. et sciences politiques à la Northeastern University depuis 2021. Là, elle se spécialise dans la race et les technologies émergentes.

Rashida Richardson, avocate principale, IA chez Mastercard

En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?

J’ai une formation d’avocat en droits civiques, où j’ai travaillé sur une série de questions, notamment la vie privée, la surveillance, la déségrégation scolaire, le logement équitable et la réforme de la justice pénale. En travaillant sur ces questions, j’ai été témoin des premières étapes de l’adoption et de l’expérimentation par le gouvernement des technologies basées sur l’IA. Dans certains cas, les risques et les préoccupations étaient évidents, et j’ai contribué à diriger un certain nombre d’efforts en matière de politique technologique dans l’État et la ville de New York afin de créer une surveillance, une évaluation ou d’autres garanties plus strictes. Dans d’autres cas, j’étais intrinsèquement sceptique quant aux avantages ou aux allégations d’efficacité des solutions liées à l’IA, en particulier celles commercialisées pour résoudre ou atténuer des problèmes structurels comme la déségrégation scolaire ou le logement équitable.

Mon expérience antérieure m’a également rendu extrêmement conscient des lacunes politiques et réglementaires existantes. J’ai rapidement remarqué qu’il y avait peu de personnes dans le domaine de l’IA ayant mon parcours et mon expérience, ou proposant l’analyse et les interventions potentielles que je développais dans le cadre de mon plaidoyer politique et de mon travail universitaire. J’ai donc réalisé qu’il s’agissait d’un domaine et d’un espace où je pouvais apporter des contributions significatives et également mettre à profit mon expérience antérieure de manière unique.

J’ai décidé de concentrer ma pratique juridique et mes travaux universitaires sur l’IA, en particulier sur les questions politiques et juridiques concernant son développement et son utilisation.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis heureux que cette question reçoive enfin davantage d’attention de la part de toutes les parties prenantes, mais particulièrement des décideurs politiques. Aux États-Unis, il y a une longue histoire de lois qui rattrapent leur retard ou ne traitent jamais de manière adéquate les questions de politique technologique, et il y a cinq ou six ans, j’avais l’impression que cela pourrait être le sort de l’IA, car je me souviens d’avoir dialogué avec les décideurs politiques, à la fois dans des contextes formels comme des audiences du Sénat américain ou des forums éducatifs, et la plupart des décideurs politiques ont traité la question comme un sujet obscur ou comme quelque chose qui ne nécessitait pas d’urgence malgré l’adoption rapide de l’IA dans tous les secteurs. Pourtant, au cours de la dernière année, un changement important s’est produit, à tel point que l’IA est devenue une caractéristique constante du discours public et que les décideurs politiques ont mieux compris les enjeux et la nécessité d’une action éclairée. Je pense également que les parties prenantes de tous les secteurs, y compris l’industrie, reconnaissent que l’IA présente des avantages et des risques uniques qui ne peuvent peut-être pas être résolus par des pratiques conventionnelles, de sorte que les interventions politiques sont davantage reconnues – ou du moins appréciées.

Comment relever les défis d’un secteur technologique à prédominance masculine et, par extension, de celui de l’IA, à prédominance masculine ?

En tant que femme noire, j’ai l’habitude d’être une minorité dans de nombreux domaines, et même si les industries de l’IA et de la technologie sont des domaines extrêmement homogènes, elles ne sont pas nouvelles ni si différentes d’autres domaines au pouvoir et à la richesse immenses, comme la finance et l’économie. profession légale. Je pense donc que mon travail antérieur et mon expérience vécue m’ont aidé à me préparer à cette industrie, car je suis hyper conscient des idées préconçues que je devrai peut-être surmonter et des dynamiques difficiles que je rencontrerai probablement. Je m’appuie sur mon expérience pour naviguer, car j’ai un parcours et une perspective uniques, ayant travaillé sur l’IA dans tous les secteurs : le monde universitaire, l’industrie, le gouvernement et la société civile.

Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?

Deux problèmes clés dont les utilisateurs d’IA doivent être conscients sont : (1) une meilleure compréhension des capacités et des limites des différents modèles et applications d’IA, et (2) la grande incertitude quant à la capacité des lois actuelles et futures à résoudre les conflits ou certaines préoccupations. concernant l’utilisation de l’IA.

Sur le premier point, il existe un déséquilibre dans le discours public et dans la compréhension des avantages et du potentiel des applications de l’IA, ainsi que de leurs capacités et limites réelles. Ce problème est aggravé par le fait que les utilisateurs d’IA peuvent ne pas apprécier la différence entre les applications et les modèles d’IA. La sensibilisation du public à l’IA s’est accrue avec la sortie de ChatGPT et d’autres systèmes d’IA générative disponibles dans le commerce, mais ces modèles d’IA sont distincts des autres types de modèles d’IA avec lesquels les consommateurs s’engagent depuis des années, comme les systèmes de recommandation. Lorsque le débat sur l’IA est confus – lorsque la technologie est traitée comme monolithique – cela tend à fausser la compréhension du public sur ce que chaque type d’application ou de modèle peut réellement faire, ainsi que sur les risques associés à leurs limites ou défauts.

Sur le deuxième point, la législation et la politique concernant le développement et l’utilisation de l’IA évoluent. Bien qu’il existe diverses lois (par exemple, droits civils, protection des consommateurs, concurrence, prêts équitables) qui s’appliquent déjà à l’utilisation de l’IA, nous commençons à voir comment ces lois seront appliquées et interprétées. Nous en sommes également aux premiers stades de l’élaboration de politiques spécifiquement adaptées à l’IA – mais ce que j’ai remarqué à la fois dans la pratique juridique et dans mes recherches, c’est qu’il y a des domaines qui restent non résolus par ce patchwork juridique et ne le seront que lorsqu’il y aura plus de solutions. litiges impliquant le développement et l’utilisation de l’IA. De manière générale, je ne pense pas que l’on comprenne très bien l’état actuel du droit et de l’IA, et comment l’incertitude juridique concernant des questions clés telles que la responsabilité peut signifier que certains risques, préjudices et litiges peuvent rester en suspens jusqu’à des années de litiges entre entreprises ou entre régulateurs. et les entreprises produisent un précédent juridique qui peut apporter une certaine clarté.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Le défi lié à la construction d’une IA responsable réside dans le fait que bon nombre des piliers sous-jacents d’une IA responsable, tels que l’équité et la sécurité, reposent sur des valeurs normatives – pour lesquelles il n’existe pas de définition commune ni de compréhension de ces concepts. On pourrait donc vraisemblablement agir de manière responsable tout en causant du tort, ou bien agir de manière malveillante et s’appuyer sur le fait qu’il n’existe pas de normes communes à ces concepts pour revendiquer une action de bonne foi. Jusqu’à ce qu’il y ait des normes mondiales ou un cadre commun sur ce qui est censé construire l’IA de manière responsable, la meilleure façon de poursuivre cet objectif est d’avoir des principes, des politiques, des orientations et des normes clairs pour le développement et l’utilisation responsable de l’IA qui sont appliqués par une surveillance interne. l’analyse comparative et d’autres pratiques de gouvernance.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Les investisseurs peuvent faire un meilleur travail en définissant ou au moins en clarifiant ce qui constitue le développement ou l’utilisation responsable de l’IA, et en prenant des mesures lorsque les pratiques des acteurs de l’IA ne s’alignent pas. Actuellement, les termes IA « responsable » ou « digne de confiance » sont en fait des termes marketing car il n’existe pas de normes claires pour évaluer les pratiques des acteurs de l’IA. Même si certaines réglementations naissantes, comme la loi européenne sur l’IA, établiront certaines exigences en matière de gouvernance et de surveillance, il existe encore des domaines dans lesquels les acteurs de l’IA peuvent être incités par les investisseurs à développer de meilleures pratiques centrées sur les valeurs humaines ou le bien sociétal. Cependant, si les investisseurs ne sont pas disposés à agir en cas de désalignement ou de présence de mauvais acteurs, ils ne seront guère incités à ajuster leur comportement ou leurs pratiques.

Source-146

- Advertisement -

Latest