Les femmes dans l’IA : Allison Cohen sur la construction de projets d’IA responsables

Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch a publié une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publions ces articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.

À l’honneur aujourd’hui : Allison Cohen, gestionnaire principale de projets en IA appliquée chez Mila, une communauté québécoise de plus de 1 200 chercheurs spécialisés en IA et en apprentissage automatique. Elle travaille avec des chercheurs, des spécialistes des sciences sociales et des partenaires externes pour déployer des projets d’IA socialement bénéfiques. Le portefeuille de travaux de Cohen comprend un outil qui détecte la misogynie, une application pour identifier les activités en ligne des victimes présumées de la traite des êtres humains et une application agricole pour recommander des pratiques agricoles durables au Rwanda.

Auparavant, Cohen était co-responsable de la découverte de médicaments pour l’IA au sein du Partenariat mondial sur l’intelligence artificielle, une organisation visant à guider le développement et l’utilisation responsables de l’IA. Elle a également été consultante en stratégie d’IA chez Deloitte et consultante de projets au Center for International Digital Policy, un groupe de réflexion canadien indépendant.

Questions et réponses

En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?

La prise de conscience que nous pouvions tout modéliser mathématiquement, depuis la reconnaissance des visages jusqu’à la négociation d’accords commerciaux, a changé ma façon de voir le monde, ce qui a rendu l’IA si convaincante à mes yeux. Ironiquement, maintenant que je travaille dans le domaine de l’IA, je vois que nous ne pouvons pas – et dans de nombreux cas ne devrions pas – capturer ce genre de phénomènes avec des algorithmes.

J’ai découvert ce domaine alors que je complétais une maîtrise en affaires mondiales à l’Université de Toronto. Le programme a été conçu pour apprendre aux étudiants à naviguer dans les systèmes affectant l’ordre mondial – de la macroéconomie au droit international en passant par la psychologie humaine. Cependant, au fur et à mesure que j’en apprenais davantage sur l’IA, j’ai réalisé à quel point elle deviendrait vitale pour la politique mondiale et combien il était important de me renseigner sur le sujet.

Ce qui m’a permis de percer dans le domaine, c’est un concours de rédaction d’essais. Pour le concours, j’ai écrit un article décrivant comment les drogues psychédéliques aideraient les humains à rester compétitifs sur un marché du travail criblé d’IA, ce qui m’a permis d’assister au Symposium de Saint-Gall en 2018 (c’était un article d’écriture créative). Mon invitation et ma participation subséquente à cet événement m’ont donné la confiance nécessaire pour continuer à poursuivre mon intérêt pour le domaine.

De quel travail êtes-vous le plus fier dans le domaine de l’IA ?

L’un des projets que j’ai dirigés consistait à créer un ensemble de données contenant des exemples d’expressions subtiles et manifestes de préjugés à l’égard des femmes.

Pour ce projet, il était crucial de recruter et de gérer une équipe multidisciplinaire composée d’experts en traitement du langage naturel, de linguistes et de spécialistes en études de genre tout au long du cycle de vie du projet. C’est quelque chose dont je suis assez fier. J’ai appris par moi-même pourquoi ce processus est fondamental pour créer des applications responsables, et aussi pourquoi il n’est pas suffisamment fait : c’est un travail difficile ! Si vous pouvez aider chacune de ces parties prenantes à communiquer efficacement entre les disciplines, vous pouvez faciliter un travail qui allie des décennies de tradition des sciences sociales et des développements de pointe en informatique.

Je suis également fier que ce projet ait été bien accueilli par la communauté. L’un de nos articles a été mis en avant lors de l’atelier de modélisation du langage socialement responsable organisé lors de l’une des principales conférences sur l’IA, NeurIPS. En outre, ce travail a inspiré un processus interdisciplinaire similaire géré par AI Suède, qui a adapté le travail aux notions et expressions suédoises de la misogynie.

Comment relever les défis de l’industrie technologique à prédominance masculine et, par extension, de l’industrie de l’IA à prédominance masculine ?

Il est regrettable que, dans une industrie aussi avant-gardiste, nous soyons encore témoins d’une dynamique de genre problématique. Cela n’affecte pas seulement les femmes : nous sommes tous perdants. J’ai été très inspirée par un concept appelé « théorie du point de vue féministe » que j’ai découvert dans le livre de Sasha Costanza-Chock, « ​​Design Justice ».

La théorie affirme que les communautés marginalisées, dont les connaissances et les expériences ne bénéficient pas des mêmes privilèges que les autres, ont une conscience du monde qui peut apporter un changement juste et inclusif. Bien entendu, toutes les communautés marginalisées ne sont pas identiques, pas plus que les expériences des individus au sein de ces communautés.

Cela dit, les divers points de vue de ces groupes sont essentiels pour nous aider à surmonter, à défier et à démanteler toutes sortes de défis structurels et d’iniquités. C’est pourquoi le fait de ne pas inclure les femmes peut maintenir l’exclusion du domaine de l’IA pour une partie encore plus large de la population, renforçant ainsi les dynamiques de pouvoir en dehors de ce domaine.

En ce qui concerne la façon dont j’ai géré une industrie dominée par les hommes, j’ai trouvé des alliés très importants. Ces alliés sont le fruit de relations solides et de confiance. Par exemple, j’ai eu la chance d’avoir des amis comme Peter Kurzwelly, qui a partagé son expertise en matière de podcasting pour me soutenir dans la création d’un podcast dirigé et centré sur les femmes intitulé « Le monde que nous construisons ». Ce podcast nous permet de valoriser le travail d’encore plus de femmes et de personnes non binaires dans le domaine de l’IA.

Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?

Trouvez une porte ouverte. Il n’est pas nécessaire que ce soit payé, que ce soit une carrière et qu’il ne soit même pas nécessaire que cela corresponde à votre parcours ou à votre expérience. Si vous parvenez à trouver une ouverture, vous pouvez l’utiliser pour affiner votre voix dans l’espace et construire à partir de là. Si vous faites du bénévolat, donnez le meilleur de vous-même : cela vous permettra de vous démarquer et, espérons-le, d’être payé pour votre travail le plus rapidement possible.

Bien sûr, c’est un privilège de pouvoir faire du bénévolat, ce que je tiens également à reconnaître.

Lorsque j’ai perdu mon emploi pendant la pandémie et que le chômage atteignait un niveau record au Canada, très peu d’entreprises cherchaient à embaucher des talents en IA, et celles qui embauchaient ne recherchaient pas d’étudiants en affaires mondiales possédant huit mois d’expérience en conseil. . En postulant à un emploi, j’ai commencé à faire du bénévolat auprès d’une organisation d’éthique de l’IA.

L’un des projets sur lesquels j’ai travaillé en tant que bénévole consistait à déterminer s’il fallait protéger les droits d’auteur pour les œuvres d’art produites par l’IA. J’ai contacté un avocat d’un cabinet d’avocats canadien en IA pour mieux comprendre le domaine. Elle m’a mis en contact avec quelqu’un du CIFAR, qui m’a mis en contact avec Benjamin Prud’homme, directeur exécutif de l’équipe AI for Humanity de Mila. C’est incroyable de penser qu’à travers une série d’échanges sur l’art de l’IA, j’ai découvert une opportunité de carrière qui a depuis transformé ma vie.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?

J’ai trois réponses à cette question qui sont quelque peu interconnectées. Je pense que nous devons comprendre :

  1. Comment concilier le fait que l’IA est conçue pour être évolutive tout en garantissant que les outils que nous construisons sont adaptés aux connaissances, à l’expérience et aux besoins locaux.
  2. Si nous voulons construire des outils adaptés au contexte local, nous devrons intégrer des anthropologues et des sociologues dans le processus de conception de l’IA. Mais il existe une multitude de structures d’incitation et d’autres obstacles qui empêchent une collaboration interdisciplinaire significative. Comment pouvons-nous surmonter cela ?
  3. Comment pouvons-nous influencer le processus de conception encore plus profondément que la simple intégration d’une expertise multidisciplinaire ? Plus précisément, comment pouvons-nous modifier les incitations de manière à concevoir des outils conçus pour ceux qui en ont le plus besoin plutôt que pour ceux dont les données ou les activités sont les plus rentables ?

Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?

L’exploitation du travail est l’un des problèmes qui, à mon avis, ne bénéficie pas d’une couverture suffisante. Il existe de nombreux modèles d’IA qui apprennent à partir de données étiquetées à l’aide de méthodes d’apprentissage supervisé. Lorsque le modèle s’appuie sur des données étiquetées, certaines personnes doivent effectuer ce marquage (c’est-à-dire que quelqu’un ajoute l’étiquette « chat » à l’image d’un chat). Ces personnes (annotateurs) font souvent l’objet de pratiques d’exploitation. Pour les modèles qui ne nécessitent pas que les données soient étiquetées pendant le processus de formation (comme c’est le cas avec certaines IA génératives et d’autres modèles de base), les ensembles de données peuvent toujours être construits de manière exploitante dans la mesure où les développeurs n’obtiennent souvent pas de consentement ni ne fournissent de compensation. ou crédit aux créateurs de données.

Je recommanderais de consulter le travail de Krystal Kauffman, que j’étais si heureux de voir figurer dans cette série TechCrunch. Elle progresse dans la défense des droits du travail des annotateurs, notamment un salaire décent, la fin des pratiques de « rejet massif » et des pratiques d’engagement qui s’alignent sur les droits humains fondamentaux (en réponse à des développements tels que la surveillance intrusive).

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Les gens se tournent souvent vers les principes éthiques de l’IA pour affirmer que leur technologie est responsable. Malheureusement, la réflexion éthique ne peut commencer qu’après qu’un certain nombre de décisions ont déjà été prises, notamment :

  1. Que construisez-vous ?
  2. Comment le construisez-vous ?
  3. Comment sera-t-il déployé ?

Si vous attendez que ces décisions soient prises, vous manquerez d’innombrables occasions de créer une technologie responsable.

D’après mon expérience, la meilleure façon de construire une IA responsable est de connaître – dès les premières étapes de votre processus – la façon dont votre problème est défini et les intérêts qu’il satisfait ; comment l’orientation soutient ou remet en question les dynamiques de pouvoir préexistantes ; et quelles communautés seront habilitées ou privées de leur pouvoir grâce à l’utilisation de l’IA.

Si vous souhaitez créer des solutions significatives, vous devez naviguer de manière réfléchie dans ces systèmes de pouvoir.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Renseignez-vous sur les valeurs de l’équipe. Si les valeurs sont définies, au moins en partie, par la communauté locale et qu’il existe un certain degré de responsabilité envers cette communauté, il est plus probable que l’équipe intègrera des pratiques responsables.

Source-146