L’association à but non lucratif de Mutale Nkonde s’efforce de rendre l’IA moins biaisée

Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.

Mutale Nkonde est le PDG fondateur de l’organisation à but non lucratif AI for the People (AFP), qui cherche à accroître le nombre de voix noires dans le domaine de la technologie. Avant cela, elle a contribué à introduire les lois algorithmiques et Deep Fakes, en plus de la loi sur l’interdiction des barrières biométriques au logement, à la Chambre des représentants des États-Unis. Elle est actuellement chercheure invitée en politique à l’Oxford Internet Institute.

En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?

J’ai commencé à devenir curieux de savoir comment fonctionnaient les réseaux sociaux après qu’un de mes amis a posté que Google Pictures, le précurseur de Google Image, avait qualifié deux Noirs de gorilles en 2015. J’ai été impliqué dans de nombreux cercles de « Noirs dans la technologie », et nous avons été indignés, mais je n’ai pas commencé à comprendre que c’était à cause d’un biais algorithmique jusqu’à la publication de « Weapons of Math Destruction » en 2016. Cela m’a inspiré à commencer à postuler pour des bourses où je pourrais approfondir ce sujet et s’est terminé avec mon rôle de co-auteur d’un rapport intitulé Advancing Racial Literacy in Tech, publié en 2019. Cela a été remarqué par des membres de la Fondation McArthur et a lancé l’étape actuelle de ma carrière.

J’ai été attiré par les questions sur le racisme et la technologie parce qu’elles semblaient sous-étudiées et contre-intuitives. J’aime faire des choses que d’autres ne font pas, donc en apprendre davantage et diffuser ces informations au sein de la Silicon Valley m’a semblé très amusant. Depuis Advancing Racial Literacy in Tech, j’ai lancé une organisation à but non lucratif appelée AI for the People qui se concentre sur la promotion de politiques et de pratiques visant à réduire l’expression de préjugés algorithmiques.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis vraiment fier d’être le principal défenseur de l’Algorithmic Accountability Act, qui a été présenté pour la première fois à la Chambre des représentants en 2019. Il a fait de l’IA for the People un leader d’opinion clé sur la manière de développer des protocoles pour guider la conception, le déploiement et gouvernance des systèmes d’IA conformes aux lois locales de non-discrimination. Cela nous a valu d’être inclus dans les chaînes Schumer AI Insights en tant que membre d’un groupe consultatif pour diverses agences fédérales et de mener des travaux passionnants à venir sur la Colline.

Comment relever les défis de l’industrie technologique à prédominance masculine et, par extension, de l’industrie de l’IA à prédominance masculine ?

En fait, j’ai eu plus de problèmes avec les gardiens universitaires. La plupart des hommes avec lesquels je travaille dans des entreprises technologiques ont été chargés de développer des systèmes destinés à être utilisés sur les populations noires et autres populations non blanches, et il a donc été très facile de travailler avec eux. Principalement parce que j’agis en tant qu’expert externe qui peut soit valider, soit challenger les pratiques existantes.

Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?

Trouvez un créneau et devenez ensuite l’une des meilleures personnes au monde dans ce domaine. J’ai eu deux choses qui m’ont aidé à renforcer ma crédibilité. La première était que je plaidais en faveur de politiques visant à réduire les biais algorithmiques, tandis que les universitaires commençaient à discuter de la question. Cela m’a donné un avantage de premier arrivé dans « l’espace des solutions » et a fait d’AI for the People une autorité sur la Colline cinq ans avant le décret. La deuxième chose que je dirais est d’examiner vos lacunes et d’y remédier. AI for the People a quatre ans et j’ai acquis les diplômes universitaires dont j’ai besoin pour m’assurer de ne pas être exclu des espaces de leader d’opinion. J’ai hâte d’obtenir mon master à Columbia en mai et j’espère continuer mes recherches dans ce domaine.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?

Je réfléchis beaucoup aux stratégies qui peuvent être poursuivies pour impliquer davantage de Noirs et de personnes de couleur dans la construction, les tests et l’annotation des modèles fondateurs. En effet, les technologies ne valent que par leurs données de formation, alors comment créer des ensembles de données inclusifs à un moment où la DEI est attaquée, où les fonds de capital-risque noirs sont poursuivis pour avoir ciblé les fondateurs noirs et féminins, et où les universitaires noirs sont publiquement attaqués. , qui fera ce travail dans l’industrie ?

Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?

Je pense que nous devrions considérer le développement de l’IA comme une question géopolitique et voir comment les États-Unis pourraient devenir un leader en matière d’IA véritablement évolutive en créant des produits ayant des taux d’efficacité élevés sur des personnes de tous les groupes démographiques. En effet, la Chine est le seul autre grand producteur d’IA, mais elle fabrique des produits au sein d’une population largement homogène, et même si elle a une large empreinte en Afrique. Le secteur technologique américain peut dominer ce marché si des investissements agressifs sont réalisés dans le développement de technologies anti-préjugés.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Il doit y avoir une approche à plusieurs volets, mais une chose à considérer serait de poursuivre des questions de recherche centrées sur les personnes vivant en marge des marges. Le moyen le plus simple d’y parvenir est de prendre note des tendances culturelles, puis d’envisager leur impact sur le développement technologique. Par exemple, en posant des questions telles que : comment concevoir des technologies biométriques évolutives dans une société où de plus en plus de personnes s’identifient comme trans ou non binaires ?

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Les investisseurs devraient examiner les tendances démographiques et se demander si ces entreprises seront capables de vendre à une population de plus en plus noire et brune en raison de la baisse des taux de natalité des populations européennes à travers le monde ? Cela devrait les inciter à se poser des questions sur les biais algorithmiques lors du processus de due diligence, car cela deviendra de plus en plus un problème pour les consommateurs.

Il y a tellement de travail à faire pour requalifier notre main-d’œuvre à une époque où les systèmes d’IA effectuent des tâches à faibles enjeux et économisant du travail. Comment pouvons-nous garantir que les personnes vivant en marge de notre société soient incluses dans ces programmes ? Quelles informations peuvent-ils nous fournir sur la manière dont les systèmes d’IA fonctionnent et ne fonctionnent pas, et comment pouvons-nous utiliser ces informations pour garantir que l’IA est réellement destinée aux personnes ?

Source-146