Les femmes dans l’IA : Urvashi Aneja étudie l’impact social de l’IA en Inde

Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.

Urvashi Aneja est le directeur fondateur du Digital Futures Lab, un effort de recherche interdisciplinaire qui cherche à examiner l’interaction entre la technologie et la société dans les pays du Sud. Elle est également chercheuse associée au programme Asie-Pacifique de Chatham House, un institut politique indépendant basé à Londres.

Les recherches actuelles d’Aneja portent sur l’impact sociétal des systèmes de prise de décision algorithmiques en Inde, où elle est basée, et sur la gouvernance des plateformes. Aneja a récemment rédigé une étude sur les utilisations actuelles de l’IA en Inde, examinant les cas d’utilisation dans différents secteurs, notamment la police et l’agriculture.

Questions et réponses

En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?

J’ai commencé ma carrière dans la recherche et l’engagement politique dans le secteur humanitaire. Pendant plusieurs années, j’ai étudié l’utilisation des technologies numériques lors de crises prolongées dans des contextes à faibles ressources. J’ai rapidement appris qu’il y a une frontière ténue entre innovation et expérimentation, en particulier lorsqu’il s’agit de populations vulnérables. Les enseignements de cette expérience m’ont profondément préoccupé par les discours techno-solutionnistes autour du potentiel des technologies numériques, en particulier de l’IA. Dans le même temps, l’Inde avait lancé sa mission Digital India et sa stratégie nationale pour l’intelligence artificielle. J’ai été troublé par les discours dominants qui considéraient l’IA comme une solution miracle aux problèmes socio-économiques complexes de l’Inde, ainsi que par l’absence totale de discours critique sur la question.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis fier que nous ayons pu attirer l’attention sur l’économie politique de la production de l’IA ainsi que sur ses implications plus larges en matière de justice sociale, de relations de travail et de durabilité environnementale. Très souvent, les discours sur l’IA se concentrent sur les gains d’applications spécifiques et, au mieux, sur les avantages et les risques de cette application. Mais on ne voit pas la forêt derrière les arbres : une optique axée sur le produit occulte les impacts structurels plus larges, tels que la contribution de l’IA à l’injustice épistémique, à la déqualification du travail et à la perpétuation d’un pouvoir inconcevable dans le monde majoritaire. Je suis également fier que nous ayons pu traduire ces préoccupations en politiques et réglementations concrètes, qu’il s’agisse de concevoir des lignes directrices en matière de marchés publics pour l’utilisation de l’IA dans le secteur public ou de fournir des preuves dans le cadre de procédures judiciaires contre les grandes entreprises technologiques du Sud.

Comment relever les défis d’un secteur technologique à prédominance masculine et, par extension, de celui de l’IA, à prédominance masculine ?

En laissant mon travail parler. Et en se demandant sans cesse : pourquoi ?

Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?

Développez vos connaissances et votre expertise. Assurez-vous que votre compréhension technique des problèmes est bonne, mais ne vous concentrez pas uniquement sur l’IA. Au lieu de cela, étudiez largement afin de pouvoir établir des liens entre les domaines et les disciplines. Trop peu de gens comprennent l’IA comme un système socio-technique issu de l’histoire et de la culture.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?

Je pense que le problème le plus urgent est la concentration du pouvoir au sein d’une poignée d’entreprises technologiques. Bien qu’il ne soit pas nouveau, ce problème est exacerbé par les nouveaux développements dans les grands modèles de langage et l’IA générative. Beaucoup de ces entreprises attisent désormais les craintes quant aux risques existentiels de l’IA. Non seulement cela détourne l’attention des préjudices existants, mais cela positionne également ces entreprises comme nécessaires pour lutter contre les préjudices liés à l’IA. À bien des égards, nous perdons une partie de l’élan suscité par la « clash technologique » qui a surgi à la suite de l’épisode de Cambridge Analytica. Dans des pays comme l’Inde, je crains également que l’IA ne soit considérée comme nécessaire au développement socio-économique, offrant ainsi l’opportunité de surmonter les défis persistants. Non seulement cela exagère le potentiel de l’IA, mais cela ignore également le fait qu’il n’est pas possible d’ignorer le développement institutionnel nécessaire à l’élaboration de mesures de protection. Un autre problème que nous ne prenons pas suffisamment au sérieux concerne les impacts environnementaux de l’IA : la trajectoire actuelle risque d’être insoutenable. Dans l’écosystème actuel, il est peu probable que les personnes les plus vulnérables aux impacts du changement climatique soient les bénéficiaires de l’innovation en matière d’IA.

Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?

Les utilisateurs doivent être conscients que l’IA n’est pas magique, ni rien de proche de l’intelligence humaine. Il s’agit d’une forme de statistique informatique qui a de nombreuses utilisations bénéfiques, mais qui n’est en fin de compte qu’une supposition probabiliste basée sur des modèles historiques ou antérieurs. Je suis sûr qu’il existe plusieurs autres problèmes dont les utilisateurs doivent également être conscients, mais je tiens à vous avertir que nous devons nous méfier des tentatives de transfert de responsabilité en aval, sur les utilisateurs. Je l’ai constaté plus récemment avec l’utilisation d’outils d’IA générative dans des contextes à faibles ressources dans le monde majoritaire : plutôt que de se méfier de ces technologies expérimentales et peu fiables, l’accent est souvent mis sur la manière dont les utilisateurs finaux, tels que les agriculteurs ou les travailleurs de première ligne, ont recours à des outils d’IA génératifs. les agents de santé doivent perfectionner leurs compétences.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Cela doit commencer par évaluer le besoin de l’IA en premier lieu. Existe-t-il un problème que l’IA peut résoudre de manière unique ou existe-t-il d’autres moyens possibles ? Et si nous voulons construire l’IA, un modèle complexe de boîte noire est-il nécessaire, ou un modèle logique plus simple pourrait-il tout aussi bien faire l’affaire ? Nous devons également recentrer les connaissances du domaine sur la construction de l’IA. Dans l’obsession du Big Data, nous avons sacrifié la théorie : nous devons construire une théorie du changement basée sur la connaissance du domaine et cela devrait être la base des modèles que nous construisons, et pas seulement du Big Data. Cela s’ajoute bien entendu à des questions clés telles que la participation, les équipes inclusives, les droits du travail, etc.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Les investisseurs doivent prendre en compte l’ensemble du cycle de vie de la production de l’IA, et pas seulement les résultats des applications d’IA. Cela nécessiterait d’examiner une série de questions telles que la juste valeur du travail, les impacts environnementaux, le modèle économique de l’entreprise (c’est-à-dire est-il basé sur une surveillance commerciale ?) et les mesures de responsabilisation internes au sein de l’entreprise. Les investisseurs doivent également demander des preuves de meilleure qualité et plus rigoureuses sur les prétendus avantages de l’IA.

Source-146