Les femmes dans l’IA : Sandra Watcher, professeur d’éthique des données à Oxford

Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.

Sandra Wachter est professeur et chercheuse principale en éthique des données, IA, robotique, algorithmes et réglementation à l’Oxford Internet Institute. Elle est également une ancienne membre de l’Institut Alan Turing, l’institut national britannique pour la science des données et l’IA.

Au Turing Institute, Watcher a évalué les aspects éthiques et juridiques de la science des données, mettant en évidence des cas où des algorithmes opaques sont devenus racistes et sexistes. Elle a également étudié les moyens d’auditer l’IA pour lutter contre la désinformation et promouvoir l’équité.

Questions et réponses

En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?

Je ne me souviens pas d’une époque de ma vie où je ne pensais pas que l’innovation et la technologie avaient un potentiel incroyable pour améliorer la vie des gens. Pourtant, je sais aussi que la technologie peut avoir des conséquences dévastatrices sur la vie des gens. C’est pourquoi j’ai toujours été déterminé – notamment en raison de mon sens aigu de la justice – à trouver un moyen de garantir ce juste milieu. Permettre l’innovation tout en protégeant les droits de l’homme.

J’ai toujours pensé que le droit avait un rôle très important à jouer. Le droit peut être un terrain d’entente qui protège les personnes tout en favorisant l’innovation. Le droit en tant que discipline m’est venu très naturellement. J’aime les défis, j’aime comprendre comment fonctionne un système, voir comment je peux le jouer, trouver des failles et ensuite les combler.

L’IA est une force incroyablement transformatrice. Il est mis en œuvre dans les domaines de la finance, de l’emploi, de la justice pénale, de l’immigration, de la santé et de l’art. Cela peut être bon ou mauvais. Et que ce soit bon ou mauvais est une question de conception et de politique. J’y ai été naturellement attiré car je pensais que le droit pouvait apporter une contribution significative pour garantir que l’innovation profite au plus grand nombre.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je pense que l’ouvrage dont je suis actuellement le plus fier est un article co-écrit avec Brent Mittelstadt (un philosophe), Chris Russell (un informaticien) et moi en tant qu’avocat.

Notre dernier travail sur les préjugés et l’équité, « L’injustice du machine learning équitable », a révélé l’impact néfaste de l’application de nombreuses mesures d’« équité de groupe » dans la pratique. Plus précisément, l’équité s’obtient en « nivelant vers le bas », c’est-à-dire en aggravant la situation de chacun, plutôt qu’en aidant les groupes défavorisés. Cette approche est très problématique dans le contexte des lois anti-discrimination de l’UE et du Royaume-Uni et est également troublante sur le plan éthique. Dans un article paru dans Wired, nous avons expliqué à quel point un nivellement par le bas peut être nocif dans la pratique : dans le domaine des soins de santé, par exemple, faire respecter l’équité de groupe pourrait signifier manquer plus de cas de cancer que ce qui est strictement nécessaire, tout en rendant le système globalement moins précis.

Pour nous, c’était terrifiant et c’est quelque chose qu’il est important de savoir pour les gens du monde de la technologie, de la politique et vraiment pour tout être humain. En fait, nous nous sommes engagés auprès des régulateurs britanniques et européens et avons partagé avec eux nos résultats alarmants. J’espère sincèrement que cela donnera aux décideurs politiques le levier nécessaire pour mettre en œuvre de nouvelles politiques empêchant l’IA de causer des dommages aussi graves.

Comment relever les défis du secteur technologique à prédominance masculine et, par extension, du secteur de l’IA à prédominance masculine ?

Ce qui est intéressant, c’est que je n’ai jamais considéré la technologie comme quelque chose qui « appartient » aux hommes. Ce n’est que lorsque j’ai commencé l’école que la société m’a dit que la technologie n’avait pas de place pour les gens comme moi. Je me souviens encore que lorsque j’avais 10 ans, le programme scolaire exigeait que les filles fassent du tricot et de la couture pendant que les garçons construisaient des nichoirs. Je voulais aussi construire un nichoir et j’ai demandé à être transféré dans la classe des garçons, mais mes professeurs m’ont dit que « les filles ne font pas ça ». Je suis même allé voir le directeur de l’école pour tenter d’annuler la décision, mais j’ai malheureusement échoué à ce moment-là.

Il est très difficile de lutter contre un stéréotype selon lequel il ne faut pas faire partie de cette communauté. J’aimerais pouvoir dire que de telles choses n’arrivent plus, mais ce n’est malheureusement pas vrai.

Cependant, j’ai eu une chance incroyable de travailler avec des alliés comme Brent Mittelstadt et Chris Russell. J’ai eu le privilège de rencontrer des mentors incroyables tels que mon doctorat. mon superviseur et moi disposons d’un réseau croissant de personnes de tous sexes partageant les mêmes idées et qui font de leur mieux pour tracer la voie à suivre afin d’améliorer la situation de tous ceux qui s’intéressent à la technologie.

Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?

Essayez avant tout de trouver des personnes et des alliés partageant les mêmes idées. Trouver vos collaborateurs et vous soutenir mutuellement est crucial. Mon travail le plus marquant a toujours consisté à discuter avec des personnes ouvertes d’esprit, issues d’horizons et de disciplines différents, pour résoudre les problèmes communs auxquels nous sommes confrontés. La sagesse acceptée ne peut à elle seule résoudre de nouveaux problèmes, c’est pourquoi les femmes et d’autres groupes qui ont historiquement été confrontés à des obstacles pour accéder à l’IA et à d’autres domaines technologiques disposent des outils nécessaires pour véritablement innover et proposer quelque chose de nouveau.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?

Je pense qu’il existe un large éventail de questions qui nécessitent une sérieuse considération juridique et politique. Pour n’en citer que quelques-uns, l’IA est en proie à des données biaisées qui conduisent à des résultats discriminatoires et injustes. L’IA est intrinsèquement opaque et difficile à comprendre, mais elle a pour mission de décider qui obtient un prêt, qui obtient un emploi, qui doit aller en prison et qui est autorisé à aller à l’université.

L’IA générative a des problèmes connexes, mais elle contribue également à la désinformation, est truffée d’hallucinations, viole la protection des données et les droits de propriété intellectuelle, met en danger l’emploi des personnes et contribue davantage au changement climatique que l’industrie aéronautique.

On n’a pas de temps à perdre; nous devons avoir abordé ces questions hier.

Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?

Je pense qu’il y a une tendance à croire un certain récit du type « L’IA est là et là pour rester, s’impliquer ou être laissée pour compte ». Je pense qu’il est important de réfléchir à qui promeut ce discours et à qui en profite. Il est important de se rappeler où se situe le véritable pouvoir. Le pouvoir n’appartient pas à ceux qui innovent, mais à ceux qui achètent et mettent en œuvre l’IA.

Les consommateurs et les entreprises devraient donc se demander : « Cette technologie m’aide-t-elle réellement et à quel égard ? Les brosses à dents électriques intègrent désormais une « IA ». C’est pour qui ? Qui a besoin de ça ? Qu’est-ce qui est amélioré ici ?

En d’autres termes, demandez-vous ce qui est cassé et ce qui doit être réparé et si l’IA peut réellement le réparer.

Ce type de réflexion modifiera le pouvoir de marché et, espérons-le, l’innovation s’orientera vers une direction axée sur l’utilité pour une communauté plutôt que sur le simple profit.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Avoir des lois en place qui exigent une IA responsable. Ici aussi, un discours très inutile et faux tend à prédominer : la réglementation étouffe l’innovation. Ce n’est pas vrai. La réglementation étouffe nocif innovation. Les bonnes lois favorisent et nourrissent l’innovation éthique ; c’est pourquoi nous disposons de voitures, d’avions, de trains et de ponts sûrs. La société ne sera pas perdante si la réglementation empêche la
création d’une IA qui viole les droits de l’homme.

Les réglementations en matière de circulation et de sécurité pour les voitures « étouffent l’innovation » et « limitent l’autonomie ». Ces lois empêchent les personnes de conduire sans permis, empêchent l’entrée sur le marché des voitures qui ne sont pas équipées de ceintures de sécurité et d’airbags et punissent les personnes qui ne conduisent pas conformément aux limites de vitesse. Imaginez à quoi ressemblerait le bilan de sécurité de l’industrie automobile si nous n’avions pas de lois pour réglementer les véhicules et leurs conducteurs. L’IA se trouve actuellement à un point d’inflexion similaire, et le lobbying de l’industrie lourde et la pression politique font que l’on ne sait toujours pas quelle voie elle empruntera.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

J’ai écrit il y a quelques années un article intitulé « Comment une IA équitable peut nous rendre plus riches ». Je crois profondément qu’une IA qui respecte les droits de l’homme et qui est impartiale, explicable et durable est non seulement la bonne chose à faire sur les plans juridique, éthique et moral, mais peut également être rentable.

J’espère vraiment que les investisseurs comprendront que s’ils encouragent une recherche et une innovation responsables, ils obtiendront également de meilleurs produits. De mauvaises données, de mauvais algorithmes et de mauvais choix de conception conduisent à des produits de moins bonne qualité. Même si je ne parviens pas à vous convaincre que vous devriez agir de manière éthique parce que c’est la bonne chose à faire, j’espère que vous verrez que l’éthique est également plus rentable. L’éthique doit être considérée comme un investissement et non comme un obstacle à surmonter.

Source-146