Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.
Kristine Gloria a auparavant dirigé l’Initiative sur les technologies émergentes et intelligentes de l’Aspen Institute – l’Aspen Institute étant le groupe de réflexion basé à Washington et axé sur le leadership fondé sur les valeurs et l’expertise politique. Gloria est titulaire d’un doctorat en sciences cognitives et d’une maîtrise en études des médias, et ses travaux antérieurs comprennent des recherches au sein de l’Internet Policy Research Initiative du MIT, du Startup Policy Lab basé à San Francisco et du Center for Society, Technology and Policy de l’UC Berkeley.
Questions et réponses
En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?
Pour être franc, je n’ai certainement pas commencé ma carrière dans le but de travailler dans l’IA. Premièrement, j’étais vraiment intéressé à comprendre l’intersection de la technologie et des politiques publiques. À l’époque, je travaillais sur ma maîtrise en études des médias, explorant des idées autour de la culture du remix et de la propriété intellectuelle. Je vivais et travaillais à Washington en tant que boursier Archer pour la New America Foundation. Un jour, je me souviens très bien d’être assis dans une salle remplie de décideurs publics et de politiciens qui utilisaient des termes qui ne correspondaient pas tout à fait à leurs définitions techniques réelles. C’est peu de temps après cette réunion que j’ai réalisé que pour faire avancer les politiques publiques, j’avais besoin de qualifications. Je suis retourné à l’école et j’ai obtenu mon doctorat en sciences cognitives avec une concentration sur les technologies sémantiques et la vie privée des consommateurs en ligne. J’ai eu beaucoup de chance d’avoir trouvé un mentor, un conseiller et un laboratoire qui encourageaient une compréhension interdisciplinaire de la façon dont la technologie est conçue et construite. J’ai donc affiné mes compétences techniques tout en développant un point de vue plus critique sur les nombreuses façons dont la technologie interfère avec nos vies. Dans mon rôle de directeur de l’IA à l’Aspen Institute, j’ai ensuite eu le privilège d’imaginer, de m’engager et de collaborer avec certains des plus grands penseurs de l’IA. Et je me suis toujours retrouvé attiré par ceux qui prenaient le temps de se demander profondément si et comment l’IA aurait un impact sur notre vie quotidienne.
Au fil des années, j’ai dirigé diverses initiatives en matière d’IA, et l’une des plus significatives vient tout juste de démarrer. Aujourd’hui, en tant que membre fondateur de l’équipe et directeur des partenariats stratégiques et de l’innovation au sein d’une nouvelle organisation à but non lucratif, Young Futures, je suis ravi d’intégrer ce type de réflexion pour réaliser notre mission consistant à faire du monde numérique un endroit où il est plus facile de grandir. Plus précisément, alors que l’IA générative devient un enjeu de table et que de nouvelles technologies apparaissent en ligne, il est à la fois urgent et essentiel que nous aidions les préadolescents, les adolescents et leurs unités de soutien à naviguer ensemble dans ce vaste désert numérique.
De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?
Je suis très fier de deux initiatives. Le premier est mon travail visant à faire ressortir les tensions, les pièges et les effets de l’IA sur les communautés marginalisées. Publié en 2021, « Power and Progress in Algorithmic Bias » articule des mois d’engagement des parties prenantes et de recherche autour de cette question. Dans le rapport, nous posons l’une de mes questions préférées de tous les temps : « Comment pouvons-nous (opérateurs de données et algorithmiques) refondre nos propres modèles pour prévoir un avenir différent, centré sur les besoins des plus vulnérables ? Safiya Noble est l’auteur original de cette question, et c’est une considération constante tout au long de mon travail. La deuxième initiative la plus importante est venue récemment de mon mandat de responsable des données chez Blue Fever, une entreprise dont la mission est d’améliorer le bien-être des jeunes dans un espace en ligne inclusif et sans jugement. Plus précisément, j’ai dirigé la conception et le développement de Blue, le premier compagnon de soutien émotionnel IA. J’ai beaucoup appris dans ce processus. Plus important encore, j’ai acquis une nouvelle appréciation profonde de l’impact qu’un compagnon virtuel peut avoir sur quelqu’un en difficulté ou qui ne dispose pas de systèmes de soutien en place. Blue a été conçu et construit pour apporter son « énergie de grand frère » afin d’aider les utilisateurs à réfléchir à leurs besoins mentaux et émotionnels.
Comment relever les défis d’un secteur technologique à prédominance masculine et, par extension, de celui de l’IA, à prédominance masculine ?
Malheureusement, les défis sont réels et toujours très actuels. J’ai connu ma part d’incrédulité envers mes compétences et mon expérience parmi tous les types de collègues dans le domaine. Mais, pour chacun de ces défis négatifs, je peux citer l’exemple d’un collègue masculin qui est ma pom-pom girl la plus féroce. C’est un environnement difficile, et je m’accroche à ces exemples pour m’aider à le gérer. Je pense aussi que beaucoup de choses ont changé dans ce domaine, même au cours des cinq dernières années. Les compétences et les expériences professionnelles nécessaires qui font partie de « l’IA » ne sont plus strictement axées sur l’informatique.
Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?
Entrez et suivez votre curiosité. Cet espace est en mouvement constant, et la quête la plus intéressante (et probablement la plus productive) consiste à faire preuve d’un optimisme critique continu à l’égard du domaine lui-même.
Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?
Je pense en fait que certains des problèmes les plus urgents auxquels est confrontée l’IA sont les mêmes que ceux que nous n’avons pas encore résolus depuis l’introduction du Web. Il s’agit de questions liées au libre arbitre, à l’autonomie, à la vie privée, à la justice, à l’équité, etc. Ces éléments sont essentiels à la façon dont nous nous situons parmi les machines. Oui, l’IA peut rendre les choses beaucoup plus compliquées, tout comme les changements sociopolitiques.
Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?
Les utilisateurs d’IA doivent être conscients de la façon dont ces systèmes compliquent ou améliorent leur propre action et leur autonomie. De plus, alors que le débat porte sur l’impact potentiel de la technologie, et en particulier de l’IA, sur notre bien-être, il est important de se rappeler qu’il existe des outils éprouvés pour gérer davantage de résultats négatifs.
Quelle est la meilleure façon de développer l’IA de manière responsable ?
Une construction responsable de l’IA ne se limite pas au code. Une construction véritablement responsable prend en compte la conception, la gouvernance, les politiques et le modèle économique. Tous entraînent les autres, et nous continuerons à échouer si nous nous efforçons de nous attaquer uniquement à une partie de la construction.
Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?
Une tâche spécifique, que j’admire pour la diligence de Mozilla Ventures, est une carte modèle d’IA. Développée par Timnit Gebru et d’autres, cette pratique de création de cartes modèles permet aux équipes, comme les bailleurs de fonds, d’évaluer les risques et les problèmes de sécurité des modèles d’IA utilisés dans un système. En outre, en lien avec ce qui précède, les investisseurs devraient évaluer de manière globale le système en fonction de sa capacité et de son aptitude à être construit de manière responsable. Par exemple, si vous disposez de fonctionnalités de confiance et de sécurité dans la construction ou si une carte modèle est publiée, mais que votre modèle de revenus exploite des données de population vulnérables, il y a alors un décalage avec votre intention en tant qu’investisseur. Je pense que vous pouvez construire de manière responsable tout en restant rentable. Enfin, j’aimerais voir davantage d’opportunités de financement collaboratif entre investisseurs. Dans le domaine du bien-être et de la santé mentale, les solutions seront variées et vastes, car personne n’est pareil et aucune solution unique ne peut résoudre tous les problèmes. Une action collective parmi les investisseurs intéressés à résoudre le problème serait un ajout bienvenu.