Les femmes dans l’IA : Claire Leibowicz, experte en IA et intégrité des médias chez PAI

Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.

Claire Leibowicz est responsable du programme IA et intégrité des médias au sein du Partnership on AI (PAI), le groupe industriel soutenu par Amazon, Meta, Google, Microsoft et d’autres engagés dans le déploiement « responsable » de la technologie de l’IA. Elle supervise également le comité directeur de PAI sur l’IA et l’intégrité des médias.

En 2021, Leibowicz était boursière en journalisme chez Tablet Magazine, et en 2022, elle était boursière au Bellagio Center de la Fondation Rockefeller, axée sur la gouvernance de l’IA. Leibowicz – titulaire d’un baccalauréat en psychologie et en informatique de Harvard et d’une maîtrise d’Oxford – a conseillé des entreprises, des gouvernements et des organisations à but non lucratif sur la gouvernance de l’IA, les médias génératifs et l’information numérique.

Questions et réponses

En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?

Cela peut sembler paradoxal, mais je suis arrivé dans le domaine de l’IA parce que je m’intéressais au comportement humain. J’ai grandi à New York et j’ai toujours été captivé par les nombreuses façons dont les gens interagissent là-bas et par la façon dont une société aussi diversifiée prend forme. J’étais curieux de connaître les grandes questions qui affectent la vérité et la justice, comme comment choisissons-nous de faire confiance aux autres ? Qu’est-ce qui déclenche les conflits intergroupes ? Pourquoi les gens croient-ils que certaines choses sont vraies et pas d’autres ? J’ai commencé à explorer ces questions dans ma vie universitaire par le biais de recherches en sciences cognitives, et j’ai rapidement réalisé que la technologie affectait les réponses à ces questions. J’ai également trouvé intrigant de voir comment l’intelligence artificielle pouvait être une métaphore de l’intelligence humaine.

Cela m’a amené dans des salles de classe d’informatique où les professeurs — je dois saluer la professeure Barbara Grosz, qui est une pionnière dans le traitement du langage naturel, et le professeur Jim Waldo, qui a mélangé sa formation en philosophie et en informatique — ont souligné l’importance de remplir leurs salles de classe d’informatique. les majors non informatiques et en ingénierie se concentreront sur l’impact social des technologies, y compris l’IA. Et c’était avant que « l’éthique de l’IA » ne devienne un domaine distinct et populaire. Ils ont clairement indiqué que, même si la compréhension technique est bénéfique, la technologie affecte de vastes domaines, notamment la géopolitique, l’économie, l’engagement social et bien d’autres, exigeant ainsi que des personnes issues de nombreux horizons disciplinaires se prononcent sur des questions apparemment technologiques.

Que vous soyez un éducateur réfléchissant à l’impact des outils d’IA générative sur la pédagogie, un conservateur de musée expérimentant un itinéraire prédictif pour une exposition ou un médecin étudiant de nouvelles méthodes de détection d’images pour lire des rapports de laboratoire, l’IA peut avoir un impact sur votre domaine. Cette réalité, selon laquelle l’IA touche de nombreux domaines, m’a intrigué : il y avait une variété intellectuelle inhérente au travail dans le domaine de l’IA, et cela apportait une chance d’avoir un impact sur de nombreuses facettes de la société.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis fier du travail en IA qui rassemble des perspectives disparates d’une manière surprenante et orientée vers l’action – qui non seulement accommode, mais encourage, les désaccords. J’ai rejoint le PAI en tant que deuxième membre du personnel de l’organisation il y a six ans et j’ai immédiatement senti que l’organisation était pionnière dans son engagement en faveur de perspectives diverses. PAI considère ce travail comme une condition préalable vitale à la gouvernance de l’IA qui atténue les dommages et conduit à une adoption et un impact pratiques dans le domaine de l’IA. Cela s’est avéré vrai et j’ai été encouragé à contribuer à façonner l’adoption de la multidisciplinarité par PAI et à voir l’institution se développer aux côtés du domaine de l’IA.

Nos travaux sur les médias synthétiques au cours des six dernières années ont commencé bien avant que l’IA générative ne fasse partie de la conscience publique et illustrent les possibilités d’une gouvernance multipartite de l’IA. En 2020, nous avons travaillé avec neuf organisations différentes de la société civile, de l’industrie et des médias pour façonner le Deepfake Detection Challenge de Facebook, un concours d’apprentissage automatique visant à créer des modèles permettant de détecter les médias générés par l’IA. Ces perspectives extérieures ont contribué à façonner l’équité et les objectifs des modèles gagnants, montrant comment les experts en droits de l’homme et les journalistes peuvent contribuer à une question apparemment technique comme la détection des deepfakes. L’année dernière, nous avons publié un ensemble de directives normatives sur les médias synthétiques responsables – les Pratiques responsables pour les médias synthétiques de PAI – qui comptent désormais 18 partisans issus d’horizons extrêmement différents, allant d’OpenAI à TikTok en passant par Code for Africa, Bumble, BBC et WITNESS. Être capable de rédiger des orientations concrètes fondées sur les réalités techniques et sociales est une chose, mais obtenir un soutien institutionnel en est une autre. Dans ce cas, les institutions se sont engagées à fournir des rapports transparents sur la façon dont elles naviguent dans le domaine des médias synthétiques. Les projets d’IA qui comportent des conseils concrets et montrent comment mettre en œuvre ces conseils dans toutes les institutions sont parmi les plus significatifs pour moi.

Comment relever les défis d’un secteur technologique à prédominance masculine et, par extension, de celui de l’IA, à prédominance masculine ?

J’ai eu de merveilleux mentors, hommes et femmes, tout au long de ma carrière. Trouver des personnes qui me soutiennent et me mettent simultanément au défi est la clé de toute croissance que j’ai connue. Je trouve que se concentrer sur des intérêts communs et discuter des questions qui animent le domaine de l’IA peut rassembler des personnes d’horizons et de perspectives différents. Il est intéressant de noter que l’équipe de PAI est composée de plus de la moitié de femmes, et que de nombreuses organisations travaillant sur l’IA et la société ou sur les questions d’IA responsable comptent de nombreuses femmes parmi leur personnel. Cela contraste souvent avec ceux qui travaillent dans des équipes de recherche en ingénierie et en IA, et constitue un pas dans la bonne direction en matière de représentation dans l’écosystème de l’IA.

Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?

Comme je l’ai évoqué dans la question précédente, certains des espaces de l’IA principalement dominés par les hommes que j’ai rencontrés sont également ceux qui sont les plus techniques. Bien que nous ne devrions pas donner la priorité au sens technique par rapport à d’autres formes d’alphabétisation dans le domaine de l’IA, j’ai constaté que la formation technique a été une aubaine pour ma confiance et mon efficacité dans de tels espaces. Nous avons besoin d’une représentation égale dans les rôles techniques et d’une ouverture à l’expertise de personnes expertes dans d’autres domaines comme les droits civiques et la politique, qui ont une représentation plus équilibrée. Dans le même temps, doter davantage de femmes d’alphabétisations techniques est essentiel pour équilibrer la représentation dans le domaine de l’IA.

J’ai également trouvé extrêmement significatif d’entrer en contact avec des femmes dans le domaine de l’IA qui ont réussi à concilier vie familiale et vie professionnelle. Trouver des modèles à qui parler des grandes questions liées à la carrière et à la parentalité – et de certains des défis uniques auxquels les femmes sont encore confrontées au travail – m’a permis de me sentir mieux équipée pour relever certains de ces défis à mesure qu’ils se présentent.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?

Les questions de vérité et de confiance en ligne – et hors ligne – deviennent de plus en plus délicates à mesure que l’IA évolue. Alors que le contenu allant des images aux vidéos en passant par le texte peut être généré ou modifié par l’IA, est-il encore possible de voir ? Comment pouvons-nous nous appuyer sur des preuves si les documents peuvent être falsifiés facilement et de manière réaliste ? Pouvons-nous avoir des espaces en ligne réservés aux humains s’il est extrêmement facile d’imiter une personne réelle ? Comment gérer les compromis que présente l’IA entre la liberté d’expression et la possibilité que les systèmes d’IA puissent causer du tort ? Plus largement, comment pouvons-nous garantir que l’environnement de l’information n’est pas seulement façonné par quelques entreprises sélectionnées et ceux qui travaillent pour elles, mais qu’il intègre les points de vue des parties prenantes du monde entier, y compris le public ?

Parallèlement à ces questions spécifiques, PAI s’est impliqué dans d’autres facettes de l’IA et de la société, notamment la manière dont nous considérons l’équité et les préjugés à l’ère de la prise de décision algorithmique, la manière dont le travail a un impact et est impacté par l’IA, comment gérer le déploiement responsable des systèmes d’IA et et même comment rendre les systèmes d’IA plus représentatifs d’une myriade de perspectives. Au niveau structurel, nous devons réfléchir à la manière dont la gouvernance de l’IA peut faire face à de vastes compromis en intégrant des perspectives variées.

Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?

Premièrement, les utilisateurs d’IA doivent savoir que si quelque chose semble trop beau pour être vrai, c’est probablement le cas.

Le boom de l’IA générative au cours de l’année écoulée a bien sûr reflété une énorme ingéniosité et innovation, mais il a également conduit à des messages publics autour de l’IA qui sont souvent hyperboliques et inexacts.

Les utilisateurs de l’IA doivent également comprendre que l’IA n’est pas révolutionnaire, mais qu’elle exacerbe et augmente les problèmes et les opportunités existants. Cela ne signifie pas qu’ils devraient prendre l’IA moins au sérieux, mais plutôt utiliser ces connaissances comme base utile pour naviguer dans un monde de plus en plus infusé par l’IA. Par exemple, si vous craignez que des personnes puissent mal contextualiser une vidéo avant une élection en modifiant la légende, vous devriez vous inquiéter de la vitesse et de l’ampleur avec lesquelles ils peuvent induire en erreur en utilisant la technologie des deepfakes. Si vous êtes préoccupé par le recours à la surveillance sur le lieu de travail, vous devez également réfléchir à la manière dont l’IA rendra cette surveillance plus facile et plus répandue. Maintenir un scepticisme sain quant à la nouveauté des problèmes d’IA, tout en étant honnête sur ce qui est distinctif du moment actuel, est un cadre utile que les utilisateurs peuvent apporter à leurs rencontres avec l’IA.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Pour construire l’IA de manière responsable, nous devons élargir notre notion de qui joue un rôle dans la « construction » de l’IA. Bien entendu, influencer les entreprises technologiques et les plateformes de médias sociaux est un moyen essentiel d’influencer l’impact des systèmes d’IA, et ces institutions sont essentielles à la construction technologique de manière responsable. Dans le même temps, nous devons reconnaître à quel point diverses institutions de la société civile, de l’industrie, des médias, du monde universitaire et du public doivent continuer à s’impliquer pour construire une IA responsable qui sert l’intérêt public.

Prenons, par exemple, le développement et le déploiement responsables des médias synthétiques.

Alors que les entreprises technologiques peuvent s’inquiéter de leur responsabilité dans la manière dont une vidéo synthétique peut influencer les utilisateurs avant une élection, les journalistes peuvent s’inquiéter des imposteurs qui créent des vidéos synthétiques prétendant provenir de leur marque d’information de confiance. Les défenseurs des droits humains pourraient considérer la responsabilité liée à la manière dont les médias générés par l’IA réduisent l’impact des vidéos comme preuve d’abus. Et les artistes pourraient être enthousiasmés par l’opportunité de s’exprimer à travers les médias génératifs, tout en s’inquiétant de la manière dont leurs créations pourraient être exploitées sans leur consentement pour former des modèles d’IA qui produisent de nouveaux médias. Ces diverses considérations montrent à quel point il est essentiel d’impliquer différentes parties prenantes dans les initiatives et les efforts visant à développer l’IA de manière responsable, et comment une myriade d’institutions sont affectées par – et affectent – ​​la manière dont l’IA est intégrée dans la société.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Il y a des années, j’ai entendu DJ Patil, l’ancien scientifique en chef des données à la Maison Blanche, décrire une révision du mantra omniprésent « Agir vite et casser les choses » du début de l’ère des médias sociaux qui m’est resté. Il a suggéré que le domaine « bouge avec détermination et répare les choses ».

J’ai adoré cela parce que cela n’impliquait pas une stagnation ou un abandon de l’innovation, mais une intentionnalité et la possibilité de pouvoir innover tout en assumant ses responsabilités. Les investisseurs devraient contribuer à induire cette mentalité, en accordant plus de temps et d’espace aux sociétés de leur portefeuille pour se consacrer à des pratiques d’IA responsables sans étouffer les progrès. Souvent, les institutions décrivent le temps limité et les délais serrés comme le facteur limitant pour faire la « bonne » chose, et les investisseurs peuvent être un catalyseur majeur pour changer cette dynamique.

Plus j’ai travaillé dans le domaine de l’IA, plus je me suis retrouvé aux prises avec des questions profondément humanistes. Et ces questions exigent que nous tous y répondions.

Source-146