samedi, novembre 2, 2024

Women In AI : Irene Solaiman, responsable de la politique mondiale chez Hugging Face

Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.

Irene Solaiman a débuté sa carrière dans l’IA en tant que chercheuse et responsable des politiques publiques chez OpenAI, où elle a dirigé une nouvelle approche pour la sortie de GPT-2, un prédécesseur de ChatGPT. Après avoir été responsable de la politique d’IA chez Zillow pendant près d’un an, elle a rejoint Hugging Face en tant que responsable de la politique mondiale. Ses responsabilités vont de l’élaboration et de la direction de la politique mondiale de l’entreprise en matière d’IA à la conduite de recherches socio-techniques.

Solaiman conseille également l’Institute of Electrical and Electronics Engineers (IEEE), l’association professionnelle de l’ingénierie électronique, sur les questions d’IA, et est un expert reconnu en IA auprès de l’Organisation intergouvernementale de coopération et de développement économiques (OCDE).

Irene Solaiman, responsable de la politique mondiale chez Hugging Face

En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?

Un cheminement de carrière totalement non linéaire est monnaie courante dans l’IA. Mon intérêt naissant a commencé de la même manière que de nombreux adolescents aux compétences sociales difficiles trouvent leurs passions : à travers les médias de science-fiction. J’ai d’abord étudié la politique des droits de l’homme, puis j’ai suivi des cours d’informatique, car je considérais l’IA comme un moyen de travailler en faveur des droits de l’homme et de construire un avenir meilleur. Être capable de mener des recherches techniques et de diriger des politiques dans un domaine avec tant de questions sans réponse et de chemins non empruntés rend mon travail passionnant.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis très fier lorsque mon expertise trouve un écho auprès des personnes du domaine de l’IA, en particulier lorsque j’écris sur les considérations en matière de publication dans le paysage complexe des versions et de l’ouverture des systèmes d’IA. Voir mon article sur le déploiement technique d’un cadre AI Release Gradient susciter des discussions entre scientifiques et être utilisé dans des rapports gouvernementaux est une affirmation – et un bon signe que je travaille dans la bonne direction ! Personnellement, l’un des travaux qui me motive le plus concerne l’alignement des valeurs culturelles, qui vise à garantir que les systèmes fonctionnent au mieux pour les cultures dans lesquelles ils sont déployés. Avec mon incroyable co-auteur et désormais chère amie, Christy Dennison, travailler sur un processus d’adaptation des modèles de langage à la société a été un projet de tout mon cœur (et de nombreuses heures de débogage) qui a façonné le travail de sécurité et d’alignement aujourd’hui.

Comment relever les défis d’un secteur technologique à prédominance masculine et, par extension, de celui de l’IA, à prédominance masculine ?

J’ai trouvé, et je trouve encore, mes collaborateurs – de travailler avec des dirigeants d’entreprise incroyables qui se soucient profondément des mêmes problèmes que ceux auxquels je donne la priorité, jusqu’à d’excellents co-auteurs de recherche avec lesquels je peux commencer chaque séance de travail par une mini séance de thérapie. Les groupes d’affinité sont extrêmement utiles pour créer une communauté et partager des conseils. Il est important de souligner ici l’intersectionnalité ; mes communautés de chercheurs musulmans et BIPOC sont continuellement inspirantes.

Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?

Ayez un groupe de soutien dont le succès est votre succès. En termes de jeunesse, je crois que c’est une « fille de fille ». Les mêmes femmes et alliées avec lesquelles je suis entré dans ce domaine sont mes rendez-vous café préférés et mes appels de panique tard dans la nuit avant une date limite. L’un des meilleurs conseils de carrière que j’ai lu est celui d’Arvind Narayan sur la plateforme anciennement connue sous le nom de Twitter, établissant le « principe de Liam Neeson » selon lequel il ne faut pas être le plus intelligent de tous, mais posséder un ensemble particulier de compétences.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?

Les problèmes les plus urgents eux-mêmes évoluent, la méta-réponse est donc la suivante : une coordination internationale pour des systèmes plus sûrs pour tous les peuples. Les personnes qui utilisent et sont affectées par les systèmes, même dans le même pays, ont des préférences et des idées différentes sur ce qui est le plus sûr pour elles. Et les problèmes qui se poseront dépendront non seulement de la façon dont l’IA évoluera, mais aussi de l’environnement dans lequel elle sera déployée ; les priorités en matière de sécurité et nos définitions de la capacité diffèrent selon les régions, comme par exemple une menace plus élevée de cyberattaques contre les infrastructures critiques dans des économies plus numérisées.

Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?

Les solutions techniques abordent rarement, voire jamais, les risques et les préjudices de manière globale. Bien qu’il existe des mesures que les utilisateurs peuvent prendre pour accroître leurs connaissances en IA, il est important d’investir dans une multitude de mesures de protection contre les risques à mesure qu’ils évoluent. Par exemple, je suis enthousiasmé par davantage de recherches sur le filigrane en tant qu’outil technique, et nous avons également besoin de conseils coordonnés des décideurs politiques sur la distribution du contenu généré, en particulier sur les plateformes de médias sociaux.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Avec les populations concernées et en réévaluant constamment nos méthodes d’évaluation et de mise en œuvre des techniques de sécurité. Les applications bénéfiques comme les préjudices potentiels évoluent constamment et nécessitent un retour d’information itératif. Les moyens par lesquels nous améliorons la sécurité de l’IA doivent être examinés collectivement en tant que domaine. Les évaluations de modèles les plus populaires en 2024 sont beaucoup plus robustes que celles que j’effectuais en 2019. Aujourd’hui, je suis beaucoup plus optimiste sur les évaluations techniques que sur le red-teaming. Je trouve les évaluations humaines extrêmement utiles, mais à mesure que de plus en plus de preuves apparaissent de la charge mentale et des coûts disparates du feedback humain, je suis de plus en plus optimiste quant à la standardisation des évaluations.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Ils le sont déjà ! Je suis heureux de voir de nombreux investisseurs et sociétés de capital-risque s’engager activement dans des conversations sur la sécurité et les politiques, notamment par le biais de lettres ouvertes et de témoignages au Congrès. J’ai hâte d’en savoir plus sur l’expertise des investisseurs sur ce qui stimule les petites entreprises dans tous les secteurs, d’autant plus que nous constatons une utilisation accrue de l’IA dans des domaines extérieurs aux principales industries technologiques.

Source-146

- Advertisement -

Latest