Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.
Heidy Khlaaf est directrice technique de la société de cybersécurité Trail of Bits. Elle se spécialise dans l’évaluation des implémentations de logiciels et d’IA dans des systèmes « critiques pour la sécurité », comme les centrales nucléaires et les véhicules autonomes.
Khlaaf a obtenu son doctorat en informatique. de l’University College London et sa licence en informatique et philosophie de la Florida State University. Elle a dirigé des audits de sûreté et de sécurité, fourni des consultations et des examens de cas d’assurance et contribué à la création de normes et de lignes directrices pour les applications liées à la sûreté et à la sécurité et à leur développement.
Questions et réponses
En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?
J’ai été attiré par la robotique dès mon plus jeune âge et j’ai commencé à programmer à l’âge de 15 ans, fasciné par les perspectives d’utilisation de la robotique et de l’IA (car elles sont inexplicablement liées) pour automatiser les charges de travail là où elles sont le plus nécessaires. Comme dans le secteur manufacturier, j’ai vu la robotique être utilisée pour aider les personnes âgées et automatiser le travail manuel dangereux dans notre société. J’ai cependant obtenu mon doctorat. dans un sous-domaine différent de l’informatique, car je crois qu’avoir une base théorique solide en informatique vous permet de prendre des décisions éclairées et scientifiques sur les domaines dans lesquels l’IA peut ou non être adaptée, et où peuvent se trouver les pièges.
De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?
Utiliser ma solide expertise et mon expérience en ingénierie de sécurité et en systèmes critiques pour la sécurité pour fournir un contexte et des critiques si nécessaire sur le nouveau domaine de la « sécurité » de l’IA. Bien que le domaine de la sécurité de l’IA ait tenté de s’adapter et de citer des techniques de sûreté et de sécurité bien établies, diverses terminologies ont été mal interprétées dans leur utilisation et leur signification. Il existe un manque de définitions cohérentes ou intentionnelles qui compromettent l’intégrité des techniques de sécurité que la communauté de l’IA utilise actuellement. Je suis particulièrement fier de « Vers des évaluations complètes des risques et de l’assurance des systèmes basés sur l’IA » et « Un cadre d’analyse des risques pour les grands modèles de langage de synthèse de code » dans lesquels je déconstruis les faux récits sur la sécurité et les évaluations de l’IA et propose des étapes concrètes pour combler le lacune de sécurité au sein de l’IA.
Comment relever les défis d’un secteur technologique à prédominance masculine et, par extension, de celui de l’IA, à prédominance masculine ?
Reconnaître à quel point le statu quo a peu changé n’est pas quelque chose dont nous discutons souvent, mais je pense qu’il est en fait important pour moi et pour d’autres femmes techniques de comprendre notre position au sein de l’industrie et d’avoir une vision réaliste des changements nécessaires. Les taux de rétention et la proportion de femmes occupant des postes de direction sont restés en grande partie les mêmes depuis que j’ai rejoint ce domaine, il y a plus de dix ans. Et comme TechCrunch l’a souligné à juste titre, malgré les avancées et les contributions considérables des femmes au sein de l’IA, nous restons à l’écart des conversations que nous avons nous-mêmes définies. Reconnaître ce manque de progrès m’a aidée à comprendre que la construction d’une communauté personnelle forte est bien plus précieuse en tant que source de soutien plutôt que de compter sur les initiatives DEI qui n’ont malheureusement pas fait bouger les choses, étant donné que les préjugés et le scepticisme à l’égard des femmes techniques sont encore assez répandus dans technologie.
Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?
Ne pas faire appel à l’autorité et trouver un domaine de travail auquel vous croyez vraiment, même s’il contredit les récits populaires. Compte tenu du pouvoir politique et économique actuel des laboratoires d’IA, il existe un instinct qui consiste à considérer comme un fait tout ce que les « leaders d’opinion » de l’IA déclarent, alors qu’il arrive souvent que de nombreuses affirmations de l’IA soient des discours marketing qui surestiment les capacités de l’IA à en bénéficier. un résultat net. Pourtant, je constate une grande hésitation, en particulier parmi les jeunes femmes dans ce domaine, à exprimer leur scepticisme face aux affirmations de leurs pairs masculins qui ne peuvent être fondées. Le syndrome de l’imposteur exerce une forte emprise sur les femmes dans le secteur de la technologie et amène nombre d’entre elles à douter de leur propre intégrité scientifique. Mais il est plus important que jamais de contester les affirmations qui exagèrent les capacités de l’IA, en particulier celles qui ne sont pas falsifiables selon la méthode scientifique.
Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?
Quels que soient les progrès que nous observerons dans le domaine de l’IA, ils ne constitueront jamais la solution unique, technologiquement ou socialement, à nos problèmes. Il existe actuellement une tendance à intégrer l’IA dans tous les systèmes possibles, quelle que soit son efficacité (ou son manque d’efficacité) dans de nombreux domaines. L’IA devrait augmenter les capacités humaines plutôt que de les remplacer, et nous assistons à un mépris total des pièges et des modes de défaillance de l’IA qui conduisent à des dommages réels et tangibles. Tout récemment, un système d’IA ShotSpotter a récemment amené un officier à tirer sur un enfant.
Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?
À quel point l’IA est vraiment peu fiable. Les algorithmes d’IA sont notoirement défectueux, avec des taux d’erreur élevés observés dans les applications qui nécessitent précision, exactitude et sécurité. La manière dont les systèmes d’IA sont formés intègre les préjugés humains et la discrimination dans leurs résultats qui deviennent « de facto » et automatisés. Et cela parce que la nature des systèmes d’IA est de fournir des résultats basés sur des inférences et des corrélations statistiques et probabilistes à partir de données historiques, et non sur n’importe quel type de raisonnement, de preuve factuelle ou de « causalité ».
Quelle est la meilleure façon de développer l’IA de manière responsable ?
Veiller à ce que l’IA soit développée de manière à protéger les droits et la sécurité des personnes en élaborant des affirmations vérifiables et tenir les développeurs d’IA responsables envers eux. Ces allégations doivent également être limitées à une application réglementaire, de sécurité, éthique ou technique et ne doivent pas être falsifiables. Autrement, il existe un manque important d’intégrité scientifique pour évaluer correctement ces systèmes. Les régulateurs indépendants devraient également évaluer les systèmes d’IA par rapport à ces allégations, comme c’est actuellement le cas pour de nombreux produits et systèmes d’autres secteurs, par exemple ceux évalués par la FDA. Les systèmes d’IA ne devraient pas être exemptés des processus d’audit standards bien établis pour garantir la protection du public et des consommateurs.
Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?
Les investisseurs devraient s’engager et financer les organisations qui cherchent à établir et à faire progresser les pratiques d’audit pour l’IA. La plupart des fonds sont actuellement investis dans les laboratoires d’IA eux-mêmes, avec la conviction que leurs équipes de sécurité sont suffisantes pour faire progresser les évaluations de l’IA. Toutefois, les auditeurs et régulateurs indépendants sont essentiels à la confiance du public. L’indépendance permet au public d’avoir confiance dans l’exactitude et l’intégrité des évaluations ainsi que dans l’intégrité des résultats réglementaires.