Francine Bennett utilise la science des données pour rendre l’IA plus responsable

Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.

Francine Bennett est membre fondatrice du conseil d’administration de l’Institut Ada Lovelace et occupe actuellement le poste de directrice par intérim de l’organisation. Avant cela, elle a travaillé dans le domaine de la biotechnologie, utilisant l’IA pour trouver des traitements médicaux contre des maladies rares. Elle a également cofondé un cabinet de conseil en science des données et est administratrice fondatrice de DataKind UK, qui aide les organisations caritatives britanniques en matière de science des données.

En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?

J’ai commencé par les mathématiques pures et je n’étais pas vraiment intéressé par tout ce qui était appliqué. J’aimais bricoler des ordinateurs, mais je pensais que les mathématiques appliquées n’étaient que du calcul et n’étaient pas très intéressantes intellectuellement. Je suis arrivé à l’IA et à l’apprentissage automatique plus tard, lorsqu’il a commencé à devenir évident pour moi et pour tout le monde que, parce que les données devenaient beaucoup plus abondantes dans de nombreux contextes, cela ouvrait des possibilités passionnantes pour résoudre toutes sortes de problèmes de nouvelles manières en utilisant l’IA. et l’apprentissage automatique, et ils étaient bien plus intéressants que je ne l’avais imaginé.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis très fier du travail qui n’est pas le plus élaboré techniquement mais qui permet de réelles améliorations pour les gens – par exemple, utiliser le ML pour essayer de trouver des modèles jusqu’alors inaperçus dans les rapports d’incidents liés à la sécurité des patients dans un hôpital afin d’aider les professionnels de la santé à améliorer l’avenir. Résultats patient. Et je suis fier de représenter l’importance de mettre les personnes et la société plutôt que la technologie au centre d’événements comme l’AI Safety Summit de cette année au Royaume-Uni. Je pense que cela n’est possible qu’avec autorité, car j’ai eu l’expérience de travailler avec la technologie, d’être enthousiasmé par celle-ci et d’approfondir la façon dont elle affecte réellement la vie des gens dans la pratique.

Comment relever les défis de l’industrie technologique à prédominance masculine et, par extension, de l’industrie de l’IA à prédominance masculine ?

Principalement en choisissant de travailler dans des lieux et avec des personnes qui s’intéressent à la personne et à ses compétences plutôt qu’au sexe et en cherchant à utiliser mon influence pour en faire la norme. Travailler également au sein d’équipes diversifiées chaque fois que je le peux – être dans une équipe équilibrée plutôt que d’être une « minorité » exceptionnelle crée une atmosphère vraiment différente et permet à chacun d’atteindre beaucoup plus son potentiel. De manière plus générale, étant donné que l’IA a de multiples facettes et qu’elle est susceptible d’avoir un impact sur de nombreux horizons, en particulier sur ceux des communautés marginalisées, il est évident que des personnes de tous horizons doivent être impliquées dans sa construction et son façonnement, si c’est le cas. ça va bien fonctionner.

Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?

Profitez-en! Il s’agit d’un domaine tellement intéressant, intellectuellement stimulant et en constante évolution – vous trouverez toujours quelque chose d’utile et de stimulant à faire, et il existe de nombreuses applications importantes auxquelles personne n’a encore pensé. De plus, ne vous inquiétez pas trop d’avoir besoin de connaître chaque chose technique (littéralement, personne ne connaît chaque chose technique) – commencez simplement par quelque chose qui vous intrigue et travaillez à partir de là.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?

À l’heure actuelle, je pense qu’il manque une vision commune de ce que nous voulons que l’IA fasse pour nous et de ce qu’elle peut et ne peut pas faire pour nous en tant que société. De nombreux progrès techniques sont en cours actuellement, qui auront probablement des impacts environnementaux, financiers et sociaux très importants, et il y a beaucoup d’enthousiasme à l’idée de déployer ces nouvelles technologies sans une compréhension approfondie des risques potentiels ou des conséquences imprévues. La plupart des personnes qui développent la technologie et parlent des risques et des conséquences appartiennent à un groupe démographique assez restreint. Nous disposons désormais d’une fenêtre d’opportunité pour décider de ce que nous voulons voir de l’IA et travailler pour que cela se produise. Nous pouvons repenser à d’autres types de technologies et à la manière dont nous avons géré leur évolution ou à ce que nous aurions souhaité mieux faire : quels sont nos équivalents pour les produits d’IA destinés aux tests de collision de nouvelles voitures ; tenir pour responsable un restaurant qui vous cause accidentellement une intoxication alimentaire ; consulter les personnes concernées lors du permis de construire ; faire appel d’une décision de l’IA comme on pourrait faire appel d’une bureaucratie humaine.

Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?

J’aimerais que les personnes qui utilisent les technologies d’IA aient confiance en ce que sont les outils et ce qu’elles peuvent faire et qu’elles parlent de ce qu’elles attendent de l’IA. Il est facile de voir l’IA comme quelque chose d’inconnaissable et d’incontrôlable, mais en réalité, il ne s’agit en réalité que d’un ensemble d’outils – et je veux que les humains se sentent capables de prendre en charge ce qu’ils font avec ces outils. Mais cela ne devrait pas incomber uniquement aux utilisateurs de la technologie : le gouvernement et l’industrie devraient créer les conditions nécessaires pour que les utilisateurs de l’IA puissent avoir confiance.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Nous posons souvent cette question à l’Institut Ada Lovelace, qui vise à mettre l’IA des données au service des personnes et de la société. C’est une question difficile, et il y a des centaines d’angles que vous pouvez prendre, mais il y en a deux très importants de mon point de vue.

La première est d’être prêt parfois à ne pas construire ou à s’arrêter. Tout le temps, nous voyons des systèmes d’IA avec un grand élan, où les constructeurs essaient d’ajouter des « garde-corps » par la suite pour atténuer les problèmes et les dommages, mais ne se mettent pas dans une situation où l’arrêt est une possibilité.

La seconde consiste à vraiment s’engager et à essayer de comprendre comment toutes sortes de personnes vivront ce que vous construisez. Si vous pouvez vraiment vous plonger dans leurs expériences, alors vous avez bien plus de chances de bénéficier du type positif d’IA responsable – construire quelque chose qui résout véritablement un problème pour les gens, sur la base d’une vision partagée de ce à quoi ressemblerait le bien – ainsi que éviter le négatif – sans aggraver accidentellement la vie de quelqu’un parce que son existence quotidienne est tout simplement très différente de la vôtre.

Par exemple, l’Institut Ada Lovelace s’est associé au NHS pour développer une évaluation d’impact algorithmique que les développeurs devraient réaliser comme condition d’accès aux données de santé. Cela oblige les développeurs à évaluer les impacts sociétaux possibles de leur système d’IA avant sa mise en œuvre et à intégrer les expériences vécues des personnes et des communautés qui pourraient être affectées.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

En posant des questions sur leurs investissements et leurs futurs possibles – pour ce système d’IA, à quoi cela ressemble-t-il de travailler avec brio et d’être responsable ? Où les choses pourraient-elles dérailler ? Quelles sont les répercussions potentielles sur les personnes et la société ? Comment saurons-nous si nous devons arrêter de construire ou changer les choses de manière significative, et que ferions-nous alors ? Il n’existe pas de recette unique, mais simplement en posant les questions et en signalant qu’il est important d’être responsable, les investisseurs peuvent changer les domaines dans lesquels leurs entreprises consacrent leur attention et leurs efforts.

Source-146