Miranda Bogen crée des solutions pour aider à gouverner l’IA

Pour donner aux universitaires spécialisées dans l’IA et à d’autres leur temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que le boom de l’IA se poursuit, mettant en lumière des travaux clés qui restent souvent méconnus. Lisez plus de profils ici.

Miranda Bogen est la directrice fondatrice du laboratoire de gouvernance de l’IA du Centre pour la démocratie et la technologie, où elle travaille à la création de solutions capables de réguler et de gouverner efficacement les systèmes d’IA. Elle a aidé à orienter les stratégies d’IA responsable chez Meta et a auparavant travaillé comme analyste politique principale au sein de l’organisation Uptown, qui cherche à utiliser la technologie pour faire progresser l’équité et la justice.

En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?

J’ai été attiré par le travail sur l’apprentissage automatique et l’IA en voyant la façon dont ces technologies se heurtaient aux conversations fondamentales sur la société – les valeurs, les droits et les communautés laissées pour compte. Mes premiers travaux explorant l’intersection de l’IA et des droits civils m’ont renforcé sur le fait que les systèmes d’IA sont bien plus que des artefacts techniques ; ce sont des systèmes qui façonnent et sont façonnés par leur interaction avec les gens, les bureaucraties et les politiques. J’ai toujours su traduire des contextes techniques et non techniques, et j’ai été stimulé par l’opportunité de contribuer à briser l’apparence de complexité technique pour aider les communautés ayant différents types d’expertise à façonner la façon dont l’IA est construite à partir de zéro. .

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Lorsque j’ai commencé à travailler dans ce domaine, de nombreuses personnes devaient encore être convaincues que les systèmes d’IA pourraient avoir un impact discriminatoire sur les populations marginalisées, et encore moins qu’il fallait faire quelque chose pour remédier à ces préjudices. Bien qu’il existe encore un écart trop grand entre le statu quo et un avenir où les préjugés et autres préjudices seront systématiquement combattus, je suis heureux que les recherches que mes collaborateurs et moi-même avons menées sur la discrimination dans la publicité en ligne personnalisée et mon travail au sein de l’industrie sur les algorithmes l’équité a contribué à apporter des changements significatifs au système de diffusion publicitaire de Meta et à progresser vers la réduction des disparités dans l’accès à d’importantes opportunités économiques.

Comment relever les défis de l’industrie technologique à prédominance masculine et, par extension, de l’industrie de l’IA à prédominance masculine ?

J’ai eu la chance de travailler avec des collègues et des équipes phénoménales qui ont été généreuses en termes d’opportunités et de soutien sincère, et nous avons essayé d’apporter cette énergie dans chaque pièce dans laquelle nous nous trouvions. Lors de ma plus récente transition de carrière, j’ai été ravi que presque toutes mes options impliquaient de travailler en équipe ou au sein d’organisations dirigées par des femmes phénoménales, et j’espère que le domaine continuera à faire entendre la voix de celles qui ne sont pas traditionnellement centrées sur les conversations axées sur la technologie.

Quels conseils donneriez-vous aux femmes souhaitant se lancer dans le domaine de l’IA ?

Le même conseil que je donne à tous ceux qui le demandent : trouvez des managers, des conseillers et des équipes solidaires qui vous dynamisent et vous inspirent, qui apprécient votre opinion et votre point de vue, et qui se mettent en danger pour vous défendre et défendre votre travail.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?

Les impacts et les dommages que les systèmes d’IA ont déjà sur les gens sont bien connus à ce stade, et l’un des défis les plus urgents est d’aller au-delà de la description du problème pour développer des approches robustes pour remédier systématiquement à ces dommages et encourager leur adoption. Nous avons lancé l’AI Governance Lab au CDT pour favoriser les progrès dans les deux sens.

Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?

Pour la plupart, les systèmes d’IA ne disposent toujours pas de ceintures de sécurité, d’airbags et de panneaux de signalisation, alors soyez prudent avant de les utiliser pour des tâches conséquentes.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

La meilleure façon de développer l’IA de manière responsable est de faire preuve d’humilité. Réfléchissez à la manière dont le succès du système d’IA sur lequel vous travaillez a été défini, à qui cette définition s’adresse et quel contexte peut manquer. Pensez aux personnes pour qui le système pourrait échouer et à ce qui se passerait si tel était le cas. Et construisez des systèmes non seulement avec les personnes qui les utiliseront, mais aussi avec les communautés qui y seront soumises.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Les investisseurs doivent laisser la possibilité aux constructeurs de technologies d’agir de manière plus délibérée avant de précipiter la commercialisation de technologies à moitié cuites. La pression concurrentielle intense pour lancer les nouveaux modèles d’IA les plus récents, les plus importants et les plus brillants conduit à un sous-investissement préoccupant dans les pratiques responsables. Alors que l’innovation décomplexée chante un chant de sirène tentant, il s’agit d’un mirage qui ne fera qu’aggraver la situation de tout le monde.

L’IA n’est pas magique ; c’est juste un miroir tendu à la société. Si nous voulons que cela reflète quelque chose de différent, nous avons du travail à faire.

Source-146