Rob Viglione, co-fondateur de Horizen Labs, aborde la complexité du biais dans l’intelligence artificielle et son impact sur l’équité. Une étude de l’Imperial College de Londres souligne l’utilité des preuves à divulgation nulle de connaissance (ZKP) pour garantir la justice dans les modèles d’apprentissage automatique, tout en protégeant la confidentialité. Le texte explore différentes définitions de l’équité et les défis associés, tout en mettant en lumière les récentes avancées technologiques qui pourraient améliorer la transparence dans l’IA.
Opinion par : Rob Viglione, co-fondateur et PDG de Horizen Labs
Pouvez-vous vraiment compter sur l’intelligence artificielle pour être juste ? Une récente recherche indique que la situation est plus complexe qu’il n’y paraît. Malheureusement, le biais ne constitue pas simplement un problème technique — c’est une caractéristique tenace en l’absence de mécanismes de protection appropriés.
Une étude menée en septembre 2024 par l’Imperial College de Londres met en lumière comment les preuves à divulgation nulle de connaissance (ZKP) peuvent être des alliées précieuses pour les entreprises cherchant à garantir que leurs modèles d’apprentissage automatique (ML) traitent équitablement tous les groupes démographiques, tout en préservant la confidentialité des données et des modèles.
Les ZKP sont des outils cryptographiques qui permettent à une partie de prouver à une autre qu’une déclaration est vraie sans dévoiler d’informations supplémentaires, en dehors de la véracité de cette déclaration. Cependant, la définition de ce qui constitue la « justice » soulève de nouvelles questions complexes.
Comprendre le biais de l’apprentissage automatique
Dans le domaine de l’apprentissage automatique, le biais peut se manifester de manière variée et préoccupante. Par exemple, un système de notation de crédit peut évaluer un individu différemment en fonction des scores de crédit de son entourage, ce qui peut s’avérer intrinsèquement discriminatoire. Des générateurs d’images d’IA, comme l’infâme outil Gemini de Google, ont également montré des biais en illustrant des figures historiques de manière stéréotypée.
Il est relativement facile d’identifier un modèle ML injuste. Si un algorithme refuse des prêts ou des crédits en se basant sur les connections sociales d’un individu, cela constitue une forme de discrimination. De même, si un modèle cherche à corriger des inégalités de manière excessive, cela peut également s’avérer discriminatoire. Dans les deux cas, la confiance dans ces systèmes est compromise.
Imaginons une banque employant un modèle ML pour approuver des prêts. Grâce à un ZKP, la banque pourrait prouver que son modèle n’est pas biaisé contre un groupe démographique sans divulguer les informations sensibles des clients ou les secrets commerciaux. Avec la combinaison de ZKP et de ML, les institutions financières pourraient démontrer qu’elles ne discriminent pas systématiquement un groupe racial, offrant ainsi une transparence continue par rapport aux audits traditionnels souvent inefficaces.
Le modèle ML idéal serait celui qui ne réécrit pas l’histoire ni ne traite les individus différemment en fonction de leur origine. L’IA doit respecter des lois anti-discrimination comme le Civil Rights Act de 1964. Le véritable défi réside dans l’intégration de ces principes dans les algorithmes de l’IA et leur vérifiabilité.
Les ZKP représentent une solution technique prometteuse pour garantir cette conformité.
L’IA et le défi du biais
Dans le cadre de l’apprentissage automatique, il est impératif de s’assurer que toute affirmation de justice préserve la confidentialité des modèles ML et des données d’entraînement. Ces mécanismes doivent protéger la propriété intellectuelle tout en permettant aux utilisateurs de vérifier que leur modèle ne recourt pas à la discrimination.
C’est un défi considérable, mais les ZKP offrent une solution vérifiable.
Le concept de ZKML (apprentissage automatique à divulgation nulle de connaissance) illustre comment nous pouvons utiliser les preuves à divulgation nulle de connaissance pour confirmer qu’un modèle ML est conforme à ses promesses. ZKML allie cryptographie et apprentissage automatique pour créer des systèmes capables de valider les propriétés de l’IA sans exposer les modèles ou les données sous-jacentes. Ce principe peut également être appliqué pour identifier les modèles ML qui traitent tous les individus de manière égale.
Récemment : Connaître votre pair — Les avantages et les inconvénients de la KYC
Auparavant, l’application des ZKP pour démontrer l’équité de l’IA était limitée, ne pouvant se focaliser que sur une phase du processus ML. Cela a permis à certains fournisseurs de créer des ensembles de données faux qui semblaient répondre aux critères d’équité, même si le modèle dans son ensemble échouait sur ce point. De plus, l’utilisation des ZKP imposait des exigences computationnelles excessives et des délais d’attente prolongés pour fournir des preuves d’équité.
Cependant, les avancées récentes dans les cadres ZK ont rendu possible l’application de ZKP pour évaluer l’équité des modèles, même ceux comptant des dizaines de millions de paramètres, et cela de manière sécurisée et vérifiable.
La question cruciale demeure : comment mesurons-nous l’équité d’une IA ?
Examinons trois des définitions d’équité de groupe les plus courantes : la parité démographique, l’égalité des opportunités et l’égalité prédictive.
La parité démographique implique que la probabilité d’une prédiction donnée soit identique entre différents groupes, qu’il s’agisse de race ou de sexe. Souvent utilisée par les départements de diversité, d’équité et d’inclusion, ce n’est pas la mesure d’équité idéale pour les modèles ML, car s’attendre à des résultats uniformes pour chaque groupe est irréaliste.
L’égalité des opportunités, quant à elle, garantit à chaque groupe une chance équitable d’obtenir un résultat positif, à condition que les membres soient également qualifiés. Cela ne vise pas à optimiser les résultats, mais à offrir à chaque démographie une chance égale d’accéder à un emploi ou à un prêt immobilier.
Enfin, l’égalité prédictive évalue si un modèle ML fait des prédictions avec une précision équivalente à travers diverses démographies, afin que personne ne soit désavantagé en raison de son appartenance à un groupe.
Dans ces deux cas, le modèle ML ne favorise pas un groupe au détriment d’un autre, mais s’assure simplement qu’aucun groupe n’est discriminé. C’est une approche sensée et justifiée.
Vers une norme d’équité
Au cours de l’année passée, le gouvernement américain ainsi que d’autres nations ont pris des initiatives et exprimé des directives concernant l’équité dans les systèmes d’IA, montrant un intérêt croissant pour des pratiques plus justes et responsables.