La justice procédurale peut résoudre le problème de confiance/légitimité de l’IA générative

L’arrivée tant vantée de l’IA générative a relancé un débat familier sur la confiance et la sécurité : peut-on faire confiance aux dirigeants de la technologie pour garder à cœur les meilleurs intérêts de la société ?

Parce que ses données d’entraînement sont créées par des humains, l’IA est intrinsèquement sujette aux biais et donc soumise à nos propres façons imparfaites et émotionnelles de voir le monde. Nous connaissons trop bien les risques, du renforcement de la discrimination et des inégalités raciales à la promotion de la polarisation.

Le PDG d’OpenAI, Sam Altman, a demandé notre « patience et bonne foi » alors qu’ils travaillent pour « bien faire les choses ».

Pendant des décennies, nous avons patiemment fait confiance aux responsables techniques à nos risques et périls : ils l’ont créé, alors nous les avons crus quand ils ont dit qu’ils pouvaient le réparer. La confiance dans les entreprises technologiques continue de chuter et, selon le baromètre de confiance Edelman 2023, 65 % des inquiétudes mondiales liées à la technologie rendront impossible de savoir si ce que les gens voient ou entendent est réel.

Il est temps pour la Silicon Valley d’adopter une approche différente pour gagner notre confiance, une approche qui s’est avérée efficace dans le système juridique du pays.

Une approche procédurale de la confiance et de la légitimité

Ancrée dans la psychologie sociale, la justice procédurale est basée sur des recherches montrant que les gens croient que les institutions et les acteurs sont plus dignes de confiance et légitimes lorsqu’ils sont écoutés et font l’expérience d’une prise de décision neutre, impartiale et transparente.

Les quatre éléments clés de la justice procédurale sont les suivants :

  • Neutralité : les décisions sont impartiales et guidées par un raisonnement transparent.
  • Respect : Tous sont traités avec respect et dignité.
  • Voix : Chacun a la possibilité de raconter sa version de l’histoire.
  • Fiabilité : les décideurs communiquent des motifs dignes de confiance à ceux qui sont touchés par leurs décisions.

En utilisant ce cadre, la police a amélioré la confiance et la coopération dans leurs communautés et certaines entreprises de médias sociaux commencent à utiliser ces idées pour façonner les approches de gouvernance et de modération.

Voici quelques idées sur la manière dont les entreprises d’IA peuvent adapter ce cadre pour renforcer la confiance et la légitimité.

Construire la bonne équipe pour répondre aux bonnes questions

Comme le soutient le professeur Safiya Noble de l’UCLA, les questions entourant le biais algorithmique ne peuvent être résolues par les ingénieurs seuls, car ce sont des problèmes sociaux systémiques qui nécessitent des perspectives humanistes – en dehors de toute entreprise – pour assurer la conversation sociétale, le consensus et finalement la régulation – à la fois soi-même et gouvernemental.

Dans « System Error: Where Big Tech Went Wrong and How We Can Reboot », trois professeurs de Stanford discutent de manière critique des lacunes de la formation en informatique et de la culture d’ingénierie pour son obsession de l’optimisation, repoussant souvent les valeurs fondamentales d’une société démocratique.

Dans un article de blog, Open AI dit qu’elle apprécie la contribution de la société : « Parce que l’avantage de l’AGI est si grand, nous ne pensons pas qu’il soit possible ou souhaitable que la société arrête son développement pour toujours ; au lieu de cela, la société et les développeurs d’AGI doivent trouver comment faire les choses correctement.

Cependant, la page d’embauche et le fondateur de l’entreprise tweets deSam Altman montrent que l’entreprise embauche une multitude d’ingénieurs en apprentissage automatique et d’informaticiens parce que « ChatGPT a une feuille de route ambitieuse et est entravé par l’ingénierie ».

Ces informaticiens et ingénieurs sont-ils équipés pour prendre des décisions qui, comme l’a dit OpenAI, « nécessiteront beaucoup plus de prudence que la société n’en applique habituellement aux nouvelles technologies » ?

Les entreprises technologiques devraient embaucher des équipes multidisciplinaires comprenant des spécialistes des sciences sociales qui comprennent les impacts humains et sociétaux de la technologie. Avec une variété de perspectives sur la façon de former les applications d’IA et de mettre en œuvre des paramètres de sécurité, les entreprises peuvent articuler un raisonnement transparent pour leurs décisions. Cela peut, à son tour, renforcer la perception du public de la technologie comme neutre et digne de confiance.

Inclure des perspectives extérieures

Un autre élément de la justice procédurale consiste à donner aux personnes la possibilité de participer à un processus décisionnel. Dans un récent article de blog sur la façon dont OpenAI s’attaque aux biais, la société a déclaré qu’elle recherchait des « contributions externes sur notre technologie », pointant vers un récent exercice d’équipe rouge, un processus d’évaluation des risques par le biais d’une approche contradictoire.

Bien que l’équipe rouge soit un processus important pour évaluer les risques, elle doit inclure une contribution extérieure. Dans l’exercice d’équipe rouge d’OpenAI, 82 des 103 participants étaient des employés. Sur les 23 participants restants, la majorité étaient des universitaires en informatique issus principalement d’universités occidentales. Pour obtenir divers points de vue, les entreprises doivent regarder au-delà de leurs propres employés, disciplines et géographies.

Ils peuvent également permettre une rétroaction plus directe dans les produits d’IA en offrant aux utilisateurs un plus grand contrôle sur les performances de l’IA. Ils pourraient également envisager de fournir des opportunités de commentaires publics sur les nouvelles politiques ou les changements de produits.

Assurer la transparence

Les entreprises doivent s’assurer que toutes les règles et les processus de sécurité associés sont transparents et transmettent des motifs fiables sur la façon dont les décisions ont été prises. Par exemple, il est important de fournir au public des informations sur la façon dont les applications sont formées, d’où les données sont extraites, quel rôle les humains ont dans le processus de formation et quelles couches de sécurité existent pour minimiser les abus.

Permettre aux chercheurs d’auditer et de comprendre les modèles d’IA est essentiel pour renforcer la confiance.

Altman a bien compris dans une récente interview d’ABC News lorsqu’il a déclaré: « Je pense que la société a un temps limité pour comprendre comment réagir à cela, comment réglementer cela, comment le gérer. »

Grâce à une approche de justice procédurale, plutôt qu’à l’opacité et à la foi aveugle de l’approche des prédécesseurs technologiques, les entreprises qui construisent des plateformes d’IA peuvent impliquer la société dans le processus et gagner – et non exiger – la confiance et la légitimité.

Source-146