L’IA est la prochaine frontière, mais pour qui ?

Quelques semaines Il y a un an, un fondateur m’a dit qu’il avait fallu trois heures de clics sans fin pour trouver un portrait généré par l’IA d’une femme noire. Cela m’a rappelé, à certains égards, un discours que j’ai vu il y a trois ans lorsque Yasmin Vert, alors directeur de la recherche et du développement pour Jigsaw, a expliqué comment les préjugés humains s’infiltrent dans la programmation de l’IA. Son discours et ce fondateur, à des kilomètres et à des années d’intervalle, sont deux pièces du même puzzle.

Les discussions sur la diversité sont plus importantes que jamais alors que l’IA entre dans une nouvelle ère dorée. Chaque nouvelle technologie qui apparaît semble être accompagnée de conséquences déchirantes. Jusqu’à présent, l’IA a contribué à des tactiques racistes de recrutement d’emplois et à des taux d’approbation à domicile plus lents pour les Noirs. Les voitures autonomes ont du mal à détecter la peau foncée, ce qui rend les Noirs plus susceptibles d’être frappés par elles ; dans un cas, les robots ont identifié les hommes noirs comme étant des criminels 9% de plus que les hommes blancs, ce qui serait mis sous un nouveau jour si les systèmes judiciaires commençaient un jour à adopter l’IA.

« Alors que l’IA imprègne la société, il est essentiel que les développeurs et les entreprises soient de bons intendants de cette technologie, mais tiennent également leurs collègues technologues responsables de ces cas d’utilisation contraires à l’éthique. » Isoken Igbinedion, co-fondateur, Parfait

L’éthique de l’IA est souvent une conversation distincte de la construction de l’IA, mais elles devraient être une seule et même chose. Les préjugés sont dangereux, d’autant plus que l’IA continue de se répandre dans la vie quotidienne. Pendant des siècles, les médecins ont autrefois jugé les Noirs sur des critères désormais jugés racistes, une croyance répandue étant que ces personnes ressentaient moins de douleur. Aujourd’hui, les algorithmes discriminent les Noirs ; une étude de 2019 a révélé qu’un algorithme utilisé par les hôpitaux américains « était moins susceptible d’orienter les Noirs que les Blancs tout aussi malades vers des programmes visant à améliorer les soins aux patients ayant des besoins médicaux complexes ».

À l’heure actuelle, des biais apparaissent dans divers sous-secteurs de l’IA, allant de l’investissement à l’embauche en passant par l’exécution des données et des produits, et chaque cas de biais en soutient d’autres. Eghosa Omoiguile fondateur d’EchoVC Partners, a déclaré à TechCrunch que même si l’IA peut être « incroyablement puissante », la société est encore loin d’une intelligence artificielle « sans faille ».

« Cela signifie que la probabilité d’un biais de l’IA dans les résultats reste élevée en raison des dépendances excessives sur les sources, les poids et les biais des données de formation », a-t-il déclaré. « Diverses équipes donneront la priorité à la compréhension et à la sensibilité exquises nécessaires pour avoir un impact mondial. »

Le frère d’Omoigui, Nosa, le fondateur du régulateur de conformité ESG Weave.AI, a réitéré ce point. Beaucoup de ces modèles sont des boîtes noires, et les créateurs n’ont aucune idée particulière du fonctionnement interne de la réalisation d’une prédiction ou d’une recommandation, a-t-il déclaré. Par rapport à Wall Street, l’IA n’est pratiquement pas réglementée et, comme le niveau de gouvernance ne correspond pas à sa croissance, elle risque de devenir voyou. L’UE a proposé des mesures pour réduire et tenir compte des biais dans les produits alimentés par l’IA, avec un certain recul, bien que la proposition elle-même la place légèrement en avance sur la position actuelle des États-Unis.

En fait, Eghosa a déclaré que de nombreux investisseurs ne se soucient pas du tout de la diversité au sein de l’IA et qu’il existe une mentalité de groupe en ce qui concerne les capacités dirigées par la machine. Il a rappelé les réactions des investisseurs lorsqu’il a aidé à diriger un cycle d’investissement pour la société de logiciels KOSA AI, qui surveille l’IA pour détecter les biais et les risques.

« Un bon nombre d’investisseurs à qui nous avons parlé de l’opportunité étaient très convaincus que le biais de l’IA n’était pas une chose ou qu’un » produit éveillé « ne serait pas adapté au marché des produits, ce qui est pour le moins surprenant », Eghosa a dit.

Source-146