Les sciences humaines ne peuvent pas sauver la grande technologie d’elle-même

Le problème avec La technologie, beaucoup déclarent, est son inclination quantitative, ses mathématiques « dures » déployées dans le monde humain plus doux. La technologie, c’est Mark Zuckerberg : tous transforment de jolies filles en chiffres et s’extasient sur les merveilles sociales du métavers tout en étant si maladroit dans chaque interaction humaine qu’il est instantanément mémorisé. Le monde humain contient Zuck, mais c’est aussi tout ce à quoi il échoue de manière spectaculaire. Cet échec, le manque de compétences sociales et éthiques, est celui que beaucoup pensent qu’il partage avec l’industrie à laquelle il est si associé.

Et donc, parce que Big Tech ne comprend pas les humains, nous entendons souvent que sa main-d’œuvre a simplement besoin d’employer plus de personnes qui faire comprendre. Des titres comme « Les majors en arts libéraux sont l’avenir de l’industrie technologique » et « Pourquoi l’informatique a besoin des sciences humaines » ont été une caractéristique récurrente des articles sur la technologie et les affaires au cours des dernières années. Il a été suggéré que les travailleurs sociaux et les bibliothécaires pourraient aider l’industrie de la technologie à réduire les dommages causés par les médias sociaux aux jeunes Noirs et la prolifération de la désinformation, respectivement. De nombreux anthropologues, sociologues et philosophes, en particulier ceux qui ont des diplômes supérieurs et qui ressentent la pression financière de la préférence des universités pour les STEM, se précipitent pour démontrer leur utilité aux mastodontes de la technologie dont les salaires de départ feraient rougir le professeur de sciences humaines moyen.

J’étudie les travailleurs non techniques dans les industries de la technologie et des médias depuis plusieurs années. Les arguments pour « faire venir » des experts socioculturels éludent la vérité que ces rôles et ces travailleurs existent déjà dans l’industrie technologique et, de diverses manières, ont toujours existé. Par exemple, de nombreux chercheurs actuels en UX ont des diplômes supérieurs en sociologie, anthropologie, bibliothéconomie et sciences de l’information. Et les enseignants et les experts EDI (Équité, Diversité et Inclusion) occupent souvent des postes dans les départements RH technologiques.

Récemment, cependant, l’industrie de la technologie est explorer où l’expertise non technique pourrait contrer certains des problèmes sociaux associés à leurs produits. De plus en plus, les entreprises technologiques se tournent vers les professeurs de droit et de philosophie pour les aider à travers les complexités juridiques et morales de la gouvernance des plateformes, vers les activistes et les universitaires critiques pour aider à protéger les utilisateurs marginalisés, et vers d’autres spécialistes pour les aider à relever les défis de la plateforme comme l’oppression algorithmique, la désinformation, la communauté management, bien-être des utilisateurs et activisme et révolutions numériques. Ces industries axées sur les données s’efforcent d’augmenter leur savoir-faire technique et leurs trésors de données avec une expertise sociale, culturelle et éthique, ou ce que j’appelle souvent des données « soft ».

Mais vous pouvez ajouter tous les travailleurs des données logicielles que vous souhaitez et peu de choses changeront à moins que l’industrie ne valorise ce type de données et d’expertise. En fait, de nombreux universitaires, experts en politiques et autres experts socioculturels dans le domaine de l’IA et de l’éthique technologique sont remarquer une tendance inquiétante des entreprises technologiques à rechercher leur expertise, puis à la négliger au profit d’un travail et d’une main-d’œuvre plus techniques.

De telles expériences montrent particulièrement clairement ce moment difficile dans le domaine en plein essor de l’éthique de l’IA, dans lequel l’industrie de la technologie peut prétendre incorporer des rôles non techniques tout en ajoutant en fait des cadres éthiques et socioculturels aux titres de poste qui sont finalement destinés à être occupés par le « même vieux  » les technologues. Plus important encore, dans notre affection pour ces professions « douces » souvent sous-estimées, nous ne devons pas ignorer leurs limites lorsqu’il s’agit d’atteindre les nobles objectifs qui leur sont assignés.

Alors qu’il est important de défendre le travail critique effectué par ces professions sous-estimées et sous-financées, il n’y a aucune raison de croire que leurs membres sont intrinsèquement mieux équipés pour être les arbitres de ce qui est éthique. Ces individus ont une expertise sociale et culturelle très réelle et importante, mais leurs domaines doivent tous compter avec leurs propres dilemmes structurels et zones de faiblesse.

Prenez l’anthropologie, une discipline qui a émergé comme partie intégrante du projet colonial occidental. Bien que l’anthropologie culturelle épouse désormais souvent des objectifs de justice sociale, rien ne garantit qu’un anthropologue (85 % d’entre eux sont blancs aux États-Unis) orienterait ou déploierait des algorithmes d’une manière moins biaisée que, disons, un informaticien. L’exemple le plus tristement célèbre est peut-être PredPol, la société de police prédictive de plusieurs millions de dollars dont Ruha Benjamin a fait partie Le nouveau code Jim. PredPol a été créé par Jeff Brantingham, professeur d’anthropologie à l’UCLA.

D’autres communautés universitaires défendues par ceux qui préconisent des données non techniques sont également en conflit. La surveillance et la quantification précoces des populations noires par la sociologie ont joué un rôle dans les technologies de surveillance d’aujourd’hui qui surveillent massivement les communautés noires. Mon propre domaine de recherche, les études critiques sur Internet, est très blanc et n’a pas réussi à centrer les préoccupations sur la race et le racisme. En effet, je suis souvent l’un des rares chercheurs noirs et bruns présents aux conférences de notre domaine. Il y a eu des moments où j’ai été entouré d’une plus grande diversité dans les espaces de l’industrie technologique que dans les espaces universitaires d’où dérivent les principales critiques de Big Tech.

Source-144