Revue de The Digital Republic par Jamie Susskind – comment apprivoiser la grande technologie | L’informatique et les netbooks

JVoici un moment où Facebook était une démocratie. Blink et vous l’auriez manqué, mais en décembre 2012, dans le cadre d’une initiative annoncée trois ans plus tôt par Mark Zuckerberg, l’entreprise a dévoilé de nouvelles conditions générales qu’elle souhaitait imposer aux utilisateurs. Ils ont été invités à voter pour savoir s’ils devaient être promulgués, oui ou non. Les électeurs ont été assez clairs : 88 % ont dit non, les nouvelles conditions n’étaient pas acceptables. C’était un triomphe du pouvoir populaire.

Sauf que Zuckerberg avait imposé une condition préalable : la décision ne serait contraignante que si au moins 30 % de tous les utilisateurs y participaient. Cela aurait nécessité des votes d’environ 300 millions sur les quelque 1 milliard d’utilisateurs que comptait alors la plate-forme (elle a depuis triplé). Mais un peu plus de 650 000 ont participé. Le roi Zuckerberg a déclaré que le temps de la démocratie était révolu et qu’à l’avenir, Facebook – ce qui signifie en réalité Zuckerberg, car il détient la majorité des actions avec droit de vote – déciderait de ce qui se passerait, sans référence à l’opinion des utilisateurs.

Depuis lors, l’entreprise est accusée d’avoir aidé au génocide des Rohingyas au Myanmar, à la diffusion de fausses informations en 2016 aux Philippines et aux élections américaines et au référendum sur le Brexit, de rassembler des extrémistes de droite violents qui ont ensuite tué aux États-Unis, de ne pas avoir étouffé la théorie du complot QAnon et, plus récemment, d’avoir aidé à fomenter l’insurrection américaine de janvier 2021.

Bien sûr, les termes et conditions de 2012 n’ont probablement pas conduit à ces résultats. De même, laisser Facebook à lui-même n’a pas « aidé » à les empêcher. En 2016, une note interne de l’un de ses dirigeants, Andrew Bosworth, suggérait que de tels dommages collatéraux étaient tolérables : « Nous connectons les gens. Cela peut être bon s’ils le rendent positif. Peut-être que quelqu’un trouve l’amour. Peut-être que cela sauve même la vie de quelqu’un sur le point de se suicider… Cela peut être mauvais s’ils le rendent négatif. Peut-être que cela coûte une vie en exposant quelqu’un à des intimidateurs. Peut-être que quelqu’un meurt dans une attaque terroriste coordonnée sur nos outils… [but] tout ce qui nous permet de connecter plus de personnes plus souvent est de facto bien. »

« Peut-être » que quelqu’un meurt dans une attaque terroriste coordonnée sur vos outils, mais dans l’ensemble ce que nous faisons est bien ? Même si Zuckerberg s’est distancié et Facebook des remarques, ce n’est pas le genre de langage que vous vous attendez à entendre, disons, d’un dirigeant d’une centrale nucléaire. Alors, pourquoi devrions-nous l’accepter de la part de cadres supérieurs d’entreprises dont les antécédents sont défavorables ? Il n’est donc pas surprenant que la clameur grandisse pour une plus grande réglementation des grandes entreprises technologiques telles que Facebook, Google (en particulier YouTube), Twitter, Instagram et le TikTok en plein essor, qui compte déjà plus d’un milliard d’utilisateurs dans le monde.

Dans ce tumulte vient Jamie Susskind, un avocat britannique qui soutient que nous avons besoin d’une « république numérique » pour protéger la société des dommages indifféremment causés par ces entreprises, et fournir un cadre – juridique, éthique, moral – pour la façon dont nous devrions les surveiller maintenant et dans le futur.

Susskind soutient que l’accent que nous mettons actuellement sur «l’individualisme du marché» – où les individus choisissent les plates-formes avec lesquelles ils interagissent, et déterminent ainsi celles qui réussissent ou échouent – a permis à ces entreprises de créer des fiefs. Ce dont nous avons besoin, dit-il, c’est d’une plus grande responsabilisation, ce qui signifie que nous devrions avoir plus de contrôle sur ce que font les entreprises. Ce serait une véritable république citoyenne ; plutôt que de s’appuyer sur la masse incohérente d’individus, une concentration collective sur la responsabilité forcerait la reddition de comptes et priverait les pouvoirs non mérités.

La « War Room » de Facebook surveille les élections au Brésil en 2018.
La « War Room » de Facebook surveille les élections au Brésil en 2018. Photographie : Bloomberg/Getty Images

La grande technologie semble être un espace où il devrait être facile de trouver des solutions. Les entreprises vendent-elles des données sans autorisation ? (Les grandes technologies ne le font pas, mais il existe un écosystème publicitaire florissant qui le fait.) Leurs algorithmes discriminent-ils injustement sur la base de la race, du sexe, du lieu ? Expulsent-ils les gens de leurs plates-formes sans raison ? Modèrent-ils injustement le contenu ? Ensuite, nous avons un casus belli à plaider et à corriger.

Ok mais comment? Le problème auquel Susskind, et nous, est confronté, c’est qu’il y a trois choix pour traiter avec ces entreprises. Laisse les tranquille? Cela n’a pas fonctionné. Adopter des lois pour les contrôler ? Mais nos systèmes politiques ont du mal à élaborer des lois sensées en temps opportun. Créer des régulateurs technocratiques pour les surveiller et les mettre au pas lorsqu’ils s’égarent ? Mais ceux-ci sont susceptibles de « capture réglementaire », où ils deviennent trop à l’aise avec leurs accusations. Aucun n’est totalement satisfaisant. Et nous luttons contre une hydre; aussi vite que la politique dans un domaine semble être clouée (par exemple, la désinformation sur les vaccins), deux autres apparaissent (par exemple, la reconnaissance faciale et l’apprentissage automatique).

Susskind suggère d’essayer plutôt des « mini-publics » – le plus souvent sous la forme d’« assemblées de citoyens », où vous réunissez un groupe restreint mais représentatif de la population et leur donnez des informations d’experts sur un choix difficile à faire, après quoi ils créent des options politiques. Taïwan et l’Autriche les utilisent, et en Irlande, ils ont aidé à formuler les questions dans les référendums sur le mariage homosexuel et l’avortement.

Ce qu’il ne reconnaît pas, c’est que cela ne fait que retarder le problème. Après la délibération des mini-publics, vous revenez aux choix initiaux : ne rien faire, légiférer ou réglementer.

Décider entre ces approches nécessiterait un examen très détaillé du fonctionnement de ces entreprises et des effets que ces approches pourraient avoir. Nous ne comprenons pas cela ici. Une grande surprise à propos du livre est la longueur des chapitres, ou son absence. Il y en a 41 (y compris une introduction et une conclusion) sur 301 pages, et entre chacune des 10 « parties » du livre se trouve une page blanche. Chaque chapitre ne fait donc que quelques pages, l’équivalent littéraire de ces mini-barres de Mars décrites de façon rageante comme « fun size ».

Mais beaucoup de ces sujets méritent plus que quelques bouchées ; ils sont beaucoup plus charnus et plus compliqués. Comment définissez-vous exactement les comptes « bot », et sont-ils toujours mauvais ? Une organisation extérieure devrait-elle pouvoir annuler la décision d’une entreprise de supprimer un compte pour ce qu’elle considère comme un comportement indésirable ? Si une entreprise s’appuie sur un algorithme pour ses revenus, jusqu’où l’État (ou la république) devrait-il pouvoir s’immiscer dans son fonctionnement, s’il n’enfreint pas les lois sur la discrimination ? Gardez à l’esprit que les algorithmes de Facebook au Myanmar, aux Philippines et aux États-Unis avant l’insurrection de 2021 n’ont rien fait d’illégal. (La dénonciatrice de Facebook, Frances Haugen, a déclaré récemment que seulement 200 personnes environ dans le monde entier comprennent comment son algorithme de fil d’actualité choisit ce qu’il faut vous montrer.) Alors, qu’est-ce que nous voulons que Facebook arrête ou commence à faire ? La bonne réponse, en l’occurrence, est « commencer à modérer le contenu de manière plus agressive » ; dans chaque cas, trop peu d’humains ont été chargés d’empêcher les mensonges inflammatoires de devenir incontrôlables. Définir combien de modérateurs est le nombre correct est alors un problème délicat en soi.

Ce sont tous des dilemmes loin d’être amusants, et même si nous avions des réponses claires, il y aurait toujours des obstacles structurels à la mise en œuvre – ce qui signifie souvent nous, les utilisateurs. « La vérité est que les individus suppriment encore trop de leurs protections », écrit Susskind, notant avec quelle facilité nous sélectionnons « J’accepte » avec dédain, abandonnant nos droits. Bien, mais quelle est l’alternative ? Le régime de protection des données de l’UE signifie que nous devons donner un « consentement éclairé », et même si l’idéal serait une dissidence non informée (pour que personne n’obtienne nos données), il y a trop d’argent contre nous pour en faire la valeur par défaut. Alors on coche des cases. Il aurait également été bon d’entendre des experts dans le domaine tels que Haugen, ou toute personne ayant une expérience directe qui pourrait indiquer des solutions à certains des problèmes. (Eux aussi ont tendance à lutter pour les trouver, ce qui ne donne pas d’espoir.) Les questions difficiles restent ouvertes ; rien n’est réellement résolu. « Il s’agit d’une formulation délibérément large », déclare Susskind à propos de sa recommandation sur la manière dont les algorithmes devraient être réglementés.

On se retrouve avec le soupçon sournois que ces problèmes pourraient simplement être insolubles. La seule option qui n’a pas vraiment été essayée est celle rejetée en 2012 : laisser les utilisateurs décider. Il ne serait pas difficile pour les sites de rendre le vote obligatoire et de permettre que nos décisions soient publiques. Zuckerberg n’en serait peut-être pas content. Mais il obtiendrait un vote : un seul, comme tout le monde. Cela pourrait vraiment créer une république numérique pour nous tous.

Charles Arthur est l’auteur de Social Warming: How Social Media Polarises Us All. The Digital Republic: On Freedom and Democracy in the 21st Century de Jamie Susskind est publié par Bloomsbury (£25). Pour soutenir le Guardian and Observer, commandez votre exemplaire sur guardianbookshop.com. Des frais de livraison peuvent s’appliquer.

source site-3