La montée de la désinformation liée à l’intelligence artificielle soulève des préoccupations croissantes, surtout en période électorale. Lors d’une discussion organisée par TechCrunch, des experts ont débattu des défis de la régulation. Pamela San Martín de Meta a évoqué l’utilisation de l’IA pour modérer le contenu, tandis que Brandie Nonnecke et Imran Ahmed ont critiqué l’inefficacité de l’auto-régulation. L’urgence d’une régulation véritable et la responsabilité des plateformes face à la désinformation ont été mises en avant.
La montée de la désinformation liée à l’IA
Il fut un temps où distinguer une image générée par l’intelligence artificielle (IA) d’une photo authentique était relativement simple. Les contours des objets étaient flous, les proportions souvent inexactes, et les représentations de certains animaux, comme les chats, laissaient à désirer. Cependant, avec les avancées technologiques récentes, il devient de plus en plus difficile de discerner le vrai du faux. À l’approche des élections américaines, une discussion organisée par TechCrunch a réuni des experts en IA pour aborder la problématique de la désinformation, un sujet qui a mis en lumière les politiques d’auto-régulation de Meta, critiquées pour leur efficacité.
Pamela San Martín, co-présidente du Conseil de surveillance de Meta, a été l’une des intervenantes clés de cette discussion. Selon la FAQ du Conseil de surveillance, cet organisme regroupe des experts internationaux qui prennent des décisions contraignantes sur le contenu autorisé sur Facebook et Instagram. Toutefois, il est important de noter que ce conseil est financé directement par Meta, avec un montant impressionnant de 280 millions de dollars alloués au cours des cinq dernières années. Cette situation soulève des questions sur l’indépendance du conseil et la capacité de celui-ci à exercer un contrôle véritable.
Les défis de la régulation face à la désinformation
San Martín a reconnu les défis posés par l’IA tout en soulignant son potentiel en tant qu’outil pour combattre la désinformation. Selon elle, la plupart du contenu sur les réseaux sociaux fait l’objet d’une modération automatisée, l’IA jouant un rôle clé dans le processus de signalement. Elle a également proposé que la meilleure approche pour contrer la désinformation ne consiste pas seulement à la supprimer, mais également à fournir des informations ou des étiquettes appropriées, s’inspirant de la fonction de notes communautaires de certaines plateformes.
Cependant, cette vision a été contestée par Brandie Nonnecke, directrice fondatrice du CITRIS Policy Lab, qui a affirmé que les rapports de transparence ne faisaient pas suffisamment pour aborder le problème de la désinformation. Selon elle, même si ces rapports peuvent montrer des milliers d’exemples de contenu traité, ils ne donnent pas une image claire de ce qui demeure en ligne et peuvent créer un faux sentiment de diligence.
Imran Ahmed, PDG du Center for Countering Digital Hate, a également exprimé des réserves concernant l’auto-régulation de Meta et son Conseil de surveillance. Il a souligné que l’auto-régulation ne peut être considérée comme une véritable régulation, posant des questions fondamentales sur le pouvoir et la responsabilité de ceux qui exercent une influence dans ce domaine.
La discussion a mis en exergue l’urgence d’une régulation véritable et transparente, tout en rappelant que des mesures doivent être prises pour garantir la responsabilité des plateformes face à la désinformation croissante.