vendredi, décembre 27, 2024

Oubliez Cambridge Analytica – Voici comment l’IA pourrait menacer les élections

En 2018, le monde a été choqué d’apprendre que la société de conseil politique britannique Cambridge Analytica avait récolté les données personnelles d’au moins 50 millions d’utilisateurs de Facebook sans leur consentement et les avait utilisées pour influencer les élections aux États-Unis et à l’étranger.

Une enquête secrète menée par Channel 4 News a abouti à images du PDG de l’époque de l’entreprise, Alexander Nix, suggérant qu’il n’y avait aucun problème à induire délibérément le public en erreur pour soutenir ses clients politiques, en disant:

«Cela semble une chose épouvantable à dire, mais ce sont des choses qui n’ont pas nécessairement besoin d’être vraies. Tant qu’on les croit »

Le scandale a été un signal d’alarme sur les dangers des médias sociaux et des mégadonnées, ainsi que sur la fragilité de la démocratie face aux changements technologiques rapides que connaît le monde.

Intelligence artificielle

Comment l’intelligence artificielle (IA) s’intègre-t-elle dans ce tableau ? Pourrait-il également être utilisé pour influencer les élections et menacer l’intégrité des démocraties dans le monde ?

Selon Trish McCluskey, professeur agrégé à l’Université Deakin, et bien d’autres, la réponse est un oui catégorique.

McCluskey a déclaré à Cointelegraph que de grands modèles de langage tels que ChatGPT d’OpenAI « peuvent générer un contenu indiscernable à partir d’un texte écrit par l’homme », ce qui peut contribuer à des campagnes de désinformation ou à la diffusion de fausses nouvelles en ligne.

Parmi d’autres exemples de la façon dont l’IA peut potentiellement menacer les démocraties, McCluskey a souligné la capacité de l’IA à produire des contrefaçons profondes, qui peuvent fabriquer des vidéos de personnalités publiques comme des candidats à la présidentielle et manipuler l’opinion publique.

Bien qu’il soit généralement facile de dire quand une vidéo est un deepfake, la technologie progresse rapidement et finira par devenir indiscernable de la réalité.

Par exemple, une vidéo deepfake de l’ancien PDG de FTX, Sam Bankman-Fried, liée à un site Web de phishing, montre comment les lèvres peuvent souvent être désynchronisées avec les mots, laissant aux téléspectateurs le sentiment que quelque chose ne va pas.

Gary Marcu, entrepreneur en IA et co-auteur du livre Redémarrer l’IA : construire une intelligence artificielle en laquelle nous pouvons avoir confiance, était d’accord avec l’évaluation de McCluskey, disant à Cointelegraph qu’à court terme, le risque le plus important posé par l’IA est :

« La menace d’une désinformation massive, automatisée et plausible accable la démocratie. »

Un examen par les pairs de 2021 papier par les chercheurs Noémi Bontridder et Yves Poullet intitulé « Le rôle de l’intelligence artificielle dans la désinformation » a également mis en évidence la capacité des systèmes d’IA à contribuer à la désinformation et a suggéré qu’il le fasse de deux manières :

« D’abord, ils [AI] peuvent être exploitées par des acteurs malveillants afin de manipuler des individus de manière particulièrement efficace et à grande échelle. Deuxièmement, ils amplifient directement la diffusion de ces contenus.

De plus, les systèmes d’IA d’aujourd’hui ne sont aussi bons que les données qui y sont introduites, ce qui peut parfois entraîner des réponses biaisées qui peuvent influencer l’opinion des utilisateurs.

Comment atténuer les risques

S’il est clair que l’IA a le potentiel de menacer la démocratie et les élections dans le monde, il convient de mentionner que l’IA peut également jouer un rôle positif dans la démocratie et combattre la désinformation.

Par exemple, McCluskey a déclaré que l’IA pourrait être « utilisée pour détecter et signaler la désinformation, pour faciliter la vérification des faits, pour surveiller l’intégrité des élections », ainsi que pour éduquer et impliquer les citoyens dans les processus démocratiques.

« La clé », ajoute McCluskey, « est de s’assurer que les technologies d’IA sont développées et utilisées de manière responsable, avec des réglementations et des garanties appropriées en place. »

Un exemple de réglementation qui peut aider à atténuer la capacité de l’IA à produire et à diffuser de la désinformation est la loi sur les services numériques (DSA) de l’Union européenne.

En rapport: Le PDG d’OpenAI témoignera devant le Congrès aux côtés du défenseur de la « pause de l’IA » et de la direction d’IBM

Lorsque la DSA entrera pleinement en vigueur, les grandes plateformes en ligne comme Twitter et Facebook seront tenues de respecter une liste d’obligations visant à minimiser la désinformation, entre autres, ou seront passibles d’amendes pouvant aller jusqu’à 6 % de leur chiffre d’affaires annuel.

La DSA introduit également des exigences de transparence accrues pour ces plateformes en ligne, qui les obligent à divulguer comment elles recommandent du contenu aux utilisateurs – souvent à l’aide d’algorithmes d’IA – ainsi que la façon dont elles modèrent le contenu.

Bontridder et Poullet ont noté que les entreprises utilisent de plus en plus l’IA pour modérer le contenu, ce qui, selon eux, pourrait être « particulièrement problématique », car l’IA a le potentiel de trop modérer et d’empiéter sur la liberté d’expression.

Le DSA ne s’applique qu’aux opérations dans l’Union européenne ; McCluskey note qu’en tant que phénomène mondial, une coopération internationale serait nécessaire pour réglementer l’IA et lutter contre la désinformation.

Magazine : 3,4 milliards de dollars de Bitcoin dans une boîte de pop-corn — L’histoire du hacker de la route de la soie

McCluskey a suggéré que cela pourrait se produire via « des accords internationaux sur l’éthique de l’IA, des normes de confidentialité des données ou des efforts conjoints pour suivre et combattre les campagnes de désinformation ».

En fin de compte, McCluskey a déclaré que « lutter contre le risque que l’IA contribue à la désinformation nécessitera une approche à multiples facettes », impliquant « la réglementation gouvernementale, l’autorégulation des entreprises technologiques, la coopération internationale, l’éducation du public, les solutions technologiques, l’éducation aux médias et la recherche continue ».