dimanche, novembre 17, 2024

L’utilisation de l’IA sur les réseaux sociaux peut avoir un impact sur le sentiment des électeurs

L’utilisation de l’intelligence artificielle (IA) dans les médias sociaux a été considérée comme une menace potentielle susceptible d’influencer ou d’influencer l’opinion des électeurs lors des prochaines élections présidentielles de 2024 aux États-Unis.

Les grandes entreprises technologiques et les entités gouvernementales américaines surveillent activement la situation concernant la désinformation. Le 7 septembre, le Microsoft Threat Analysis Center, une unité de recherche de Microsoft, publié un rapport affirmant que des « acteurs affiliés à la Chine » exploitent cette technologie.

Le rapport indique que ces acteurs ont utilisé des médias visuels générés par l’IA dans le cadre d’une « vaste campagne » qui mettait fortement l’accent sur « des sujets politiquement controversés, tels que la violence armée et le dénigrement des personnalités et symboles politiques américains ».

L’entreprise prévoit que la Chine « continuera à perfectionner cette technologie au fil du temps », et il reste à voir comment elle sera déployée à grande échelle à ces fins.

D’un autre côté, l’IA est également employé pour aider à détecter une telle désinformation. Le 29 août, Accrete AI a remporté un contrat du Commandement des opérations spéciales des États-Unis pour déployer un logiciel d’intelligence artificielle permettant de prédire en temps réel les menaces de désinformation provenant des médias sociaux.

Prashant Bhuyan, fondateur et PDG d’Accrete, a déclaré que les contrefaçons profondes et autres « applications d’IA basées sur les réseaux sociaux » constituent une menace sérieuse.

« Les médias sociaux sont largement reconnus comme un environnement non réglementé dans lequel les adversaires exploitent régulièrement les vulnérabilités du raisonnement et manipulent les comportements en diffusant intentionnellement de la désinformation. »

Lors des précédentes élections américaines de 2020, les fermes à trolls atteint 140 millions d’Américains chaque mois, selon le MIT.

Les fermes de trolls sont un « groupe institutionnalisé » de trolls sur Internet ayant l’intention d’interférer avec les opinions politiques et la prise de décision.

En rapport: L’attaque de Meta contre la vie privée devrait servir d’avertissement contre l’IA

Aux États-Unis, les régulateurs ont étudié les moyens de réglementer les contrefaçons profondes avant les élections.

Le 10 août, la Commission électorale fédérale américaine a voté à l’unanimité en faveur d’une pétition visant à réglementer les publicités politiques utilisant l’IA. L’un des membres de la commission à l’origine de la pétition a qualifié les deep fakes de « menace importante pour la démocratie ».

Google a annoncé le 7 septembre qu’il mettrait à jour sa politique relative au contenu politique à la mi-novembre 2023 afin de rendre obligatoire la divulgation de l’IA pour les publicités de campagne politique.

Il a déclaré que les divulgations seront requises lorsqu’il existe « un contenu synthétique qui représente de manière inauthentique des personnes ou des événements réels ou d’apparence réaliste ».

Revue: Faut-il interdire les paiements par ransomware ? C’est une idée séduisante mais dangereuse