La cyberactivité ciblant les élections canadiennes est en hausse, selon une agence de renseignement

Contenu de l’article

OTTAWA — Un nouveau rapport fédéral indique que les activités de cybermenace ciblant les élections sont en augmentation dans le monde entier et qu’elles sont désormais plus susceptibles d’être observées lors du prochain scrutin fédéral au Canada.

Contenu de l’article

Le rapport du Centre canadien pour la cybersécurité révèle qu’en 2022, un peu plus d’un quart de toutes les élections nationales dans le monde ont fait l’objet d’au moins un cyberincident signalé.

Contenu de l’article

Cependant, le centre a averti que les auteurs de cybermenaces parviennent de mieux en mieux à brouiller leurs traces et que la plupart des activités de cybermenace ciblant les élections restent non attribuées.

Le rapport met également en évidence le phénomène émergent de l’intelligence artificielle générative, qui peut produire divers types de contenus, notamment du texte, des images, de l’audio et de la vidéo, parfois appelés « deepfakes ».

« Ce contenu synthétique peut être utilisé dans des campagnes d’influence visant à manipuler secrètement des informations en ligne et, par conséquent, à influencer les opinions et les comportements des électeurs », indique le rapport.

« Malgré les avantages créatifs potentiels de l’IA générative, sa capacité à polluer l’écosystème de l’information par la désinformation menace les processus démocratiques dans le monde entier. »

Contenu de l’article

VIDÉO RECOMMANDÉE

Nous nous excusons, mais cette vidéo n’a pas pu se charger.

Dans la plupart des cas, on ne sait pas clairement qui se cache derrière la désinformation générée par l’IA, ajoute le rapport.

« Cependant, nous estimons qu’il est très probable que des adversaires étrangers ou des hacktivistes utiliseront l’IA générative pour influencer les électeurs avant les prochaines élections fédérales au Canada. »

Les acteurs de la cybermenace utilisent déjà cette technologie pour poursuivre des objectifs politiques stratégiques à l’étranger, note le rapport. Par exemple, des joueurs pro-russes ont utilisé l’IA générative pour créer une imitation profonde de la capitulation du président ukrainien Volodymyr Zelenskyy après l’invasion de l’Ukraine par la Russie.

« Nous estimons qu’il est très probable que la capacité à générer des deepfakes dépasse notre capacité à les détecter. Les modèles de détection actuels, accessibles au public, ont du mal à faire la distinction de manière fiable entre les deepfakes et le contenu réel.

Partagez cet article sur votre réseau social

Source link-19