L’administration chinoise du cyberespace a récemment publié des réglementations interdisant la création de médias générés par l’IA sans étiquettes claires, telles que des filigranes, entre autres politiques, rapporte The Register. Les nouvelles règles s’inscrivent dans le cadre de la réponse évolutive de la Chine à la tendance générative de l’IA qui a balayé le monde de la technologie en 2022, et elles entreront en vigueur le 10 janvier 2023.
En Chine, l’administration du cyberespace supervise la réglementation, la surveillance et la censure d’Internet. Dans le cadre de la nouvelle réglementation, l’administration surveillera de plus près ce qu’elle appelle la technologie de « synthèse profonde ».
Dans un article de presse sur le site Web du Bureau chinois de la Commission centrale des affaires du cyberespace, le gouvernement a expliqué les raisons pour lesquelles il a publié le règlement. Il a souligné la récente vague d’IA de synthèse de texte, d’image, de voix et de vidéo, que la Chine reconnaît comme importante pour la croissance économique future (traduction via Google Translate) :
Ces dernières années, la technologie de synthèse profonde s’est développée rapidement. Tout en répondant aux besoins des utilisateurs et en améliorant l’expérience utilisateur, il a également été utilisé par des personnes peu scrupuleuses pour produire, copier, publier et diffuser des informations illégales et préjudiciables, pour calomnier et déprécier la réputation et l’honneur d’autrui, et pour contrefaire l’identité d’autrui. La fraude, etc., affecte l’ordre des communications et l’ordre social, porte atteinte aux droits et intérêts légitimes du peuple et met en danger la sécurité nationale et la stabilité sociale.
La mise en place de la « Réglementation » est une nécessité pour prévenir et résoudre les risques de sécurité, et c’est aussi une nécessité pour favoriser le développement sain de services synthétiques approfondis et améliorer le niveau des capacités de supervision.
En vertu de la réglementation, les nouveaux produits de synthèse profonde seront soumis à une évaluation de sécurité par le gouvernement. Chaque produit doit être trouvé conforme à la réglementation avant de pouvoir être libéré. En outre, l’administration insiste particulièrement sur l’exigence de « marques » évidentes (telles que les filigranes) qui dénotent le contenu généré par l’IA :
Les fournisseurs de services de synthèse approfondie doivent ajouter des signes qui n’affectent pas l’utilisation du contenu informatif généré ou édité à l’aide de leurs services. Les services qui fournissent des fonctions telles que le dialogue intelligent, la voix humaine synthétisée, la génération de visage humain et des scènes réalistes immersives qui génèrent ou modifient de manière significative le contenu de l’information, doivent être marqués de manière bien visible pour éviter toute confusion ou erreur d’identification du public.
Il est exigé qu’aucune organisation ou personne n’utilise des moyens techniques pour supprimer, altérer ou dissimuler des marques pertinentes.
De plus, les entreprises qui fournissent une technologie de synthèse profonde doivent tenir leurs registres conformes à la loi, et les personnes utilisant la technologie doivent créer des comptes avec leur vrai nom afin que leur activité de génération puisse être traçable.
Comme les États-Unis, la Chine a connu un boom des applications alimentées par l’IA. Par exemple, l’une des principales entreprises technologiques chinoises, Baidu, a produit un modèle de synthèse d’images similaire à DALL-E et Stable Diffusion.
Un nombre croissant d’experts en technologie ont récemment reconnu que la Chine et les États-Unis sont confrontés à une prochaine vague d’IA générative qui pourrait poser des défis aux structures de pouvoir, permettre la fraude ou même altérer notre sens de l’histoire. Jusqu’à présent, les deux pays ont réagi avec des réactions presque opposées – les États-Unis avec des directives non contraignantes contre les restrictions fermes de la Chine.
En 2019, la Chine a publié ses premières règles rendant illégale la publication de deepfakes non marqués de « fausses nouvelles ». Ces règles sont entrées en vigueur début 2020.