Facebook n’est pas étranger à la modération et à l’atténuation de la désinformation sur sa plateforme, ayant recours depuis longtemps à des systèmes d’apprentissage automatique et d’intelligence artificielle pour l’aider à compléter ses efforts de modération dirigés par l’homme. Début octobre, la société a étendu son expertise en apprentissage automatique à ses efforts publicitaires avec un ensemble expérimental d’outils d’IA générative capables d’effectuer des tâches telles que générer des arrière-plans, ajuster l’image et créer des légendes pour le contenu vidéo d’un annonceur. Reuters rapporte lundi que Meta ne mettra spécifiquement pas ces outils à la disposition des spécialistes du marketing politique avant ce qui devrait être un cycle électoral national brutal et source de division.
La décision de Meta d’interdire l’utilisation de l’IA générative est conforme à une grande partie de l’écosystème des médias sociaux, même si, comme Reuters s’empresse de le souligner, la société « n’a pas encore divulgué publiquement la décision dans aucune mise à jour de ses normes publicitaires ». TikTok et Snap interdisent tous deux les publicités politiques sur leurs réseaux, Google utilise une « liste noire de mots clés » pour empêcher ses outils de publicité générative d’IA de s’égarer dans le discours politique et X (anciennement Twitter) est, eh bien, vous l’avez vu.
Meta autorise une grande latitude d’exceptions à cette règle. L’interdiction de l’outil s’étend uniquement aux « vidéos trompeuses générées par l’IA dans tout le contenu, y compris les publications organiques non payantes, à l’exception de la parodie ou de la satire », selon Reuters. Ces exceptions sont actuellement examinées par le conseil de surveillance indépendant de la société dans le cadre d’une affaire dans laquelle Meta a laissé une vidéo « modifiée » du président Biden parce que, selon la société, elle n’a pas été générée par une IA.
Facebook, ainsi que d’autres grandes sociétés d’IA de la Silicon Valley, ont accepté en juillet les engagements volontaires énoncés par la Maison Blanche, établissant des garanties techniques et politiques dans le développement de leurs futurs systèmes d’IA générative. Il s’agit notamment de l’expansion des efforts d’apprentissage automatique contradictoire (alias red-teaming) pour éliminer les mauvais comportements des modèles, du partage d’informations sur la confiance et la sécurité à la fois au sein de l’industrie et avec le gouvernement, ainsi que du développement d’un système de filigrane numérique pour authentifier le contenu officiel et rendre clair. qu’il n’est pas généré par l’IA.