Sept entreprises, dont OpenAI, Microsoft, Google, Meta, Amazon, Anthropic et Inflection, se sont engagées à développer une technologie pour filigraner clairement le contenu généré par l’IA. Cela contribuera à rendre plus sûr le partage de texte, de vidéo, d’audio et d’images générés par l’IA sans induire les autres en erreur sur l’authenticité de ce contenu, espère l’administration Biden.
Le fonctionnement du filigrane n’est actuellement pas clair, mais il sera probablement intégré au contenu afin que les utilisateurs puissent retracer ses origines jusqu’aux outils d’IA utilisés pour le générer.
Les deepfakes sont devenus une préoccupation émergente pour les internautes et les décideurs alors que les entreprises technologiques se demandent comment gérer les utilisations controversées des outils d’IA.
Plus tôt cette année, le générateur d’images Midjourney a été utilisé pour créer de fausses images de l’arrestation de Donald Trump, qui sont ensuite devenues virales. Alors qu’il était évident pour beaucoup que les images étaient fausses, Midjourney a tout de même décidé de prendre des mesures pour interdire l’utilisateur qui les a faites. Peut-être que si un filigrane avait été disponible à l’époque, cet utilisateur, le fondateur de Bellingcat, Eliot Higgins, n’aurait jamais fait face à des conséquences aussi graves pour ce qu’il a dit n’était pas une tentative d’être intelligent ou de faire semblant d’autres, mais simplement de s’amuser avec Midjourney.
Il existe cependant d’autres utilisations abusives plus graves des outils d’IA, où un filigrane pourrait aider à sauver certains internautes de la douleur et des conflits. Plus tôt cette année, il a été signalé qu’un logiciel de génération de voix par IA était utilisé pour escroquer des milliers de dollars, et le mois dernier, le FBI a mis en garde contre l’utilisation croissante de deepfakes générés par l’IA dans les programmes de sextorsion.
La Maison Blanche a déclaré que le filigrane permettra « à la créativité avec l’IA de s’épanouir mais réduira les dangers de fraude et de tromperie ».
OpenAI a déclaré dans un blog avoir accepté « de développer des mécanismes robustes, y compris des systèmes de provenance et/ou de filigrane pour le contenu audio ou visuel », ainsi que « des outils ou des API pour déterminer si un contenu particulier a été créé avec leur système ». Cela s’appliquera à la plupart des contenus générés par l’IA, à de rares exceptions près, comme le fait de ne pas tatouer les voix par défaut des assistants IA.
« Le contenu audiovisuel qui se distingue facilement de la réalité ou qui est conçu pour être facilement reconnaissable comme généré par le système d’IA d’une entreprise, comme les voix par défaut des assistants IA, n’entre pas dans le cadre de cet engagement », a déclaré OpenAI.
Google a déclaré qu’en plus du filigrane, il « intégrera également des métadonnées » et « d’autres techniques innovantes » pour « promouvoir des informations fiables ».
Alors que les inquiétudes concernant l’utilisation abusive de l’IA augmentent, le président Joe Biden rencontrera aujourd’hui des entreprises technologiques. Cela devrait aider Biden et le Congrès à obtenir des informations clés avant d’élaborer un décret exécutif et une législation bipartite dans le but de reprendre le contrôle des technologies d’IA en évolution rapide.
Dans un blog, Microsoft a félicité l’administration Biden pour avoir créé « une fondation pour aider à garantir que la promesse de l’IA reste en avance sur ses risques » et « rassembler l’industrie technologique pour élaborer des mesures concrètes qui contribueront à rendre l’IA plus sûre, plus sécurisée et plus bénéfique pour le public ».
« Aucun d’entre nous ne peut maîtriser l’IA par lui-même », a déclaré le blog de Google.
Plus de garanties d’IA promises
En plus de développer des filigranes pour le contenu généré par l’IA, les entreprises technologiques ont pris une série d’autres engagements volontaires annoncés vendredi par la Maison Blanche.
Parmi eux, les entreprises technologiques ont accepté de mener des tests internes et externes sur les systèmes d’IA avant leur sortie. Ils ont également déclaré qu’ils investiraient davantage dans la cybersécurité et partageraient des informations à travers l’industrie pour aider à réduire les risques liés à l’IA. Ces risques incluent tout, de l’IA permettant la partialité ou la discrimination à l’abaissement des obstacles au développement d’armes avancées, a déclaré le blog d’OpenAI. Le blog de Microsoft a souligné les engagements supplémentaires qu’il a pris envers la Maison Blanche, notamment le soutien au développement d’un registre national documentant les systèmes d’IA à haut risque.
OpenAI a déclaré que les entreprises technologiques prenant ces engagements « constituent une étape importante dans la promotion d’une gouvernance significative et efficace de l’IA, tant aux États-Unis que dans le monde ». Le fabricant de ChatGPT, GPT-4 et DALL-E 2 a également promis « d’investir dans la recherche dans des domaines qui peuvent aider à éclairer la réglementation, comme les techniques d’évaluation des capacités potentiellement dangereuses dans les modèles d’IA ».
Le président des affaires mondiales de Meta, Nick Clegg, a fait écho à OpenAI, qualifiant les engagements des entreprises technologiques de « première étape importante pour garantir la mise en place de garde-fous responsables pour l’IA ».
Google a décrit les engagements comme « une étape importante dans le rapprochement de l’industrie pour garantir que l’IA aide tout le monde ».
La Maison Blanche s’attend à ce que le relèvement des normes de l’IA améliore la sûreté, la sécurité et la confiance dans l’IA, selon un responsable cité par le Financial Times. « C’est une grande priorité pour le président et l’équipe ici », a déclaré le responsable.