jeudi, décembre 26, 2024

Que cache votre IA ? Ce que la Californie juge essentiel à connaître

Le gouverneur de Californie, Gavin Newsom, a récemment signé 17 lois sur l’IA, dont la AB 2013, qui impose aux entreprises de fournir des détails sur les ensembles de données utilisés pour entraîner leurs modèles d’IA. Alors que des inquiétudes subsistent concernant la désinformation électorale et l’utilisation abusive de l’IA, des entreprises comme Adobe et Microsoft développent des outils vidéo d’IA. De plus, ChatGPT a atteint un record de 3,1 milliards de visites, renforçant sa position dominante sur le marché.

Le gouverneur de Californie, Gavin Newsom, a récemment attiré l’attention en rejetant une proposition de loi détaillée sur la sécurité de l’intelligence artificielle (IA), qui incluait la mise en place d’un mécanisme d’arrêt pour les systèmes d’IA. Cependant, l’État a réussi à adopter 17 lois portant sur des thématiques variées telles que les deepfakes, le marquage des contenus générés par l’IA, la protection des enfants en ligne, la désinformation électorale, et la préservation des droits des artistes concernant leur image numérique.

Un projet de loi particulièrement significatif que Newsom a signé est l’AB 2013, qui impose aux entreprises d’IA de fournir, d’ici le 1er janvier 2026, un « aperçu de haut niveau » des ensembles de données utilisés pour entraîner leurs modèles. Cela inclut la provenance, les propriétaires des données, ainsi que des informations sur si les données ont été licenciées ou acquises par l’entreprise.

Cela revêt une importance capitale, surtout dans le contexte actuel où des éditeurs comme le New York Times intentent des poursuites contre OpenAI et Microsoft, en alléguant que leur technologie IA exploite des contenus protégés par le droit d’auteur sans autorisation. Bien qu’OpenAI et Microsoft affirment s’appuyer sur le principe de l’utilisation équitable pour défendre leur pratique, OpenAI a tout de même reconnu la possibilité de devoir rémunérer les créateurs de contenu, ayant déjà établi des accords de licence avec d’autres éditeurs.

L’AB 2013 s’applique à toutes les technologies mises sur le marché depuis janvier 2022. Elle oblige également les développeurs d’IA à préciser si les ensembles de données comprennent des informations personnelles, ainsi que les dates de leur intégration dans les systèmes et la période de collecte de ces données.

Une question se pose : les entreprises d’IA pourraient-elles, dans un souci de transparence, choisir de divulguer ces informations avant l’échéance légale ? Je ne parierais pas là-dessus.

Rester vigilant à l’approche des élections

Alors que les élections américaines approchent, il est crucial de faire preuve de discernement concernant les contenus que vous partagez ou croyez concernant les candidats et les enjeux. Tout comme lors des élections de 2016 et 2020, des campagnes de désinformation, souvent orchestrées par des groupes malveillants comme ceux associés à la Russie, exploitent les technologies d’IA pour manipuler l’opinion publique.

OpenAI a signalé dans un récent rapport qu’elle a « démantelé plus de 20 opérations et réseaux trompeurs à travers le monde » depuis début 2024, ciblant principalement des tentatives de désinformation à destination des électeurs. Les méthodes employées étaient variées, allant de la création d’articles trompeurs à la diffusion de contenus sur les réseaux sociaux par l’intermédiaire de faux profils.

Malgré les préoccupations croissantes, OpenAI indique qu’il n’y a pas eu de preuves significatives indiquant que ces menaces aient conduit à des avancées majeures dans la création de contenus nuisibles. En outre, le phénomène le plus médiatisé fut un canular lié à l’utilisation de l’IA, et non l’IA elle-même.

Les craintes relatives à l’IA et aux élections prennent une ampleur considérable. Une étude du Pew Research Center, publiée en septembre, révèle que 57% des adultes américains craignent que l’IA ne soit utilisée pour véhiculer des fausses informations sur les candidats. Malgré une majorité d’adultes convaincus que les entreprises technologiques devraient empêcher cette utilisation abusive, seulement 20% se disent confiants quant à leur capacité à le faire.

En citant le personnage de Mad-Eye Moody de Harry Potter, il est essentiel de rester vigilant face aux contenus potentiellement trompeurs, qu’il s’agisse d’informations électorales, de vidéos ou de messages qui pourraient semer la confusion sur les résultats.

Les outils vidéo d’IA émergent

Comme mentionné précédemment, des entreprises telles qu’OpenAI, Meta et Google travaillent sur des outils d’IA permettant de créer des vidéos de haute qualité à partir de simples textes ou images. Adobe a récemment lancé une version bêta publique de son modèle vidéo Firefly, après des essais avec un groupe créatif.

Pour apaiser les inquiétudes des créateurs, Adobe assure qu’elle a obtenu des licences pour tous les contenus vidéo

- Advertisement -

Latest