L’État d’origine de certaines des sociétés d’IA les plus influentes a un nouveau plan pour faire face à la réglementation potentielle de l’IA générative. Le gouverneur de Californie, Gavin Newsom, a signé un accord chargeant les agences de l’État d’étudier les risques potentiels et les cas d’utilisation de la technologie.
En vertu de cet ordre, les agences d’État sont chargées d’identifier « les utilisations les plus importantes et les plus bénéfiques de GenAI dans l’État » et de créer des cadres pour former les employés de l’État sur la façon d’utiliser les outils d’IA générative « approuvés par l’État » dans leur travail. De même, il demande aux mêmes agences d’analyser les impacts négatifs potentiels de la technologie, y compris ses effets sur les communautés vulnérables et les menaces qui pèsent sur les « infrastructures énergétiques critiques » de l’État.
L’ordonnance jette également les bases de nouveaux partenariats avec l’Université de Californie à Berkeley et l’Université de Stanford, qui aideront à étudier l’impact de l’IA générative sur les travailleurs de l’État. « Il s’agit d’une technologie potentiellement transformatrice – comparable à l’avènement d’Internet – et nous ne faisons qu’effleurer la compréhension de ce dont GenAI est capable », a déclaré Newsom dans un communiqué. « Nous reconnaissons à la fois les avantages potentiels et les risques associés à ces outils. »
Comme Bloomberg Le souligne, le décret californien précède le décret de la Maison Blanche sur l’IA générative attendu dans les mois à venir. Les dirigeants de plusieurs grandes entreprises d’IA ont récemment rencontré des responsables de la Maison Blanche alors que l’administration évalue les réglementations potentielles pour l’IA. Plus d’une demi-douzaine d’entreprises ont déjà accepté certaines mesures, notamment de nouveaux investissements dans la cybersécurité, à la suite de ces réunions.