Les gouvernements britannique et américain ont commencé à se méfier de l’émergence récente de puissantes technologies d’IA et font les premiers pas pour tenter de freiner le secteur. L’Autorité britannique de la concurrence et des marchés (CMA), qui vient de couper l’herbe sous le pied de l’acquisition proposée d’Activision Blizzard par Microsoft, a entamé un examen des systèmes sous-jacents à divers outils d’IA. Le gouvernement américain s’est joint à lui en publiant une déclaration affirmant que les entreprises d’IA ont « la responsabilité fondamentale de s’assurer que leurs produits sont sûrs avant qu’ils ne soient déployés ou rendus publics ».
Tout cela survient peu de temps après que le Dr Geoffrey Hinton, parfois appelé « le parrain de l’apprentissage en profondeur », a démissionné de Google (s’ouvre dans un nouvel onglet) et a averti que l’industrie doit arrêter de faire évoluer la technologie de l’IA et se demander « s’ils peuvent la contrôler ». Google est l’une des nombreuses grandes entreprises technologiques, dont Microsoft et OpenAI, qui ont énormément investi dans les technologies d’intelligence artificielle, et cet investissement pourrait bien faire partie du problème : ces entreprises veulent finalement voir d’où viennent les rendements.
La démission du Dr Hinton intervient au milieu de craintes plus larges concernant le secteur. Le mois dernier, une lettre conjointe de 30 000 signataires, dont des personnalités technologiques de premier plan comme Elon Musk, a mis en garde contre les effets de l’IA sur des domaines tels que l’emploi, le potentiel de fraude et, bien sûr, la bonne vieille désinformation. Le conseiller scientifique du gouvernement britannique, Sir Patrick Vallance, a supplié le gouvernement de « prendre de l’avance » sur ces questions et a comparé l’émergence de la technologie à la révolution industrielle.
« L’IA a fait irruption dans la conscience publique au cours des derniers mois, mais elle est sur notre radar depuis un certain temps », la directrice générale de la CMA, Sarah Cardell, a déclaré au Guardian (s’ouvre dans un nouvel onglet). « Il est crucial que les avantages potentiels de cette technologie transformatrice soient facilement accessibles aux entreprises et aux consommateurs britanniques, tandis que les gens restent protégés contre des problèmes tels que les informations fausses ou trompeuses. »
L’examen de la CMA fera rapport en septembre et visera à établir des «principes directeurs» pour l’avenir du secteur. Le Royaume-Uni est sans doute l’un des leaders dans le domaine, avec la société britannique DeepMind (détenue par la société mère de Google Alphabet) parmi d’autres grandes entreprises d’IA, notamment Stability AI (Stable Diffusion).
Aux États-Unis, pendant ce temps, la vice-présidente Kamala Harris a rencontré des dirigeants d’Alphabet, de Microsoft et d’OpenAI à la Maison Blanche, avant de publier une déclaration disant que « le secteur privé a la responsabilité éthique, morale et légale d’assurer la sûreté et la sécurité de leurs des produits ».
Cela ressemble un peu à la fermeture de la porte de l’écurie après le départ du cheval, mais l’administration Biden a également annoncé qu’elle allait dépenser 140 millions de dollars pour sept nouveaux instituts nationaux de recherche sur l’IA, axés sur la création de technologies « éthiques, dignes de confiance, responsables et servant le bien public. » À l’heure actuelle, le développement de l’IA relève presque entièrement du secteur privé.
Je suppose qu’ils prêtent enfin attention, au moins, même si vous vous demandez quelle est notre capacité à freiner ce genre de choses. Un point notable soulevé par le Dr Hinton est que, quelle que soit la direction que prennent les avancées futures, « il est difficile de voir comment vous pouvez empêcher les mauvais acteurs de l’utiliser pour de mauvaises choses », avant de comparer le contrôle de ses utilisations à une pelleteuse.
« Dès que vous disposez d’une bonne technologie mécanique, vous pouvez fabriquer des choses comme des rétrocaveuses qui peuvent creuser des trous dans la route. Mais bien sûr, une rétrocaveuse peut vous faire tomber la tête », a déclaré Hinton. « Mais vous ne voulez pas ne pas développer une rétrocaveuse car cela peut vous faire tomber la tête, ce serait considéré comme idiot. »