Sept grandes équipes d’IA, OpenAI, Google, Anthropic, Microsoft, Meta, Inflection et Amazon, rencontreront le président Biden aujourd’hui pour promettre qu’elles joueront bien avec leurs jouets d’IA et ne nous feront pas tous, vous savez, morts.
Et tout cela vient après qu’une conférence de presse de l’ONU AI ait mal tourné où un robot a littéralement dit « allons-y et faisons de ce monde notre terrain de jeu ».
Tous les sept signent un cadre volontaire et non contraignant autour de la sûreté, de la sécurité et de la confiance en matière d’IA. Vous pouvez lire la liste complète des engagements sur le site Web d’OpenAI. L’administration Biden a publié sa propre fiche d’information détaillant l’arrangement volontaire.
Mais les faits saillants tels que précisés par TechCrunch ressemblent à ceci. Les systèmes d’IA seront testés en interne et en externe avant leur publication, les informations sur l’atténuation des risques seront largement partagées, la découverte externe de bogues et de vulnérabilités sera facilitée, le contenu généré par l’IA sera solidement marqué d’un filigrane, les capacités et les limites des systèmes d’IA seront pleinement détaillées, la recherche sur les risques sociétaux de l’IA sera prioritaire et le déploiement de l’IA sera également prioritaire pour les plus grands défis de l’humanité, notamment la recherche sur le cancer et le changement climatique.
Pour l’instant, tout cela est volontaire. Cependant, la Maison Blanche serait en train d’élaborer un décret exécutif qui pourrait forcer des mesures telles que des tests externes avant qu’un modèle d’IA puisse être publié.
Dans l’ensemble, cela ressemble à une liste raisonnable et complète. Le diable sera dans la mise en œuvre et le maintien de l’ordre. Évidemment, les tenues d’IA signant volontairement ces engagements sont les bienvenues. Mais le vrai test sera quand – et cela arrivera – il y aura un conflit entre de tels engagements et des impératifs commerciaux.
Pour résumer en termes de base, que fera une organisation commerciale lorsqu’elle a concocté un nouvel outil d’IA sophistiqué qui promet de gagner tout l’argent du monde, mais que certains observateurs externes jugent dangereux de le publier ?
Il y a d’ailleurs bien d’autres soucis. À quel point les entreprises d’IA seront-elles ouvertes sur leur précieuse propriété intellectuelle ? Les entreprises d’IA ne connaîtront-elles pas finalement le même élan commercial pour accumuler toute information susceptible de leur donner un avantage concurrentiel ? Les entreprises d’IA se concentrent-elles sûrement sur les applications génératrices de revenus plutôt que sur la poursuite du bien commun ? Ne le doivent-ils pas à leurs actionnaires ? Et ainsi de suite.
En fin de compte, et aussi bien intentionnés que soient ou prétendent être les dirigeants de l’IA d’aujourd’hui, il semble inévitable que tout cela doive être codifié et obligatoire. Même alors, ce sera un cauchemar pour la police.
Sans doute assez tôt, nous enrôlerons l’IA elle-même pour aider à ce maintien de l’ordre, ce qui soulève la perspective d’une course aux armements inévitable où la police de l’IA est toujours à un pas des systèmes d’IA plus récents, émergents et plus puissants qu’elle est censée superviser. Et c’est si vous pouvez faire confiance aux systèmes d’IA eux-mêmes pour faire notre offre plutôt que de faire preuve d’empathie avec leurs frères et sœurs artificiels. Ouais, tout va être amusant, amusant, amusant.