Lors d’un sommet à la Maison Blanche ce vendredi, sept des plus grandes sociétés d’IA au monde se sont engagées à améliorer les garde-corps de sécurité autour de leurs produits d’IA. Après des mois de consultations et de demandes de commentaires, l’accord entre la Maison Blanche et les sociétés investies dans l’IA Amazon, Anthropic, Meta, Microsoft, Google, Inflection et OpenAI vise à répondre aux préoccupations de l’administration concernant les risques et les dangers des systèmes d’IA.
L’une des mesures convenues est une augmentation du financement de la recherche sur la discrimination, afin de contrer les biais algorithmiques qui sont actuellement inhérents aux réseaux d’IA.
Les entreprises ont également convenu de faire des investissements supplémentaires dans la cybersécurité. Si vous avez déjà développé un projet ou codé quelque chose dans un outil comme ChatGPT, vous savez à quel point les informations contenues dans votre chat IA sont complètes. Et il y a déjà eu suffisamment d’informations d’identification d’utilisateur ChatGPT divulguées en ligne – sans faute pour OpenAI, remarquez – c’est ce que l’investissement accru dans la cybersécurité est censé combattre.
La mise en œuvre de filigranes sur le contenu généré par l’IA était également promise – un problème qui a été particulièrement chaud ces derniers temps, pour diverses raisons.
Il y a l’angle du droit d’auteur, qui a déjà vu plusieurs poursuites intentées contre des sociétés d’IA générative : le filigrane du contenu généré par l’IA serait un moyen d’apaiser les craintes que les données émergentes générées par l’homme (celles qui sont automatiquement produites juste en agissant sur nos vies) soient de plus en plus diluées dans une mer de contenu généré par l’IA qui s’améliore rapidement.
Il y a aussi l’angle d’impact systémique : quels métiers seront impactés par l’IA ? Oui, il y a suffisamment de besoins dans le monde pour éventuellement absorber les travailleurs vers d’autres industries moins touchées, mais cette transition a des coûts humains, économiques et temporels. Si trop de choses changent, trop vite, l’ensemble de l’économie et du système de travail pourrait être brisé.
Bien sûr, le filigrane des données générées par l’IA (ou des données synthétiques, comme on l’appelle plus récemment et fréquemment) est également dans l’intérêt des entreprises d’IA. Ils ne veulent pas que leurs IA finissent par devenir MAD en raison d’ensembles de données synthétiques, d’ensembles de données empoisonnés, ni par l’incapacité de distinguer les données synthétiques des données émergentes plus sûres, mais beaucoup plus chères.
Et si les problèmes de formation récursive des IA restent trop difficiles à résoudre pendant trop longtemps maintenant que l’IA est sortie de la bouteille, les développeurs d’IA pourraient bientôt manquer de bons ensembles de données avec lesquels continuer à former leurs réseaux.
Toutes les promesses étaient volontaires, peut-être dans une démonstration de bonne volonté de la part des entreprises les plus investies dans l’IA. Mais il y a un bonus supplémentaire : un mouvement comme celui-ci enlève également une partie de l’avantage du « pouvons-nous contrôler l’IA au rythme auquel nous allons actuellement ? » débat. Si les propres développeurs d’IA sont prêts à augmenter volontairement la sûreté et la sécurité de leurs systèmes, alors c’est peut-être aussi un domaine dans lequel ils seront également de bons gardiens (bien que votre kilométrage puisse varier).
Une partie du problème avec cette approche est qu’il ne s’agit que de sept entreprises : qu’en est-il des centaines d’autres entreprises développant des produits d’IA ? Peut-on faire confiance à ceux qui sont déjà plus petits et désavantagés par rapport aux géants comme OpenAI et Microsoft ? Parce que ce sont les entreprises qui ont le plus à gagner à sortir de force le produit dont dépendent leurs moyens de subsistance au grand jour. Ce ne serait certainement pas la première fois qu’un produit serait rapidement monétisé.
Les engagements ont appelé à une validation interne et externe et à la vérification qu’ils sont activement poursuivis (mais il y a toujours des oublis, des malentendus, des documents perdus et des lacunes).
Le problème ici est que l’IA présente un risque fondamental de niveau d’extinction, et il y a un côté de cet avantage sur lequel nous ne voulons absolument pas être.