Avec la montée en puissance de ChatGPT, Bard et d’autres grands modèles linguistiques (LLM), nous avons entendu des avertissements de la part de personnes impliquées comme Elon Musk sur les risques posés par l’intelligence artificielle (IA). Maintenant, un groupe de leaders de l’industrie de haut niveau a publié une déclaration d’une phrase confirmant efficacement ces craintes.
L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire.
Il a été posté au Center for AI Safety, une organisation ayant pour mission « de réduire les risques à l’échelle de la société liés à l’intelligence artificielle », selon son site Web. Les signataires sont un who’s who de l’industrie de l’IA, dont le directeur général d’OpenAI, Sam Altman, et le directeur de Google DeepMind, Demis Hassabis. Les chercheurs lauréats du prix Turing Geoffrey Hinton et Yoshua Bengio, considérés par beaucoup comme les parrains de l’IA moderne, y ont également mis leur nom.
C’est la deuxième déclaration de ce genre au cours des derniers mois. En mars, Musk, Steve Wozniak et plus de 1 000 autres ont appelé à une pause de six mois sur l’IA pour permettre à l’industrie et au public de rattraper efficacement la technologie. « Ces derniers mois ont vu les laboratoires d’IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », indique la lettre.
Bien que l’IA ne soit pas (probablement) consciente d’elle-même comme certains l’ont craint, elle présente déjà des risques d’utilisation abusive et de préjudice via les deepfakes, la désinformation automatisée et plus encore. Les LLM pourraient également changer la façon dont le contenu, l’art et la littérature sont produits, affectant potentiellement de nombreux emplois.
Le président américain Joe Biden a récemment déclaré qu' »il reste à voir » si l’IA est dangereuse, ajoutant que « les entreprises technologiques ont la responsabilité, à mon avis, de s’assurer que leurs produits sont sûrs avant de les rendre publics… L’IA peut aider à faire face à certains défis très difficiles comme la maladie et le changement climatique, mais il doit également faire face aux risques potentiels pour notre société, pour notre économie, pour notre sécurité nationale. » Lors d’une récente réunion à la Maison Blanche, Altman a appelé à une réglementation de l’IA en raison des risques potentiels.
Avec de nombreuses opinions qui circulent, la nouvelle brève déclaration vise à montrer une préoccupation commune concernant les risques liés à l’IA, même si les parties ne s’entendent pas sur ce qu’elles sont.
« Les experts en IA, les journalistes, les décideurs et le public discutent de plus en plus d’un large éventail de risques importants et urgents liés à l’IA », lit-on dans le préambule de la déclaration. « Même ainsi, il peut être difficile d’exprimer des inquiétudes concernant certains des risques les plus graves de l’IA avancée. La déclaration succincte ci-dessous vise à surmonter cet obstacle et à ouvrir la discussion. Elle vise également à créer une connaissance commune du nombre croissant d’experts et du public des personnalités qui prennent également au sérieux certains des risques les plus graves de l’IA avancée. »