Alors que l’IA aime ChatGPT et Barde Google ont certainement été impressionnants, tout le monde n’est pas ravi. Les experts de l’IA ont appelé à « avertissements de santé numériques, » et Elon Musk a rejoint beaucoup d’autres dans l’industrie en signer une lettre ouverte appelant à une pause dans la course aux armements de l’IA.
Maintenant, l’un des membres de Google rejoint le camp anti-IA. Selon Le New York Times (s’ouvre dans un nouvel onglet), le Dr Geoffrey Hinton, pionnier de l’utilisation des réseaux de neurones dans l’IA, a quitté Google après plus d’une décennie au sein de l’entreprise. Sa raison ? Il peut donc s’exprimer librement contre la montée de l’IA.
Pour mémoire, le Dr Hinton ne semble pas s’inquiéter d’un scénario de type Skynet à la The Terminator, principalement. Il y a un moment où il exprime des inquiétudes quant au fait que les armes autonomes seront un problème dans 30 à 50 ans. Mais pour la plupart, ses préoccupations concernent le présent et le futur proche : manque de contrôle, désinformation et automatisation.
Une course aux armements contre l’IA pourrait entraîner la chute de l’humanité
Bien qu’il ait eu l’impression il y a à peine un an que Google était un « bon intendant » de la technologie de l’IA, la montée en puissance des chatbots et la façon dont ils sont abusés ont apparemment changé d’avis. Il voit maintenant Google et Microsoft dans une course aux armements contre l’IA qu’il est impossible d’arrêter alors que la personne moyenne a encore du mal à faire la différence entre le contenu créé par l’IA et celui créé par l’homme.
Les inquiétudes de Hinton concernant la croissance de l’IA à un rythme alarmant ne sont pas nouvelles. En fait, ils étaient au cœur de la lettre ouverte mentionnée plus tôt qui déclarait que l’IA posait «des risques profonds pour la société et l’humanité». Et bien que Hinton n’ait pas signé cette lettre, il est clair qu’il est maintenant d’accord.
Le point de basculement semble avoir été l’année dernière avec la montée en puissance d’OpenAI et du propre travail de Google avec de grands modèles de langage (LLM). Au fur et à mesure que ces modèles étaient entraînés sur des quantités de données de plus en plus importantes, Hinton est devenu convaincu que ces IA étaient «en fait bien meilleures que ce qui se passe dans le cerveau» et que leur potentiel cinq ans plus tard était effrayant.
« Regardez comment c’était il y a cinq ans et comment c’est maintenant », a déclaré Hinton à propos de la technologie de l’IA au Times. « Prenez la différence et propagez-la vers l’avant. C’est effrayant. »
L’automatisation de l’IA pourrait détruire des emplois
Cela nous amène à la deuxième préoccupation du Dr Hinton : l’automatisation. Il y a une réelle inquiétude que l’IA finira par prendre la plupart de nos emplois et envoyer la société en cratère. Et bien que nous soyons encore probablement à une certaine distance de cette possibilité, si jamais elle se produit, nous avons déjà vu des preuves que ChatGPT et d’autres IA enlèvent du travail.
La majeure partie de ce travail est ce que Hinton appelle un « travail pénible » et semble éliminer des tâches pour le moment plutôt que des emplois. Mais Hinton pense que bientôt ces IA pourraient commencer à supprimer de vrais emplois.
Il pense également que l’automatisation pourrait conduire à de graves faux pas. Il craint qu’à mesure que les entreprises autorisent l’IA non seulement à créer du code mais à exécuter ce code, elles pourraient devenir plus intelligentes que les gens et devenir des armes autonomes que nous ne pouvons plus contrôler.
La désinformation est déjà endémique dans l’IA
Enfin, Hinton est préoccupé par la désinformation. « Il est difficile de voir comment vous pouvez empêcher les mauvais acteurs de l’utiliser pour de mauvaises choses », a déclaré le Dr Hinton au New York Times.
Pour être juste, il s’agit d’une préoccupation très réelle et immédiate. Nous avons vu de mauvais acteurs se déchaîner avec la technologie de l’IA, du crackage de mots de passe à la simulation d’enlèvements et plus encore. Nous spéculons également déjà sur le moment où l’IA et le texte humain seront indiscernables, et Hinton pense que ce moment arrive bientôt, affirmant que la personne moyenne « ne pourra plus savoir ce qui est vrai ».
Ce moment, franchement, est déjà là. Que vous soyez d’accord ou non avec les préoccupations plus alarmistes de Hinton, les entreprises réagissent déjà aux deepfakes maintenant. Le générateur d’images AI Midjourney a interrompu les essais gratuits sur les deepfakes viraux plus tôt cette année après que les images générées par l’IA de l’arrestation de Donald Trump et du pape François portant une doudoune Balenciaga aient été acceptées comme évangile.