Le pionnier de l’IA, Geoffrey Hinton, n’est pas convaincu que la bonne IA triomphera de la mauvaise IA

Geoffrey Hinton, professeur à l’Université de Toronto, souvent surnommé le «  » pour ses recherches pionnières sur les réseaux de neurones, est récemment devenu le chien de garde non officiel de l’industrie. Il a quitté Google ce printemps pour critiquer plus librement le domaine qu’il a aidé à créer. Il a vu la récente augmentation des IA génératives comme et comme des signes d’accélération incontrôlée et potentiellement dangereuse du développement. Google, quant à lui, abandonnait apparemment sa retenue précédente alors qu’il chassait des concurrents avec des produits comme son .

Lors de la conférence Collision de cette semaine à Toronto, Hinton a élargi ses préoccupations. Alors que les entreprises vantaient l’IA comme la solution à tout, de l’obtention d’un bail à l’expédition de marchandises, Hinton sonnait l’alarme. Il n’est pas convaincu que la bonne IA sortira victorieuse de la mauvaise variété, et il pense que l’adoption éthique de l’IA peut avoir un coût élevé.

Une menace pour l’humanité

Geoffrey Hinton (à gauche), professeur à l’Université de Toronto, s’exprimant lors de Collision 2023.

Photo de Jon Fingas/Engadget

Hinton a soutenu que l’IA n’était aussi bonne que les personnes qui l’avaient fabriquée, et que la mauvaise technologie pouvait toujours l’emporter. « Je ne suis pas convaincu qu’une bonne IA qui essaie d’arrêter le mal puisse prendre le contrôle », a-t-il expliqué. Il pourrait être difficile d’empêcher le complexe militaro-industriel de produire, par exemple, dit-il – les entreprises et les armées pourraient « aimer » les guerres où les victimes sont des machines qui peuvent facilement être remplacées. Et tandis que Hinton pense que les grands modèles de langage (l’IA formée qui produit du texte de type humain, comme ) pourraient entraîner d’énormes augmentations de la productivité, il craint que la classe dirigeante n’exploite cela simplement pour s’enrichir, creusant un écart de richesse déjà important. Cela « rendrait les riches plus riches et les pauvres plus pauvres », a déclaré Hinton.

Hinton a également réitéré son point de vue très médiatisé selon lequel l’IA pourrait être utile à l’humanité. Si l’intelligence artificielle devient plus intelligente que les humains, rien ne garantit que les gens resteront aux commandes. « Nous sommes en difficulté » si AI décide que prendre le contrôle est nécessaire pour atteindre ses objectifs, a déclaré Hinton. Pour lui, les menaces ne sont « pas seulement de la science-fiction » ; ils doivent être pris au sérieux. Il craint que la société ne freine les robots tueurs qu’après avoir eu la chance de voir « à quel point ils sont horribles ».

Il existe de nombreux problèmes existants, a ajouté Hinton. Il soutient que cela reste des problèmes, car des données de formation à l’IA biaisées peuvent produire des résultats injustes. Des algorithmes créent également qui renforcent la désinformation et les problèmes de santé mentale. Hinton s’inquiète également de la diffusion d’informations erronées par l’IA au-delà de ces chambres. Il n’est pas sûr qu’il soit possible d’attraper chaque fausse déclaration, même s’il est « important de marquer tout faux comme faux ».

Cela ne veut pas dire que Hinton désespère de l’impact de l’IA, bien qu’il avertisse que des utilisations saines de la technologie pourraient avoir un prix élevé. Les humains pourraient avoir à mener un « travail empirique » pour comprendre comment l’IA pourrait mal tourner et pour l’empêcher de prendre le contrôle. Il est déjà « faisable » de corriger les préjugés, a-t-il ajouté. Un grand modèle de langage AI pourrait mettre fin aux chambres d’écho, mais Hinton considère que les changements dans les politiques de l’entreprise sont particulièrement importants.

Le professeur n’a pas mâché ses mots dans sa réponse aux questions sur les personnes qui perdent leur emploi à cause de l’automatisation. Il estime que le «socialisme» est nécessaire pour lutter contre les inégalités et que les gens pourraient se prémunir contre le chômage en adoptant des carrières qui pourraient changer avec le temps, comme la plomberie (et non, il ne plaisante pas). En effet, la société pourrait devoir procéder à de grands changements pour s’adapter à l’IA.

L’industrie reste optimiste

Colin Murdoch de Google DeepMind à Collision 2023
Google DeepMind CBO Colin Murdoch à Collision 2023.

Photo de Jon Fingas/Engadget

Les discussions précédentes à Collision étaient plus optimistes. Le chef d’entreprise de Google DeepMind, Colin Murdoch, a déclaré dans une autre discussion que l’IA résolvait certains des défis les plus difficiles au monde. Il n’y a pas beaucoup de controverse sur ce front – DeepMind catalogue , combat les bactéries résistantes aux antibiotiques et accélère même les travaux sur . Il a imaginé une « intelligence artificielle générale » qui pourrait résoudre de multiples problèmes, et a cité les produits de Google comme exemple. est utile pour décrire des photos, mais la technologie sous-jacente rend également les courts métrages YouTube consultables. Murdoch est allé jusqu’à qualifier les six à 12 derniers mois de « moment d’ampoule » pour l’IA qui a libéré son potentiel.

Le scientifique en chef de Roblox, Morgan McGuire, est largement d’accord. Il pense que la plate-forme de jeu a « comblé le fossé » entre les nouveaux créateurs et les vétérans, facilitant ainsi l’écriture de code et la création de matériel dans le jeu. Roblox publie même un modèle d’IA open source, StarCoder, qui, espère-t-il, aidera les autres en rendant les grands modèles de langage plus accessibles. Alors que McGuire, dans une discussion, a reconnu les défis liés à la mise à l’échelle et à la modération du contenu, il pense qu’il offre des possibilités «illimitées» grâce à son pool créatif.

Murdoch et McGuire ont exprimé certaines des mêmes préoccupations que Hinton, mais leur ton était nettement moins alarmiste. Murdoch a souligné que DeepMind voulait une IA « sûre, éthique et inclusive », et a souligné les consultations d’experts et les investissements éducatifs comme preuves. L’exécutif insiste sur le fait qu’il est ouvert à la réglementation, mais seulement tant qu’elle permet des « percées étonnantes ». À son tour, McGuire a déclaré que Roblox lançait toujours des outils d’IA génératifs avec modération de contenu, s’appuyait sur divers ensembles de données et pratiquait la transparence.

Un peu d’espoir pour l’avenir

Morgan McGuire de Roblox à Collision 2023
Le scientifique en chef de Roblox, Morgan McGuire, parle à Collision 2023.

Photo de Jon Fingas/Engadget

Malgré les gros titres résumant ses récents commentaires, l’enthousiasme général de Hinton pour l’IA n’a pas été atténué après avoir quitté Google. S’il n’avait pas démissionné, il était certain qu’il travaillerait sur des modèles d’IA multimodaux où la vision, le langage et d’autres indices aident à éclairer les décisions. « Les petits enfants n’apprennent pas uniquement à partir du langage », a-t-il déclaré, suggérant que les machines pourraient faire de même. Aussi inquiet qu’il soit des dangers de l’IA, il pense qu’elle pourrait finalement faire tout ce qu’un humain pourrait faire et faisait déjà preuve de « petits morceaux de raisonnement ». GPT-4 peut s’adapter pour résoudre des énigmes plus difficiles, par exemple.

Hinton reconnaît que son discours sur Collision n’a pas dit grand-chose sur les bonnes utilisations de l’IA, comme la lutte contre le changement climatique. L’avancement de la technologie de l’IA était probablement sain, même s’il était toujours important de s’inquiéter des implications. Et Hinton a librement admis que son enthousiasme ne s’est pas atténué malgré les problèmes éthiques et moraux qui se profilent. « J’adore ce genre de choses », a-t-il déclaré. « Comment ne pas aimer faire des choses intelligentes ? »

Source-145