Geoffrey Hinton, connu familièrement comme le « parrain de l’apprentissage en profondeur », a passé la dernière décennie à travailler sur le développement de l’intelligence artificielle chez Google. Mais dans une interview au New York Times (s’ouvre dans un nouvel onglet)Hinton a annoncé qu’il avait démissionné de son poste et a déclaré qu’il s’inquiétait du rythme de développement de l’IA et de son potentiel de préjudice.
Hinton est l’un des principaux chercheurs dans le domaine du développement de l’IA. La Société royale (s’ouvre dans un nouvel onglet)auquel il a été élu Fellow en 1998, le décrit comme « distingué pour son travail sur les réseaux de neurones artificiels, en particulier sur la façon dont ils peuvent être conçus pour apprendre sans l’aide d’un enseignant humain », et a déclaré que son travail « pourrait bien être le début de machines intelligentes autonomes ressemblant à des cerveaux. »
En 2012, lui et les étudiants Alex Krizhevsky et Ilya Sutskever ont développé un système appelé AlexNet (s’ouvre dans un nouvel onglet), un « réseau neuronal convolutif » capable de reconnaître et d’identifier des objets dans des images avec une précision bien supérieure à tout système précédent. Peu de temps après avoir utilisé AlexNet pour remporter le défi ImageNet 2012 (s’ouvre dans un nouvel onglet)ils ont lancé une start-up appelée DNN Research, que Google a rapidement récupérée pour 44 millions de dollars.
Hinton a poursuivi ses travaux sur l’IA à temps partiel chez Google. Il est également professeur à l’Université de Toronto. (s’ouvre dans un nouvel onglet)—et de diriger les avancées dans le domaine : en 2018, par exemple, il a été co-lauréat du prix Turing (s’ouvre dans un nouvel onglet) pour « des percées majeures dans l’intelligence artificielle ».
« Il était l’un des chercheurs qui a introduit l’algorithme de rétropropagation et le premier à utiliser la rétropropagation pour apprendre les intégrations de mots », sa page d’employé Google qui sera probablement bientôt supprimée. (s’ouvre dans un nouvel onglet) dit. « Ses autres contributions à la recherche sur les réseaux de neurones comprennent les machines de Boltzmann, les représentations distribuées, les réseaux de neurones à retard temporel, les mélanges d’experts, l’apprentissage variationnel, les produits d’experts et les réseaux de croyances profondes. Son groupe de recherche à Toronto a fait des percées majeures dans l’apprentissage en profondeur qui ont révolutionné reconnaissance vocale et classification d’objets. »
Plus récemment, cependant, il a apparemment changé radicalement d’avis quant à la nature de son travail. Une partie de la nouvelle préoccupation de Hinton découle du rythme « effrayant » auquel le développement de l’IA progresse. « L’idée que ce genre de choses pourrait en fait devenir plus intelligent que les gens – quelques personnes le croyaient », a déclaré Hinton. « Mais la plupart des gens pensaient que c’était loin. Et je pensais que c’était loin. Je pensais que c’était dans 30 à 50 ans ou même plus. Évidemment, je ne le pense plus. »
Cela se produit au moins en partie en raison d’intérêts commerciaux concurrents, alors que Microsoft et Google se précipitent pour développer des systèmes d’IA plus avancés. On ne sait pas ce qui peut être fait à ce sujet: Hinton a déclaré qu’il pensait que la course vers le sommet ne pouvait être gérée que par une certaine forme de réglementation mondiale, mais cela pourrait être impossible car il n’y a aucun moyen de savoir sur quoi les entreprises travaillent à huis clos. Ainsi, il pense qu’il incombe à la communauté scientifique d’agir.
« Je ne pense pas qu’ils devraient intensifier cela tant qu’ils n’ont pas compris s’ils peuvent le contrôler », a-t-il déclaré.
Mais même si les scientifiques choisissent d’adopter une approche plus lente et plus délibérée de l’IA (ce qui, à mon avis, est peu probable), le résultat inévitable d’un développement continu inquiète également Hinton : « Il est difficile de voir comment vous pouvez empêcher les mauvais acteurs de l’utiliser. pour de mauvaises choses », a-t-il dit.
Les derniers commentaires de Hinton contrastent de manière intéressante avec une interview de 2016 avec Maclean’s (s’ouvre dans un nouvel onglet)dans lequel il a exprimé un besoin de prudence mais a déclaré qu’il ne devrait pas être utilisé pour entraver le développement de l’IA à l’avenir.
« C’est un peu comme… dès que vous avez une bonne technologie mécanique, vous pouvez fabriquer des choses comme des rétrocaveuses qui peuvent creuser des trous dans la route. Mais bien sûr, une rétrocaveuse peut vous faire tomber la tête », a déclaré Hinton. « Mais vous ne voulez pas ne pas développer une rétrocaveuse car cela peut vous faire tomber la tête, ce serait considéré comme idiot.
« Toute nouvelle technologie, si elle est utilisée par des personnes malveillantes, de mauvaises choses peuvent arriver. Mais c’est plus une question de politique de la technologie. Je pense que nous devrions considérer l’IA comme l’équivalent intellectuel d’une rétrocaveuse. Ce sera bien mieux que nous à beaucoup de choses. Et cela peut être incroyablement bon – les rétrocaveuses peuvent nous épargner beaucoup de creusement. Mais bien sûr, vous pouvez en abuser.
Les gens devraient réfléchir à l’impact que l’IA aura sur l’humanité, a-t-il dit, mais a ajouté, « l’essentiel ne devrait pas être, comment paralyser cette technologie afin qu’elle ne puisse pas être nocive, elle devrait l’être, comment pouvons-nous améliorer notre système politique afin que les gens ne puissent pas l’utiliser à de mauvaises fins ? »
Hinton a fait des déclarations similaires dans une interview de 2016 avec TVO, dans laquelle il a reconnu le potentiel de problèmes, mais a déclaré qu’il s’attendait à ce qu’ils soient beaucoup plus avancés qu’ils ne le sont réellement.
Fait intéressant, Hinton n’était pas l’un des signataires des récentes lettres ouvertes appelant à une « pause » de six mois (s’ouvre dans un nouvel onglet) sur le développement de nouveaux systèmes d’IA. Selon le Times, il n’a pas voulu critiquer publiquement Google ou d’autres entreprises avant d’avoir démissionné. Hinton a précisé sur Twitter qu’il n’avait pas quitté Google pour pouvoir parler de l’entreprise, mais pour pouvoir « parler des dangers de l’IA sans tenir compte de l’impact de cela sur Google ».
« Google a agi de manière très responsable », a-t-il ajouté.
Au NYT aujourd’hui, Cade Metz sous-entend que j’ai quitté Google pour pouvoir critiquer Google. En fait, je suis parti pour pouvoir parler des dangers de l’IA sans tenir compte de l’impact que cela a sur Google. Google a agi de manière très responsable.1 mai 2023
Quoi qu’il en soit, c’est un très gros problème que l’un des plus grands esprits du développement de l’IA avertisse maintenant que tout cela pourrait être très mauvais pour nous un jour. La nouvelle perspective de Hinton a des parallèles évidents avec le regret d’Oppenheimer quant à son rôle dans le développement d’armes nucléaires. Bien sûr, les doutes d’Oppenheimer sont venus après le développement et l’utilisation de la bombe atomique, quand il était facile de voir à quel point le monde avait radicalement changé. Il reste à voir si les regrets de Hinton viennent également après que le cheval se soit enfui, ou s’il est encore temps (et suffisamment de capacité réglementaire dans les gouvernements mondiaux) d’éviter le pire.