Il y a près de dix ans, le lauréat du prix Turing et maintenant ancien employé de Google, le Dr Geoffrey Hinton, était connu pour s’exclamer avec enthousiasme parmi ses étudiants en intelligence artificielle : « Je comprends comment le cerveau fonctionne maintenant ! » Maintenant, cependant, le « parrain de l’IA » s’est éloigné de Google – et il est plus susceptible d’être entendu sonner désespérément la sonnette d’alarme de l’IA.
Dans un entretien de sortie avec Le New York Times (s’ouvre dans un nouvel onglet), Hinton a exprimé de profondes inquiétudes quant à l’expansion rapide de l’IA, affirmant qu' »il est difficile de voir comment vous pouvez empêcher les mauvais acteurs de l’utiliser pour de mauvaises choses ».
Une ligne directe relie les décennies de travail de pionnier de Hinton dans les réseaux de neurones aux chatbots (ChatGPT, Google Bard, Bing AI) d’aujourd’hui. Ses percées il y a plus de dix ans ont conduit Google à l’impliquer dans le développement de systèmes d’apprentissage en profondeur de nouvelle génération qui pourraient aider les ordinateurs à interpréter les images, le texte et la parole de la même manière que les humains.
S’adressant à Wénervé en 2014 (s’ouvre dans un nouvel onglet)l’enthousiasme de Hinton était clair : « Je suis très excité lorsque nous découvrons un moyen d’améliorer les réseaux de neurones – et lorsque cela est étroitement lié au fonctionnement du cerveau. »
Un Hinton très différent a parlé à Le New York Times (s’ouvre dans un nouvel onglet) cette semaine, pour décrire toutes les façons dont l’IA pourrait faire dérailler l’humanité. Voici les principaux plats à emporter:
Se précipiter pour concourir signifie que les garde-corps s’envolent
Alors que des entreprises comme Microsoft, Google et OpenAI professent souvent qu’elles adoptent une approche lente et prudente du développement de l’IA et du déploiement des chatbots, a déclaré le Dr Hinton. Le New York Times qu’il s’inquiète de la réalité, c’est que la concurrence accrue se traduit par une approche moins prudente. Et il a clairement raison : plus tôt cette année, nous avons vu Google se précipiter sur un Bard pas prêt pour les heures de grande écoute pour rencontrer l’apparition surprise de l’IA Bing alimentée par ChatGPT de Microsoft.
Ces entreprises peuvent-elles équilibrer un impératif du marché pour garder une longueur d’avance sur la concurrence (Google restant numéro 1 dans la recherche, par exemple) avec le plus grand bien ? Le Dr Hinton n’est plus convaincu.
Perte de vérité
Le Dr Hinton s’inquiète de la prolifération de l’IA entraînant un flot de faux contenus en ligne. Bien sûr, c’est moins une préoccupation future qu’une préoccupation en temps réel car les gens sont désormais régulièrement dupés par la musique de l’IA qui simule les dons vocaux des maîtres (y compris les morts), des images d’actualité de l’IA (s’ouvre dans un nouvel onglet) être traité comme des images réelles et génératives gagner des concours de photographie (s’ouvre dans un nouvel onglet). Avec la puissance et l’omniprésence des deep fakes, peu de vidéos que nous regardons aujourd’hui peuvent être prises pour argent comptant.
Pourtant, le Dr Hinton a peut-être raison de dire que ce n’est que le début. À moins que Google, Microsoft, OpenAI et d’autres ne fassent quelque chose à ce sujet, nous ne pourrons pas faire confiance à tout ce que nous verrons ou même entendrons.
Un marché du travail ruiné
Le Dr Hinton a averti Les temps que l’IA est prête à assumer plus que des tâches que nous ne voulons pas faire.
Beaucoup d’entre nous ont essayé des ChatBots comme Bard et ChatGPT pour écrire des présentations, des propositions et même de la programmation. La plupart de la production n’est pas prête pour les heures de grande écoute, mais une partie est ou est au moins passable.
Il existe actuellement des dizaines de romans générés par l’IA en vente sur Amazon, et le syndicat des scénaristes (Writers Guild of America) aux États-Unis a exprimé sa crainte que s’ils ne s’entendent pas sur un nouveau contrat, les studios pourraient sous-traiter leurs travaux à l’IA. Et bien qu’il n’y ait pas eu de licenciements généralisés directement liés à l’IA, la croissance de ces outils puissants conduit certains à repenser leurs effectifs.
Comportement inattendu et indésirable
L’une des caractéristiques des réseaux de neurones et de l’IA d’apprentissage en profondeur est qu’ils peuvent utiliser de vastes étendues de données pour s’auto-apprendre. L’une des conséquences involontaires de ce pouvoir semblable au cerveau humain est que l’IA peut apprendre des leçons que vous n’aviez jamais anticipées. Une IA autodéterminée pourrait IA sur ces leçons. Le Dr Hinton a déclaré qu’une IA qui peut non seulement programmer, mais aussi exécuter sa propre programmation est particulièrement préoccupante, en particulier en ce qui concerne les résultats imprévus.
L’IA sera plus intelligente que nous
L’IA actuelle semble souvent plus intelligente que les humains, mais avec sa propension aux hallucinations et aux faits fabriqués, elle est loin de correspondre à nos plus grands esprits. Le Dr Hinton pense que le jour où l’IA nous déjouera approche à grands pas, et certainement plus vite qu’il ne l’avait initialement prévu.
L’IA peut être capable de simuler l’empathie – voir son récent essai comme une source de conseils médicaux (s’ouvre dans un nouvel onglet) – mais ce n’est pas la même chose que la véritable empathie humaine. Les systèmes super intelligents qui peuvent tout comprendre mais sans tenir compte de l’impact de leurs choix sur les humains sont profondément préoccupants.
Alors que les avertissements du Dr Hinton contrastent fortement avec son enthousiasme initial pour le secteur technologique qu’il a presque inventé, quelque chose qu’il a dit Filaire à propos du travail sur les systèmes d’IA imitant le cerveau humain en 2014 semble maintenant étrangement prémonitoire : « Nous avons cessé d’être la frange lunatique. Nous sommes maintenant le noyau lunatique. »