La recherche dans le domaine de l’apprentissage automatique et de l’IA, désormais une technologie clé dans pratiquement toutes les industries et entreprises, est beaucoup trop volumineuse pour que quiconque puisse tout lire. Cette colonne, Perceptron, vise à rassembler certaines des découvertes et des articles récents les plus pertinents – en particulier, mais sans s’y limiter, l’intelligence artificielle – et à expliquer pourquoi ils sont importants.
Un « earable » qui utilise un sonar pour lire les expressions faciales fait partie des projets qui ont retenu notre attention ces dernières semaines. Il en a été de même pour ProcTHOR, un framework de l’Allen Institute for AI (AI2) qui génère de manière procédurale des environnements pouvant être utilisés pour entraîner des robots du monde réel. Parmi les autres faits saillants, Meta a créé un système d’IA capable de prédire la structure d’une protéine à partir d’une seule séquence d’acides aminés. Et les chercheurs du MIT ont développé un nouveau matériel qui, selon eux, offre un calcul plus rapide pour l’IA avec moins d’énergie.
Le « earable », qui a été développé par une équipe de Cornell, ressemble à une paire d’écouteurs encombrants. Les haut-parleurs envoient des signaux acoustiques sur le côté du visage du porteur, tandis qu’un microphone capte les échos à peine détectables créés par le nez, les lèvres, les yeux et d’autres traits du visage. Ces « profils d’écho » permettent à l’oreillette de capturer des mouvements tels que les sourcils levés et les yeux levés, qu’un algorithme d’IA traduit en expressions faciales complètes.
L’oreillette a quelques limitations. Il ne dure que trois heures sur batterie et doit décharger le traitement sur un smartphone, et l’algorithme d’IA de traduction d’écho doit s’entraîner sur 32 minutes de données faciales avant de pouvoir commencer à reconnaître les expressions. Mais les chercheurs affirment qu’il s’agit d’une expérience beaucoup plus élégante que les enregistreurs traditionnellement utilisés dans les animations pour les films, la télévision et les jeux vidéo. Par exemple, pour le jeu mystère LA Noire, Rockstar Games a construit une plate-forme avec 32 caméras braquées sur le visage de chaque acteur.
Peut-être qu’un jour, l’oreillette de Cornell sera utilisée pour créer des animations pour des robots humanoïdes. Mais ces robots devront d’abord apprendre à naviguer dans une pièce. Heureusement, ProcTHOR d’AI2 fait un pas (sans jeu de mots) dans cette direction, créant des milliers de scènes personnalisées, y compris des salles de classe, des bibliothèques et des bureaux dans lesquels des robots simulés doivent accomplir des tâches, comme ramasser des objets et déplacer des meubles.
L’idée derrière les scènes, qui ont simulé l’éclairage et contient un sous-ensemble d’un large éventail de matériaux de surface (par exemple, bois, carrelage, etc.) et d’objets ménagers, est d’exposer les robots simulés à autant de variété que possible. C’est une théorie bien établie en IA selon laquelle les performances dans des environnements simulés peuvent améliorer les performances des systèmes du monde réel ; des constructeurs automobiles autonomes comme Waymo d’Alphabet simulent des quartiers entiers pour affiner le comportement de leurs voitures dans le monde réel.
Quant à ProcTHOR, AI2 affirme dans un article que la mise à l’échelle du nombre d’environnements de formation améliore constamment les performances. Cela augure bien pour les robots à destination des maisons, des lieux de travail et ailleurs.
Bien sûr, la formation de ces types de systèmes nécessite une grande puissance de calcul. Mais ce ne sera peut-être pas le cas pour toujours. Des chercheurs du MIT disent avoir créé un processeur « analogique » qui peut être utilisé pour créer des réseaux ultrarapides de « neurones » et de « synapses », qui à leur tour peuvent être utilisés pour effectuer des tâches telles que la reconnaissance d’images, la traduction de langues, etc.
Le processeur des chercheurs utilise des « résistances protoniques programmables » disposées en réseau pour « apprendre » des compétences. L’augmentation et la diminution de la conductance électrique des résistances imitent le renforcement et l’affaiblissement des synapses entre les neurones du cerveau, une partie du processus d’apprentissage.
La conductance est contrôlée par un électrolyte qui régit le mouvement des protons. Lorsque plus de protons sont poussés dans un canal de la résistance, la conductance augmente. Lorsque les protons sont éliminés, la conductance diminue.
Un matériau inorganique, le verre phosphosilicate, rend le processeur de l’équipe du MIT extrêmement rapide car il contient des pores de taille nanométrique dont les surfaces fournissent les voies parfaites pour la diffusion des protéines. Autre avantage, le verre peut fonctionner à température ambiante et il n’est pas endommagé par les protéines lorsqu’elles se déplacent le long des pores.
« Une fois que vous aurez un processeur analogique, vous n’entraînerez plus les réseaux sur lesquels tout le monde travaille », a déclaré l’auteur principal et post-doctorant du MIT, Murat Onen, cité dans un communiqué de presse. « Vous formerez des réseaux d’une complexité sans précédent que personne d’autre ne peut se permettre, et par conséquent, vous les surpasserez tous largement. En d’autres termes, ce n’est pas une voiture plus rapide, c’est un vaisseau spatial.
En parlant d’accélération, l’apprentissage automatique est désormais utilisé pour gérer les accélérateurs de particules, du moins sous une forme expérimentale. Au Lawrence Berkeley National Lab, deux équipes ont montré que la simulation basée sur ML de la machine complète et du faisceau leur donne une prédiction très précise jusqu’à 10 fois meilleure que l’analyse statistique ordinaire.
« Si vous pouvez prédire les propriétés du faisceau avec une précision qui dépasse leurs fluctuations, vous pouvez alors utiliser la prédiction pour augmenter les performances de l’accélérateur », a déclaré Daniele Filippetto du laboratoire. Ce n’est pas une mince affaire de simuler toute la physique et l’équipement impliqués, mais étonnamment, les premiers efforts des différentes équipes pour le faire ont donné des résultats prometteurs.
Et au laboratoire national d’Oak Ridge, une plate-forme alimentée par l’IA leur permet de faire de la tomodensitométrie hyperspectrale en utilisant la diffusion des neutrons, en trouvant l’optimum… peut-être devrions-nous simplement les laisser expliquer.
Dans le monde médical, il existe une nouvelle application de l’analyse d’images basée sur l’apprentissage automatique dans le domaine de la neurologie, où des chercheurs de l’University College de Londres ont formé un modèle pour détecter les premiers signes de lésions cérébrales provoquant l’épilepsie.
Une cause fréquente d’épilepsie résistante aux médicaments est ce que l’on appelle une dysplasie corticale focale, une région du cerveau qui s’est développée anormalement mais qui, pour une raison quelconque, n’apparaît pas manifestement anormale à l’IRM. Le détecter tôt peut être extrêmement utile, c’est pourquoi l’équipe de l’UCL a formé un modèle d’inspection IRM appelé Multicentre Epilepsy Lesion Detection sur des milliers d’exemples de régions cérébrales saines et affectées par le FCD.
Le modèle a pu détecter les deux tiers des FCD qui lui ont été montrés, ce qui est en fait assez bon car les signes sont très subtils. En fait, il a trouvé 178 cas où les médecins n’ont pas pu localiser un FCD, mais ils le pouvaient. Naturellement, le dernier mot revient aux spécialistes, mais un ordinateur laissant entendre que quelque chose ne va pas peut parfois suffire à regarder de plus près et à obtenir un diagnostic sûr.
«Nous avons mis l’accent sur la création d’un algorithme d’IA qui était interprétable et pourrait aider les médecins à prendre des décisions. Montrer aux médecins comment l’algorithme MELD a fait ses prédictions était une partie essentielle de ce processus », a déclaré Mathilde Ripart de l’UCL.