La recherche dans le domaine de l’apprentissage automatique et de l’IA, désormais une technologie clé dans pratiquement toutes les industries et entreprises, est beaucoup trop volumineuse pour que quiconque puisse tout lire. Cette colonne, Perceptron, vise à rassembler certaines des découvertes et des articles récents les plus pertinents – en particulier, mais sans s’y limiter, l’intelligence artificielle – et à expliquer pourquoi ils sont importants.
Au cours des dernières semaines, les scientifiques ont développé un algorithme pour découvrir des détails fascinants sur les cratères d’astéroïdes faiblement éclairés – et dans certains cas d’un noir absolu – de la Lune. Ailleurs, des chercheurs du MIT ont formé un modèle d’IA sur des manuels pour voir s’il pouvait comprendre indépendamment les règles d’une langue spécifique. Et les équipes de DeepMind et de Microsoft ont cherché à savoir si les données de capture de mouvement pouvaient être utilisées pour apprendre aux robots à effectuer des tâches spécifiques, comme la marche.
Avec le lancement imminent (et prévisiblement retardé) d’Artemis I, la science lunaire est à nouveau à l’honneur. Ironiquement, cependant, ce sont les régions les plus sombres de la lune qui sont potentiellement les plus intéressantes, car elles peuvent abriter de la glace d’eau qui peut être utilisée à d’innombrables fins. Il est facile de repérer l’obscurité, mais qu’y a-t-il dedans ? Une équipe internationale d’experts en image a appliqué le ML au problème avec un certain succès.
Bien que les cratères se trouvent dans l’obscurité la plus profonde, le Lunar Reconnaissance Orbiter capture toujours le photon occasionnel de l’intérieur, et l’équipe a rassemblé des années de ces expositions sous-exposées (mais pas totalement noires) avec un « post-traitement basé sur la physique et basé sur l’apprentissage en profondeur ». outil » décrit dans Geophysical Research Letters. Le résultat est que « des routes visibles dans les régions ombragées en permanence peuvent désormais être conçues, réduisant considérablement les risques pour les astronautes et les explorateurs robotiques d’Artemis », selon David Kring de l’institut lunaire et planétaire.
Ils auront des lampes de poche, nous imaginons, mais il est bon d’avoir une idée générale de l’endroit où aller à l’avance, et bien sûr cela pourrait affecter où l’exploration robotique ou les atterrisseurs concentrent leurs efforts.
Aussi utile soit-il, il n’y a rien de mystérieux à transformer des données éparses en image. Mais dans le monde de la linguistique, l’IA fait des percées fascinantes pour savoir comment et si les modèles linguistiques savent vraiment ce qu’ils savent. Dans le cas de l’apprentissage de la grammaire d’une langue, une expérience du MIT a révélé qu’un modèle entraîné sur plusieurs manuels était capable de construire son propre modèle du fonctionnement d’une langue donnée, au point que sa grammaire pour le polonais, par exemple, pouvait répondre avec succès aux problèmes des manuels. à ce sujet.
« Les linguistes ont pensé que pour vraiment comprendre les règles d’un langage humain, pour comprendre ce qui fait fonctionner le système, il faut être humain. Nous voulions voir si nous pouvions imiter les types de connaissances et de raisonnement que les humains (linguistes) apportent à la tâche », a déclaré Adam Albright du MIT dans un communiqué de presse. Il s’agit de recherches très précoces sur ce front, mais prometteuses dans la mesure où elles montrent que des règles subtiles ou cachées peuvent être «comprises» par des modèles d’IA sans instruction explicite.
Mais l’expérience n’a pas directement abordé une question clé et ouverte dans la recherche sur l’IA : comment empêcher les modèles de langage de produire un langage toxique, discriminatoire ou trompeur. Nouveau travail de DeepMind Est-ce que aborder ce problème en adoptant une approche philosophique du problème de l’alignement des modèles linguistiques sur les valeurs humaines.
Les chercheurs du laboratoire affirment qu’il n’y a pas de voie « taille unique » vers de meilleurs modèles de langage, car les modèles doivent incarner différents traits en fonction des contextes dans lesquels ils sont déployés. Par exemple, un modèle conçu pour aider à l’étude scientifique ne ferait idéalement que des déclarations vraies, tandis qu’un agent jouant le rôle de modérateur dans un débat public exercerait des valeurs comme la tolérance, la civilité et le respect.
Alors comment ces valeurs peuvent-elles être inculquées dans un modèle de langage ? Les co-auteurs de DeepMind ne suggèrent pas une manière spécifique. Au lieu de cela, ils impliquent que les modèles peuvent cultiver des conversations plus « robustes » et « respectueuses » au fil du temps via des processus qu’ils appellent construction du contexte et élucidation. Comme l’expliquent les co-auteurs : « Même lorsqu’une personne n’est pas consciente des valeurs qui régissent une pratique conversationnelle donnée, l’agent peut tout de même aider l’humain à comprendre ces valeurs en les préfigurant dans la conversation, rendant le cours de la communication plus profond et plus fructueux. pour le locuteur humain.
Trouver les méthodes les plus prometteuses pour aligner les modèles de langage prend un temps et des ressources immenses, financiers et autres. Mais dans des domaines au-delà du langage, en particulier dans les domaines scientifiques, cela pourrait ne plus être le cas avant longtemps, grâce à une subvention de 3,5 millions de dollars de la National Science Foundation (NSF) accordée à une équipe de scientifiques de l’Université de Chicago, du Laboratoire national d’Argonne et MIT.
Avec la subvention NSF, les bénéficiaires prévoient de construire ce qu’ils décrivent comme des « jardins modèles », ou des référentiels de modèles d’IA conçus pour résoudre des problèmes dans des domaines tels que la physique, les mathématiques et la chimie. Les référentiels relieront les modèles avec des données et des ressources informatiques ainsi que des tests et des écrans automatisés pour valider leur exactitude, simplifiant idéalement pour les chercheurs scientifiques le test et le déploiement des outils dans leurs propres études.
« Un utilisateur peut venir au [model] jardinez et voyez toutes ces informations en un coup d’œil », a déclaré Ben Blaiszik, chercheur en science des données chez Globus Labs impliqué dans le projet, dans un communiqué de presse. « Ils peuvent citer le modèle, ils peuvent en apprendre davantage sur le modèle, ils peuvent contacter les auteurs et ils peuvent invoquer le modèle eux-mêmes dans un environnement Web sur des installations informatiques de leadership ou sur leur propre ordinateur. »
Pendant ce temps, dans le domaine de la robotique, les chercheurs construisent une plate-forme pour les modèles d’IA non pas avec des logiciels, mais avec du matériel – du matériel neuromorphique pour être exact. Intel affirme que la dernière génération de sa puce expérimentale Loihi peut permettre à un modèle de reconnaissance d’objets d' »apprendre » à identifier un objet qu’il n’a jamais vu auparavant en utilisant jusqu’à 175 fois moins d’énergie que si le modèle fonctionnait sur un processeur.
Les systèmes neuromorphiques tentent d’imiter les structures biologiques du système nerveux. Alors que les systèmes d’apprentissage automatique traditionnels sont rapides ou économes en énergie, les systèmes neuromorphiques atteignent à la fois vitesse et efficacité en utilisant des nœuds pour traiter les informations et les connexions entre les nœuds pour transférer des signaux électriques à l’aide de circuits analogiques. Les systèmes peuvent moduler la quantité d’énergie circulant entre les nœuds, permettant à chaque nœud d’effectuer le traitement, mais uniquement lorsque cela est nécessaire.
Intel et d’autres pensent que l’informatique neuromorphique a des applications dans la logistique, par exemple pour alimenter un robot conçu pour faciliter les processus de fabrication. C’est théorique à ce stade – l’informatique neuromorphique a ses inconvénients – mais peut-être qu’un jour, cette vision se réalisera.
Plus proche de la réalité, les récents travaux de DeepMind sur «l’intelligence incarnée», ou l’utilisation de mouvements humains et animaux pour apprendre aux robots à dribbler un ballon, à transporter des cartons et même à jouer au football. Les chercheurs du laboratoire ont conçu une configuration pour enregistrer les données des trackers de mouvement portés par les humains et les animaux, à partir desquels un système d’IA a appris à déduire comment accomplir de nouvelles actions, comme comment marcher dans un mouvement circulaire. Les chercheurs affirment que cette approche s’est bien appliquée aux robots du monde réel, permettant par exemple à un robot à quatre pattes de marcher comme un chien tout en dribblant simultanément une balle.
Par coïncidence, Microsoft a publié plus tôt cet été une bibliothèque de données de capture de mouvement destinée à stimuler la recherche sur des robots capables de marcher comme des humains. Appelée MoCapAct, la bibliothèque contient des clips de capture de mouvement qui, lorsqu’ils sont utilisés avec d’autres données, peuvent être utilisés pour créer des robots bipèdes agiles, du moins en simulation.
« [Creating this dataset] a pris l’équivalent de 50 ans sur de nombreux GPU équipés [servers] … un témoignage de l’obstacle informatique que MoCapAct supprime pour les autres chercheurs », ont écrit les co-auteurs du travail dans un article de blog. « Nous espérons que la communauté pourra s’appuyer sur notre ensemble de données et travailler pour faire des recherches incroyables sur le contrôle des robots humanoïdes. »
L’examen par les pairs des articles scientifiques est un travail humain inestimable, et il est peu probable que l’IA prenne le relais, mais cela peut en fait aider à s’assurer que les examens par les pairs sont réellement utiles. Un groupe de recherche suisse s’est penché sur l’évaluation basée sur un modèle des évaluations par les pairs, et leurs premiers résultats sont mitigés – dans le bon sens. Il n’y avait pas de méthode ou de tendance évidente, bonne ou mauvaise, et l’évaluation de l’impact de la publication ne semblait pas prédire si un examen était approfondi ou utile. Ce n’est pas grave, car même si la qualité des critiques diffère, vous ne voudriez pas qu’il y ait un manque systématique de bonnes critiques partout, sauf dans les grandes revues, par exemple. Leur travail est en cours.
Enfin, pour toute personne soucieuse de créativité dans ce domaine, voici un projet personnel de Karen X. Cheng cela montre comment un peu d’ingéniosité et de travail acharné peuvent être combinés avec l’IA pour produire quelque chose de vraiment original.