Suivre le rythme d’un secteur aussi en évolution rapide que l’IA est un défi de taille. En attendant qu’une IA puisse le faire à votre place, voici un tour d’horizon pratique des histoires récentes dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes seules.
Cette semaine dans l’IA, Microsoft a dévoilé une nouvelle disposition de clavier PC standard avec une touche « Copilot ». Vous avez bien entendu : à l’avenir, les machines Windows disposeront d’une clé dédiée pour lancer l’assistant Copilot de Microsoft, alimenté par l’IA, en remplacement de la touche Contrôle droite.
Cette décision vise, imagine-t-on, à signaler le sérieux de l’investissement de Microsoft dans la course à la domination de l’IA par les consommateurs (et les entreprises d’ailleurs). C’est la première fois que Microsoft modifie la disposition du clavier Windows depuis environ 30 ans ; les ordinateurs portables et les claviers dotés de la touche Copilot devraient être expédiés dès fin février.
Mais est-ce que c’est de la fanfaronnade ? Les utilisateurs de Windows sont-ils vraiment vouloir un raccourci IA – ou la saveur Microsoft de la période IA ?
Microsoft a certainement fait un show en injectant à presque tous ses produits, anciens et nouveaux, la fonctionnalité « Copilot ». Dans des discours flashy, des démos astucieuses et, maintenant, une clé IA, l’entreprise met sa technologie IA au premier plan – et parie sur cela pour stimuler la demande.
La demande n’est pas une chose sûre. Mais pour être juste. quelques fournisseurs ont réussi à transformer les succès de l’IA virale en succès. Regardez OpenAI, le créateur de ChatGPT, qui aurait dépassé 1,6 milliard de dollars de revenus annualisés vers la fin de 2023. La plateforme d’art génératif Midjourney est apparemment également rentable – et n’a pas encore pris un centime de capital extérieur.
L’accent sur quelques, cependant. La plupart des fournisseurs, alourdis par les coûts de formation et d’exploitation de modèles d’IA de pointe, ont dû rechercher des tranches de capital de plus en plus importantes pour rester à flot. Par exemple, Anthropic serait en train de lever 750 millions de dollars dans le cadre d’un cycle qui porterait le total levé à plus de 8 milliards de dollars.
Microsoft, en collaboration avec ses partenaires AMD et Intel, espère que le traitement de l’IA passera de plus en plus des centres de données coûteux au silicium local, banalisant ainsi l’IA – et cela pourrait bien être le cas. La nouvelle gamme de puces grand public d’Intel contient des cœurs conçus sur mesure pour exécuter l’IA. De plus, les nouvelles puces de centre de données comme celles de Microsoft pourraient rendre la formation de modèles moins coûteuse qu’elle ne l’est actuellement.
Mais il n’y a aucune garantie. Le véritable test consistera à voir si les utilisateurs de Windows et les entreprises clientes, bombardés de ce qui équivaut à de la publicité Copilot, manifestent un appétit pour la technologie – et déboursent pour cela. Si ce n’est pas le cas, Microsoft devra bientôt repenser à nouveau le clavier Windows.
Voici quelques autres histoires intéressantes sur l’IA de ces derniers jours :
- Copilot arrive sur mobile : Dans d’autres actualités Copilot, Microsoft a discrètement introduit les clients Copilot sur Android et iOS, ainsi que sur iPadOS.
- Boutique GPT : OpenAI a annoncé son intention de lancer une boutique pour les GPT, des applications personnalisées basées sur ses modèles d’IA générateurs de texte (par exemple GPT-4), dans la semaine prochaine. Le GPT Store a été annoncé l’année dernière lors de la première conférence annuelle des développeurs d’OpenAI, DevDay, mais retardé en décembre – presque certainement en raison du remaniement de la direction survenu en novembre juste après l’annonce initiale.
- OpenAI réduit le risque de régularisation : Par ailleurs, la startup cherche à réduire son risque réglementaire dans l’UE en canalisant une grande partie de ses activités à l’étranger via une entité irlandaise. Natasha écrit que cette décision réduira la capacité de certains organismes de surveillance de la vie privée du bloc à agir unilatéralement en réponse à leurs préoccupations.
- Robots d’entraînement : L’équipe DeepMind Robotics de Google étudie les moyens de permettre aux robots de mieux comprendre précisément ce que nous, les humains, attendons d’eux, écrit Brian. Le nouveau système de l’équipe peut gérer une flotte de robots travaillant en tandem et suggérer des tâches pouvant être accomplies par le matériel des robots.
- La nouvelle société Intel : Intel est en train de s’effondrer une nouvelle société de plateforme, Articul8 AI, avec le soutien du gestionnaire d’actifs et investisseur DigitalBridge basé à Boca Raton, en Floride. Comme l’explique un porte-parole d’Intel, la plate-forme Articul8 « offre des capacités d’IA qui maintiennent les données, la formation et les inférences des clients dans le périmètre de sécurité de l’entreprise » – une perspective attrayante pour les clients des secteurs hautement réglementés comme la santé et les services financiers.
- L’industrie de la pêche noire, exposée : L’imagerie satellitaire et l’apprentissage automatique offrent un nouveau regard beaucoup plus détaillé sur l’industrie maritime, en particulier sur le nombre et les activités des navires de pêche et de transport en mer. Il s’avère qu’il y a chemin il y en a plus que ne le suggèrent les données accessibles au public – un fait révélé par une nouvelle recherche publiée dans Nature par une équipe de Global Fishing Watch et plusieurs universités collaboratrices.
- Recherche basée sur l’IA : Perplexity AI, une plateforme appliquant l’IA à la recherche sur le Web, a levé 73,6 millions de dollars lors d’un cycle de financement valorisant l’entreprise à 520 millions de dollars. Contrairement aux moteurs de recherche traditionnels, Perplexity propose une interface de type chatbot qui permet aux utilisateurs de poser des questions en langage naturel (par exemple « Brûlons-nous des calories en dormant ? », « Quel est le pays le moins visité ? », etc.).
- Notes cliniques, rédigées automatiquement : Plus d’actualités sur le financement, la startup parisienne Nabla a levé la somme de 24 millions de dollars. L’entreprise, qui possède un partenariat avec Permanente Medical Groupune division du géant américain de la santé Kaiser Permanente, travaille sur un « copilote IA » pour les médecins et autres membres du personnel clinique qui prend automatiquement des notes et rédige des rapports médicaux.
Plus d’apprentissages automatiques
Vous vous souvenez peut-être de divers exemples de travaux intéressants réalisés au cours de l’année dernière, impliquant des modifications mineures d’images qui ont amené les modèles d’apprentissage automatique à confondre, par exemple, l’image d’un chien avec celle d’une voiture. Pour ce faire, ils ajoutent des « perturbations », des changements mineurs aux pixels de l’image, selon un motif que seul le modèle peut percevoir. Ou du moins ils pensée seul le modèle pouvait le percevoir.
Une expérience menée par les chercheurs de Google DeepMind a montré que lorsqu’une image de fleurs était perturbée pour ressembler davantage à un chat à l’IA, les gens étaient plus susceptibles de décrire cette image comme étant plus féline, même si elle ne ressemblait définitivement plus à un chat. Idem pour d’autres objets courants comme les camions et les chaises.
Pourquoi? Comment? Les chercheurs ne le savent pas vraiment, et les participants ont tous eu l’impression de choisir au hasard (en effet, l’influence est, bien que fiable, à peine au-dessus du hasard). Il semble que nous soyons simplement plus perspicaces que nous ne le pensons – mais cela a également des implications sur la sécurité et d’autres mesures, car cela suggère que des signaux subliminaux pourraient effectivement se propager à travers l’imagerie sans que personne ne s’en aperçoive.
Une autre expérience intéressante impliquant la perception humaine a été réalisée cette semaine par le MIT, qui a utilisé l’apprentissage automatique pour aider à élucider un système particulier de compréhension du langage. Fondamentalement, certaines phrases simples, comme «J’ai marché jusqu’à la plage», ne nécessitent pratiquement aucune puissance cérébrale pour être décodées, tandis que des phrases complexes ou déroutantes comme «dans le système aristocratique duquel cela effectue une révolution lamentable» produisent une activation plus importante et plus large, telle que mesurée par l’IRMf.
L’équipe a comparé les lectures d’activation d’humains lisant une variété de ces phrases avec la façon dont les mêmes phrases activaient l’équivalent des zones corticales dans un grand modèle de langage. Ensuite, ils ont créé un deuxième modèle qui a appris comment les deux modèles d’activation correspondaient. Ce modèle était capable de prédire pour de nouvelles phrases si elles mettraient ou non à rude épreuve la cognition humaine. Cela peut paraître un peu mystérieux, mais c’est vraiment super intéressant, croyez-moi.
La question de savoir si l’apprentissage automatique peut imiter la cognition humaine dans des domaines plus complexes, comme l’interaction avec les interfaces informatiques, reste encore ouverte. Il y a cependant beaucoup de recherches et cela vaut toujours la peine d’y jeter un coup d’œil. Cette semaine, nous avons SeeAct, un système développé par des chercheurs de l’État de l’Ohio qui fonde laborieusement les interprétations d’un LLM sur les actions possibles dans des exemples réels.
Fondamentalement, vous pouvez demander à un système comme GPT-4V de créer une réservation sur un site, et il obtiendra quelle est sa tâche et ce dont il a besoin pour cliquer sur le bouton « faire une réservation », mais il ne sait pas vraiment comment faire cela. . En améliorant la façon dont il perçoit les interfaces avec des étiquettes explicites et une connaissance du monde, il peut faire bien mieux, même s’il n’y parvient encore que très rarement. Ces modèles d’agents ont encore un long chemin à parcourir, mais attendez-vous de toute façon à beaucoup de grosses réclamations cette année ! Je viens d’en entendre aujourd’hui.
Ensuite, découvrez cette solution intéressante à un problème dont j’ignorais l’existence mais qui est parfaitement logique. Les navires autonomes constituent un domaine d’automatisation prometteur, mais lorsque la mer est en colère, il est difficile de s’assurer qu’ils sont sur la bonne voie. Le GPS et les gyroscopes ne suffisent pas, et la visibilité peut également être mauvaise – mais plus important encore, les systèmes qui les gouvernent ne sont pas trop sophistiqués. Ils peuvent donc s’écarter complètement de leur cible ou gaspiller du carburant en faisant de grands détours s’ils ne savent pas mieux, un gros problème si vous utilisez la batterie. Je n’y avais même jamais pensé !
L’Université maritime et océanique de Corée (une autre chose que j’ai apprise aujourd’hui) propose un modèle d’orientation plus puissant basé sur la simulation des mouvements des navires dans un modèle informatique de dynamique des fluides. Ils proposent que cette meilleure compréhension de l’action des vagues et de ses effets sur les coques et la propulsion pourrait sérieusement améliorer l’efficacité et la sécurité du transport maritime autonome. Il pourrait même être judicieux de l’utiliser sur des navires à guidage humain dont les capitaines ne savent pas vraiment quel est le meilleur angle d’attaque pour une forme de grain ou de vague donnée !
Enfin, si vous souhaitez un bon récapitulatif des grandes avancées de l’informatique de l’année dernière, qui en 2023 se chevauchaient massivement avec la recherche sur le ML, consultez l’excellente critique de Quanta.