Cette semaine dans l’IA : OpenAI trouve un partenaire dans l’enseignement supérieur

Suivre le rythme d’un secteur aussi en évolution rapide que l’IA est un défi de taille. En attendant qu’une IA puisse le faire à votre place, voici un tour d’horizon pratique des histoires récentes dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes seules.

Cette semaine dans le domaine de l’IA, OpenAI a signé son premier client dans l’enseignement supérieur : l’Arizona State University.

L’ASU collaborera avec OpenAI pour proposer ChatGPT, le chatbot alimenté par l’IA d’OpenAI, aux chercheurs, au personnel et aux professeurs de l’université – en organisant un défi ouvert en février pour inviter les professeurs et le personnel à soumettre des idées sur les façons d’utiliser ChatGPT.

L’accord OpenAI-ASU illustre l’évolution des opinions autour de l’IA dans l’éducation, à mesure que la technologie progresse plus rapidement que les programmes ne peuvent suivre. L’été dernier, les écoles et les collèges se sont empressés d’interdire ChatGPT en raison de craintes de plagiat et de désinformation. Depuis lors, certains ont annulé leurs interdictions, tandis que d’autres ont commencé à organiser des ateliers sur les outils GenAI et leur potentiel d’apprentissage.

Le débat sur le rôle de GenAI dans l’éducation ne sera probablement pas réglé de sitôt. Mais – pour ce que ça vaut – je me retrouve de plus en plus dans le camp des supporters.

Oui, GenAI est un mauvais résumé. C’est biaisé et toxique. Ça invente des trucs. Mais il peut aussi être utilisé à des fins positives.

Considérez comment un outil comme ChatGPT pourrait aider les étudiants en difficulté avec un devoir. Il pourrait expliquer un problème mathématique étape par étape ou générer un plan de dissertation. Ou cela pourrait faire apparaître la réponse à une question qui prendrait beaucoup plus de temps à Google.

Il existe désormais des inquiétudes raisonnables concernant la tricherie – ou du moins ce qui pourrait être considéré comme de la triche dans les limites des programmes scolaires actuels. J’ai entendu de manière anecdotique des étudiants, en particulier des étudiants universitaires, utiliser ChatGPT pour rédiger de gros morceaux d’articles et des questions à développement sur des tests à emporter.

Ce n’est pas un problème nouveau : les services payants de rédaction d’essais existent depuis très longtemps. Mais ChatGPT réduit considérablement les barrières à l’entrée, affirment certains éducateurs.

Il existe des preuves suggérant que ces craintes sont exagérées. Mais en mettant cela de côté un instant, je suggère de prendre du recul et de réfléchir à ce qui pousse les étudiants à tricher en premier lieu. Les étudiants sont souvent récompensés pour leurs notes, et non pour leurs efforts ou leur compréhension. La structure des incitations est déformée. Faut-il s’étonner, alors, que les enfants considèrent les devoirs scolaires comme des cases à cocher plutôt que comme des occasions d’apprendre ?

Laissez donc les étudiants disposer de GenAI et laissez les enseignants tester des moyens d’exploiter cette nouvelle technologie pour atteindre les étudiants là où ils se trouvent. Je n’ai pas beaucoup d’espoir d’une réforme radicale de l’éducation. Mais peut-être que GenAI servira de rampe de lancement pour des plans de cours qui susciteront l’enthousiasme des enfants pour des sujets qu’ils n’auraient jamais explorés auparavant.

Voici quelques autres histoires intéressantes sur l’IA de ces derniers jours :

Le tuteur de lecture de Microsoft : Microsoft a rendu cette semaine Reading Coach, son outil d’IA qui offre aux apprenants une pratique de lecture personnalisée, disponible gratuitement pour toute personne possédant un compte Microsoft.

Transparence algorithmique en musique : Les régulateurs de l’UE réclament des lois pour imposer une plus grande transparence algorithmique aux plateformes de streaming musical. Ils veulent également s’attaquer à la musique générée par l’IA – et aux deepfakes.

Les robots de la NASA : La NASA a récemment présenté une structure robotique à auto-assemblage qui, écrit Devin, pourrait bien devenir un élément crucial du déplacement hors de la planète.

Samsung Galaxy, désormais alimenté par l’IA : Lors de l’événement de lancement du Galaxy S24 de Samsung, la société a présenté les différentes façons dont l’IA pourrait améliorer l’expérience sur smartphone, notamment grâce à la traduction en direct des appels, aux réponses et actions suggérées et à une nouvelle façon de rechercher sur Google à l’aide de gestes.

Le solveur géométrique de DeepMind : DeepMind, le laboratoire de recherche et développement de Google en IA, a dévoilé cette semaine AlphaGeometry, un système d’IA qui, selon le laboratoire, peut résoudre autant de problèmes de géométrie que le médaillé d’or moyen de l’Olympiade mathématique internationale.

OpenAI et crowdsourcing : Par ailleurs, la startup forme une nouvelle équipe, Collective Alignment, pour mettre en œuvre les idées du public sur la manière de garantir que ses futurs modèles d’IA « s’alignent sur les valeurs de l’humanité ». Dans le même temps, il modifie sa politique pour autoriser les applications militaires de sa technologie. (Parlez de messages mixtes.)

Un forfait Pro pour Copilot : Microsoft a lancé un forfait payant axé sur le consommateur pour Copilot, la marque ombrelle de son portefeuille de technologies de génération de contenu basées sur l’IA, et a assoupli les conditions d’éligibilité pour les offres Copilot au niveau de l’entreprise. Il a également lancé de nouvelles fonctionnalités pour les utilisateurs gratuits, notamment une application pour smartphone Copilot.

Modèles trompeurs : La plupart des humains apprennent à tromper les autres humains. Alors, les modèles d’IA peuvent-ils apprendre la même chose ? Oui, la réponse semble – et, chose terrifiante, ils sont exceptionnellement doués dans ce domaine. selon une nouvelle étude de la startup d’IA Anthropic.

Démonstration de robotique mise en scène par Tesla : Le robot humanoïde Optimus d’Elon Musk de Tesla fait plus de choses – cette fois en pliant un t-shirt sur une table dans une installation de développement. Mais il s’avère que le robot est tout sauf autonome à l’heure actuelle.

Plus d’apprentissages automatiques

L’un des obstacles à des applications plus larges telles que l’analyse satellite basée sur l’IA est la nécessité de former des modèles pour reconnaître ce qui peut être une forme ou un concept assez ésotérique. Identifier les contours d’un bâtiment : facile. Identifier les champs de débris après une inondation : pas si simple ! Des chercheurs suisses de l’EPFL espèrent faciliter cette tâche grâce à un programme baptisé METEOR.

Crédits images : EPFL

« Le problème en sciences de l’environnement est qu’il est souvent impossible d’obtenir un ensemble de données suffisamment volumineux pour former des programmes d’IA répondant à nos besoins de recherche », a déclaré Marc Rußwurm, l’un des responsables du projet. Leur nouvelle structure de formation permet de former un algorithme de reconnaissance pour une nouvelle tâche avec seulement quatre ou cinq images représentatives. Les résultats sont comparables à ceux des modèles formés sur beaucoup plus de données. Leur plan est de faire passer le système du laboratoire au produit avec une interface utilisateur permettant aux gens ordinaires (c’est-à-dire aux chercheurs non spécialisés en IA) de l’utiliser. Vous pouvez lire l’article qu’ils ont publié ici.

Aller dans l’autre direction – créer des images – est un domaine de recherche intense, car le faire efficacement pourrait réduire la charge de calcul des plates-formes d’IA générative. La méthode la plus courante est appelée diffusion, qui affine progressivement une source de bruit pur en une image cible. Le Los Alamos National Lab a une nouvelle approche appelée Blackout Diffusion, qui part d’une image noire pure.

Cela supprime le besoin de bruit au départ, mais le véritable progrès réside dans le cadre se déroulant dans des « espaces discrets » plutôt que continus, ce qui réduit considérablement la charge de calcul. Ils disent qu’il fonctionne bien et à moindre coût, mais il est certainement loin d’être diffusé à grande échelle. Je ne suis pas qualifié pour évaluer l’efficacité de cette approche (les calculs me dépassent largement), mais les laboratoires nationaux n’ont pas tendance à vanter quelque chose comme ça sans raison. Je vais demander plus d’informations aux chercheurs.

Les modèles d’IA fleurissent partout dans le domaine des sciences naturelles, où leur capacité à filtrer le signal du bruit produit de nouvelles informations et permet d’économiser de l’argent sur les heures de saisie de données des étudiants diplômés.

L’Australie applique la technologie de détection des incendies de forêt de Pano AI à son « Triangle vert », une région forestière majeure. J’adore voir des startups être utilisées de cette manière : non seulement cela pourrait aider à prévenir les incendies, mais cela produirait des données précieuses pour les autorités forestières et des ressources naturelles. Chaque minute compte en matière d’incendies de forêt (ou de feux de brousse, comme on les appelle là-bas), donc des notifications précoces pourraient faire la différence entre des dizaines et des milliers d’acres de dégâts.

Réduction du pergélisol mesurée par l’ancien modèle, à gauche, et le nouveau modèle, à droite.

Los Alamos obtient une deuxième mention (je viens de m’en rendre compte en parcourant mes notes) puisqu’ils travaillent également sur un nouveau modèle d’IA pour estimer le déclin du pergélisol. Les modèles existants pour cela ont une faible résolution, prédisant les niveaux de pergélisol en morceaux d’environ 1/3 de mile carré. C’est certainement utile, mais avec plus de détails, vous obtenez des résultats moins trompeurs pour des zones qui pourraient ressembler à 100 % de pergélisol à plus grande échelle, mais qui sont clairement inférieures à cela lorsque vous regardez de plus près. À mesure que le changement climatique progresse, ces mesures doivent être exactes !

Les biologistes trouvent des moyens intéressants de tester et d’utiliser l’IA ou des modèles adjacents à l’IA dans les nombreux sous-domaines de ce domaine. Lors d’une récente conférence rédigée par mes amis de GeekWire, des outils permettant de suivre les zèbres, les insectes et même des cellules individuelles ont été présentés lors de séances d’affiches.

Et du côté de la physique et de la chimie, les chercheurs d’Argonne NL étudient la meilleure façon de conditionner l’hydrogène pour l’utiliser comme carburant. L’hydrogène libre est notoirement difficile à contenir et à contrôler, donc le lier à une molécule auxiliaire spéciale le maintient apprivoisé. Le problème est que l’hydrogène se lie à presque tout, il existe donc des milliards et des milliards de possibilités pour les molécules auxiliaires. Mais trier d’énormes ensembles de données est une spécialité de l’apprentissage automatique.

«  »Nous recherchions des molécules liquides organiques qui retiennent l’hydrogène pendant une longue période, mais pas au point de ne pas pouvoir être facilement éliminées à la demande », a déclaré Hassan Harb, responsable du projet. Leur système a trié 160 milliards de molécules et, en utilisant une méthode de criblage par IA, ils ont pu en examiner 3 millions par seconde. L’ensemble du processus final a donc pris environ une demi-journée. (Bien sûr, ils utilisaient un superordinateur assez gros.) Ils ont identifié 41 des meilleurs candidats, ce qui est un nombre dérisoire pour que l’équipe expérimentale puisse les tester en laboratoire. J’espère qu’ils trouveront quelque chose d’utile. Je ne veux pas avoir à faire face à des fuites d’hydrogène dans ma prochaine voiture.

Pour terminer sur un mot d’avertissement : une étude parue dans Science a révélé que les modèles d’apprentissage automatique utilisés pour prédire la façon dont les patients réagiraient à certains traitements étaient très précis… au sein de l’échantillon sur lequel ils ont été formés. Dans d’autres cas, ils n’ont pas aidé du tout. Cela ne veut pas dire qu’ils ne devraient pas être utilisés, mais cela confirme ce que de nombreux acteurs du secteur disent : l’IA n’est pas une solution miracle, et elle doit être testée de manière approfondie dans chaque nouvelle population et application dans laquelle elle est appliquée. à.

Source-146