Plus d’une fois cette année, les experts de l’IA ont répété un refrain familier : « Veuillez ralentir. » Les nouvelles de l’IA en 2022 ont été rapides et implacables ; au moment où vous saviez où en étaient les choses en matière d’IA, un nouvel article ou une nouvelle découverte rendrait cette compréhension obsolète.
En 2022, nous avons sans doute atteint le genou de la courbe en ce qui concerne l’IA générative qui peut produire des œuvres créatives composées de texte, d’images, d’audio et de vidéo. Cette année, l’IA d’apprentissage en profondeur a émergé d’une décennie de recherche et a commencé à faire son chemin dans des applications commerciales, permettant à des millions de personnes d’essayer la technologie pour la première fois. Les créations de l’IA ont inspiré l’émerveillement, créé des controverses, provoqué des crises existentielles et fait tourner les têtes.
Voici un retour sur les sept plus grands reportages sur l’IA de l’année. Il était difficile d’en choisir seulement sept, mais si nous ne le coupions pas quelque part, nous serions encore en train d’écrire sur les événements de cette année jusqu’en 2023 et au-delà.
Avril : DALL-E 2 rêves en images
En avril, OpenAI a annoncé DALL-E 2, un modèle de synthèse d’images d’apprentissage en profondeur qui a époustouflé sa capacité apparemment magique à générer des images à partir d’invites de texte. Formé sur des centaines de millions d’images extraites d’Internet, DALL-E 2 a su créer de nouvelles combinaisons d’images grâce à une technique appelée diffusion latente.
Twitter a rapidement été rempli d’images d’astronautes à cheval, d’ours en peluche errant dans l’Égypte ancienne et d’autres œuvres presque photoréalistes. Nous avons entendu parler de DALL-E pour la dernière fois un an auparavant lorsque la version 1 du modèle avait eu du mal à rendre une chaise d’avocat basse résolution. Soudain, la version 2 illustrait nos rêves les plus fous à une résolution de 1024 × 1024.
Au début, compte tenu des inquiétudes concernant l’utilisation abusive, OpenAI n’autorisait que 200 bêta-testeurs à utiliser DALL-E 2. Les filtres de contenu bloquaient les invites violentes et sexuelles. Peu à peu, OpenAI a permis à plus d’un million de personnes de participer à un essai fermé, et DALL-E 2 est finalement devenu disponible pour tout le monde fin septembre. Mais à ce moment-là, un autre concurrent dans le monde de la diffusion latente s’était levé, comme nous le verrons ci-dessous.
Juillet : un ingénieur de Google pense que LaMDA est sensible
Début juillet, le Washington Post a annoncé qu’un ingénieur de Google nommé Blake Lemoine avait été mis en congé payé en raison de sa conviction que le LaMDA (Language Model for Dialogue Applications) de Google était sensible et qu’il méritait des droits égaux à ceux d’un humain.
Alors qu’il travaillait au sein de l’organisation Responsible AI de Google, Lemoine a commencé à discuter avec LaMDA de religion et de philosophie et a cru voir une véritable intelligence derrière le texte. « Je connais une personne quand je lui parle », a déclaré Lemoine au Post. « Peu importe qu’ils aient un cerveau fait de viande dans la tête. Ou s’ils ont un milliard de lignes de code. Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide ce qui est et n’est pas une personne. »
Google a répondu que LaMDA ne faisait que dire à Lemoine ce qu’il voulait entendre et que LaMDA n’était en fait pas sensible. Comme l’outil de génération de texte GPT-3, LaMDA avait déjà été formé sur des millions de livres et de sites Web. Il a répondu à l’entrée de Lemoine (une invite, qui comprend l’intégralité du texte de la conversation) en prédisant les mots les plus probables qui devraient suivre sans aucune compréhension plus approfondie.
En cours de route, Lemoine aurait violé la politique de confidentialité de Google en parlant aux autres du travail de son groupe. Plus tard en juillet, Google a licencié Lemoine pour avoir enfreint les politiques de sécurité des données. Il n’était pas la dernière personne en 2022 à se laisser emporter par le battage médiatique sur le grand modèle de langage d’une IA, comme nous le verrons.
Juillet : DeepMind AlphaFold prédit presque toutes les structures protéiques connues
En juillet, DeepMind a annoncé que son modèle AlphaFold AI avait prédit la forme de presque toutes les protéines connues de presque tous les organismes sur Terre avec un génome séquencé. Initialement annoncé à l’été 2021, AlphaFold avait auparavant prédit la forme de toutes les protéines humaines. Mais un an plus tard, sa base de données de protéines s’est élargie pour contenir plus de 200 millions de structures protéiques.
DeepMind a rendu ces structures protéiques prédites disponibles dans une base de données publique hébergée par l’Institut européen de bioinformatique du Laboratoire européen de biologie moléculaire (EMBL-EBI), permettant aux chercheurs du monde entier d’y accéder et d’utiliser les données pour la recherche liée à la médecine et à la biologie. science.
Les protéines sont des éléments de base de la vie, et connaître leurs formes peut aider les scientifiques à les contrôler ou à les modifier. Cela s’avère particulièrement utile lors du développement de nouveaux médicaments. « Presque tous les médicaments qui sont arrivés sur le marché au cours des dernières années ont été conçus en partie grâce à la connaissance des structures protéiques », a déclaré Janet Thornton, scientifique principale et directrice émérite à l’EMBL-EBI. Cela fait de les connaître tous un gros problème.