Comme l’a écrit un jour un auteur à succès commercial, « la nuit est sombre et pleine de terreurs, le jour clair et beau et plein d’espoir ». C’est une image appropriée pour l’IA, qui, comme toutes les technologies, a ses avantages et ses inconvénients.
Des modèles générateurs d’art comme Stable Diffusion, par exemple, ont conduit à d’incroyables effusions de créativité, alimentant des applications et même des modèles commerciaux entièrement nouveaux. D’autre part, sa nature open source permet aux mauvais acteurs de l’utiliser pour créer des deepfakes à grande échelle – tout en protestant que les artistes profitent de leur travail.
Qu’y a-t-il de prévu pour l’IA en 2023 ? La réglementation limitera-t-elle le pire de ce qu’apporte l’IA, ou les vannes sont-elles ouvertes ? De nouvelles formes d’IA puissantes et transformatrices émergeront-elles, à la ChatGPT, perturberont-elles des industries que l’on croyait à l’abri de l’automatisation ?
Attendez-vous à plus d’applications d’IA génératrices d’art (problématiques)
Avec le succès de Lensa, l’application selfie alimentée par l’IA de Prisma Labs qui est devenue virale, vous pouvez vous attendre à de nombreuses applications me-too dans ce sens. Et attendez-vous à ce qu’ils soient également capables d’être amenés à créer des images NSFW, et de sexualiser et de modifier de manière disproportionnée l’apparence des femmes.
Maximilian Gahntz, chercheur principal en politiques à la Fondation Mozilla, a déclaré qu’il s’attendait à ce que l’intégration de l’IA générative dans la technologie grand public amplifie les effets de ces systèmes, à la fois bons et mauvais.
Stable Diffusion, par exemple, a été alimenté par des milliards d’images provenant d’Internet jusqu’à ce qu’il «apprenne» à associer certains mots et concepts à certaines images. Les modèles de génération de texte ont souvent été facilement amenés à adopter des opinions offensantes ou à produire un contenu trompeur.
Mike Cook, membre du groupe de recherche ouvert Knives and Paintbrushes, convient avec Gahntz que l’IA générative continuera de s’avérer une force majeure – et problématique – de changement. Mais il pense que 2023 doit être l’année où l’IA générative « mettra enfin son argent là où se trouve sa bouche ».
« Il ne suffit pas de motiver une communauté de spécialistes [to create new tech] – pour que la technologie fasse partie intégrante de nos vies à long terme, elle doit soit rapporter beaucoup d’argent à quelqu’un, soit avoir un impact significatif sur la vie quotidienne du grand public », a déclaré Cook. « Je prédis donc que nous verrons une poussée sérieuse pour que l’IA générative réalise réellement l’une de ces deux choses, avec un succès mitigé. »
Les artistes mènent l’effort pour se retirer des ensembles de données
DeviantArt a publié un générateur d’art AI basé sur Stable Diffusion et affiné sur les illustrations de la communauté DeviantArt. Le générateur d’art a rencontré une vive désapprobation de la part des habitants de longue date de DeviantArt, qui ont critiqué le manque de transparence de la plate-forme dans l’utilisation de leur art téléchargé pour former le système.
Les créateurs des systèmes les plus populaires – OpenAI et Stability AI – disent qu’ils ont pris des mesures pour limiter la quantité de contenu préjudiciable que leurs systèmes produisent. Mais à en juger par de nombreuses générations sur les réseaux sociaux, il est clair qu’il y a du travail à faire.
« Les ensembles de données nécessitent une conservation active pour résoudre ces problèmes et doivent être soumis à un examen minutieux, y compris de la part des communautés qui ont tendance à avoir le bout du bâton », a déclaré Gahntz, comparant le processus aux controverses en cours sur la modération du contenu dans les médias sociaux.
Stability AI, qui finance en grande partie le développement de Stable Diffusion, a récemment cédé à la pression du public, signalant qu’il permettrait aux artistes de se retirer de l’ensemble de données utilisé pour former le modèle Stable Diffusion de nouvelle génération. Par le biais du site Web HaveIBeenTrained.com, les ayants droit pourront demander leur désinscription avant le début de la formation dans quelques semaines.
OpenAI n’offre aucun mécanisme de désactivation de ce type, préférant plutôt s’associer à des organisations comme Shutterstock pour autoriser des parties de leurs galeries d’images. Mais étant donné les vents contraires juridiques et publicitaires auxquels il est confronté aux côtés de Stability AI, ce n’est probablement qu’une question de temps avant qu’il ne fasse de même.
Les tribunaux pourraient finalement lui forcer la main. Aux États-Unis, Microsoft, GitHub et OpenAI sont poursuivis dans le cadre d’un recours collectif qui les accuse d’avoir violé la loi sur le droit d’auteur en laissant Copilot, le service de GitHub qui suggère intelligemment des lignes de code, régurgiter des sections de code sous licence sans fournir de crédit.
Anticipant peut-être la contestation judiciaire, GitHub a récemment ajouté des paramètres pour empêcher le code public d’apparaître dans les suggestions de Copilot et prévoit d’introduire une fonctionnalité qui fera référence à la source des suggestions de code. Mais ce sont des mesures imparfaites. Dans au moins un cas, le paramètre de filtre a amené Copilot à émettre de gros morceaux de code protégé par des droits d’auteur, y compris tout le texte d’attribution et de licence.
Attendez-vous à voir les critiques s’intensifier au cours de l’année à venir, en particulier alors que le Royaume-Uni réfléchit à des règles qui supprimeraient l’exigence selon laquelle les systèmes formés à l’aide de données publiques doivent être utilisés à des fins strictement non commerciales.
Les efforts open source et décentralisés continueront de croître
2022 a vu une poignée d’entreprises d’IA dominer la scène, principalement OpenAI et Stability AI. Mais le pendule pourrait revenir à l’open source en 2023, car la capacité de construire de nouveaux systèmes va au-delà des «laboratoires d’IA riches en ressources et puissants», comme l’a dit Gahntz.
Une approche communautaire peut conduire à un examen plus approfondi des systèmes au fur et à mesure de leur construction et de leur déploiement, a-t-il déclaré : « Si les modèles sont ouverts et si les ensembles de données sont ouverts, cela permettra beaucoup plus de recherches critiques qui ont mis en évidence de nombreux défauts et dommages liés à l’IA générative et qui ont souvent été beaucoup trop difficiles à mener. »
Des exemples de tels efforts axés sur la communauté incluent les grands modèles de langage d’EleutherAI et de BigScience, un effort soutenu par la startup d’IA Hugging Face. Stability AI finance elle-même un certain nombre de communautés, comme Harmonai et OpenBioML, une collection d’expériences biotechnologiques axées sur la génération de musique.
L’argent et l’expertise sont toujours nécessaires pour former et exécuter des modèles d’IA sophistiqués, mais l’informatique décentralisée peut défier les centres de données traditionnels à mesure que les efforts open source mûrissent.
BigScience a franchi une étape vers le développement décentralisé avec la sortie récente du projet open source Petals. Petals permet aux utilisateurs d’apporter leur puissance de calcul, similaire à Folding@home, pour exécuter de grands modèles de langage d’IA qui nécessiteraient normalement un GPU ou un serveur haut de gamme.
« Les modèles génératifs modernes sont coûteux en calculs à former et à exécuter. Certaines estimations au fond de l’enveloppe évaluent les dépenses quotidiennes de ChatGPT à environ 3 millions de dollars », a déclaré Chandra Bhagavatula, chercheur principal à l’Allen Institute for AI, par e-mail. « Pour rendre cela commercialement viable et accessible plus largement, il sera important d’y remédier. »
Chandra souligne, cependant, que les grands laboratoires continueront d’avoir des avantages concurrentiels tant que les méthodes et les données resteront propriétaires. Dans un exemple récent, OpenAI a publié Point-E, un modèle capable de générer des objets 3D à partir d’une invite de texte. Mais bien qu’OpenAI ait ouvert le modèle, il n’a pas divulgué les sources des données de formation de Point-E ni publié ces données.
« Je pense que les efforts de l’open source et les efforts de décentralisation en valent absolument la peine et profitent à un plus grand nombre de chercheurs, de praticiens et d’utilisateurs », a déclaré Chandra. « Cependant, bien qu’ils soient open source, les meilleurs modèles sont encore inaccessibles à un grand nombre de chercheurs et de praticiens en raison de leurs contraintes de ressources. »
Les entreprises d’IA s’adaptent aux réglementations à venir
Une réglementation telle que la loi sur l’IA de l’UE peut changer la façon dont les entreprises développent et déploient des systèmes d’IA à l’avenir. Il en va de même pour les efforts plus locaux comme la loi sur l’embauche d’IA de New York, qui exige que l’IA et la technologie basée sur des algorithmes pour le recrutement, l’embauche ou la promotion soient auditées pour détecter les biais avant d’être utilisées.
Chandra considère ces réglementations comme nécessaires, en particulier à la lumière des défauts techniques de plus en plus apparents de l’IA générative, comme sa tendance à diffuser des informations factuellement erronées.
« Cela rend l’IA générative difficile à appliquer dans de nombreux domaines où les erreurs peuvent avoir des coûts très élevés, par exemple les soins de santé. De plus, la facilité de générer des informations incorrectes crée des défis liés à la mésinformation et à la désinformation », a-t-elle déclaré. « [And yet] Les systèmes d’IA prennent déjà des décisions chargées d’implications morales et éthiques.
L’année prochaine n’apportera cependant que la menace d’une réglementation – attendez-vous à beaucoup plus d’arguties sur les règles et les affaires judiciaires avant que quiconque ne soit condamné à une amende ou à une accusation. Mais les entreprises peuvent encore se battre pour se positionner dans les catégories les plus avantageuses des lois à venir, comme les catégories de risque de la loi sur l’IA.
La règle telle qu’elle est actuellement rédigée divise les systèmes d’IA en l’une des quatre catégories de risque, chacune avec des exigences et des niveaux de contrôle différents. Les systèmes de la catégorie de risque la plus élevée, l’IA « à haut risque » (par exemple, les algorithmes de notation de crédit, les applications de chirurgie robotique), doivent répondre à certaines normes juridiques, éthiques et techniques avant d’être autorisés à entrer sur le marché européen. La catégorie de risque la plus faible, l’IA « risque minimal ou nul » (par exemple, les filtres anti-spam, les jeux vidéo compatibles avec l’IA), n’impose que des obligations de transparence, comme informer les utilisateurs qu’ils interagissent avec un système d’IA.
Os Keyes, un doctorat. Candidat à l’Université de Washington, a exprimé sa crainte que les entreprises ne visent le niveau de risque le plus bas afin de minimiser leurs propres responsabilités et leur visibilité vis-à-vis des régulateurs.
«Cette préoccupation mise à part, [the AI Act] vraiment la chose la plus positive que je vois sur la table », ont-ils déclaré. « Je n’ai pas vu grand-chose n’importe quoi hors du Congrès.
Mais les investissements ne sont pas une chose sûre
Gahntz soutient que, même si un système d’IA fonctionne assez bien pour la plupart des gens mais qu’il est profondément nocif pour certains, il reste « encore beaucoup de travail à faire » avant qu’une entreprise ne le rende largement disponible. « Il y a aussi une analyse de rentabilisation pour tout cela. Si votre modèle génère beaucoup de choses ratées, les consommateurs ne l’apprécieront pas », a-t-il ajouté. « Mais évidemment, c’est aussi une question d’équité. »
Il n’est pas clair si les entreprises seront convaincues par cet argument l’année prochaine, d’autant plus que les investisseurs semblent désireux de placer leur argent au-delà de toute IA générative prometteuse.
Au milieu des controverses sur Stable Diffusion, Stability AI a levé 101 millions de dollars pour une valorisation de plus d’un milliard de dollars auprès de bailleurs de fonds de premier plan, notamment Coatue et Lightspeed Venture Partners. OpenAI serait évalué à 20 milliards de dollars alors qu’il entre en pourparlers avancés pour lever davantage de fonds auprès de Microsoft. (Microsoft avait précédemment investi 1 milliard de dollars dans OpenAI en 2019.)
Bien sûr, ceux-ci pourraient être des exceptions à la règle.
En dehors des entreprises autonomes Cruise, Wayve et WeRide et de la société de robotique MegaRobo, les entreprises d’IA les plus performantes en termes d’argent levé cette année étaient basées sur des logiciels, selon Crunchbase. Contentsquare, qui vend un service qui fournit des recommandations basées sur l’IA pour le contenu Web, a clôturé une ronde de 600 millions de dollars en juillet. Uniphore, qui vend des logiciels pour « l’analyse conversationnelle » (pensez aux mesures des centres d’appels) et les assistants conversationnels, a décroché 400 millions de dollars en février. Pendant ce temps, Highspot, dont la plate-forme alimentée par l’IA fournit aux commerciaux et aux spécialistes du marketing des recommandations en temps réel et basées sur les données, a récolté 248 millions de dollars en janvier.
Les investisseurs pourraient bien rechercher des paris plus sûrs comme l’automatisation de l’analyse des plaintes des clients ou la génération de prospects, même s’ils ne sont pas aussi « sexy » que l’IA générative. Cela ne veut pas dire qu’il n’y aura pas de gros investissements accrocheurs, mais ils seront réservés aux joueurs influents.