Les dernières recherches d’Apple sur l’exécution de grands modèles de langage sur les smartphones offrent le signal le plus clair à ce jour que le fabricant d’iPhone envisage de rattraper ses rivaux de la Silicon Valley en matière d’intelligence artificielle générative.
L’article, intitulé « LLM in a Flash », propose une « solution à un goulot d’étranglement informatique actuel », écrivent ses chercheurs.
Son approche « ouvre la voie à une inférence efficace de LLM sur des appareils à mémoire limitée », ont-ils déclaré. L’inférence fait référence à la manière dont les grands modèles de langage, les grands référentiels de données qui alimentent des applications comme ChatGPT, répondent aux requêtes des utilisateurs. Les chatbots et les LLM fonctionnent normalement dans de vastes centres de données dotés d’une puissance de calcul bien supérieure à celle d’un iPhone.
L’article a été publié le 12 décembre, mais a attiré une plus grande attention après que Hugging Face, un site populaire permettant aux chercheurs en IA de présenter leurs travaux, l’ait mis en avant mercredi soir. Il s’agit du deuxième article d’Apple sur l’IA générative ce mois-ci et fait suite à des mesures antérieures visant à permettre aux modèles de génération d’images tels que Stable Diffusion de fonctionner sur ses puces personnalisées.
Les fabricants d’appareils et de puces espèrent que les nouvelles fonctionnalités de l’IA contribueront à relancer le marché des smartphones, qui a connu sa pire année depuis une décennie, avec une baisse des livraisons estimée à 5 %, selon Counterpoint Research.
Malgré le lancement de l’un des premiers assistants virtuels, Siri, en 2011, Apple a été largement laissé à l’écart de la vague d’enthousiasme autour de l’IA générative qui a déferlé sur la Silicon Valley au cours de l’année qui a suivi le lancement par OpenAI de son chatbot révolutionnaire ChatGPT. Apple est considéré par de nombreux membres de la communauté de l’IA comme étant à la traîne par rapport à ses rivaux Big Tech, malgré l’embauche du plus haut responsable de l’IA de Google, John Giannandrea, en 2018.
Alors que Microsoft et Google se sont largement concentrés sur la fourniture de chatbots et d’autres services d’IA générative sur Internet à partir de leurs vastes plates-formes de cloud computing, les recherches d’Apple suggèrent qu’ils se concentreront plutôt sur l’IA pouvant s’exécuter directement sur un iPhone.
Les concurrents d’Apple, comme Samsung, se préparent à lancer l’année prochaine un nouveau type de « smartphone IA ». Counterpoint estime que plus de 100 millions de smartphones axés sur l’IA seront commercialisés en 2024, et que 40 % des nouveaux appareils offriront de telles capacités d’ici 2027.
Le patron du plus grand fabricant mondial de puces mobiles, Cristiano Amon, directeur général de Qualcomm, a prédit que l’introduction de l’IA dans les smartphones créerait une toute nouvelle expérience pour les consommateurs et inverserait le déclin des ventes de téléphones mobiles.
« Vous allez voir des appareils lancés début 2024 avec un certain nombre de cas d’utilisation de l’IA générative », a-t-il déclaré au Financial Times dans une récente interview. « Au fur et à mesure que ces éléments se développent, ils commencent à apporter un changement significatif dans l’expérience utilisateur et permettent de nouvelles innovations qui ont le potentiel de créer un nouveau cycle de mise à niveau dans les smartphones. »
Des assistants virtuels plus sophistiqués seront capables d’anticiper les actions des utilisateurs, comme envoyer des SMS ou planifier une réunion, a-t-il déclaré, tandis que les appareils seront également capables de nouveaux types de techniques de retouche photo.
Google a dévoilé ce mois-ci une version de son nouveau Gemini LLM qui fonctionnera « nativement » sur ses smartphones Pixel.
Exécuter le type de grand modèle d’IA qui alimente ChatGPT ou Bard de Google sur un appareil personnel pose de formidables défis techniques, car les smartphones ne disposent pas des énormes ressources informatiques et de l’énergie disponibles dans un centre de données. Résoudre ce problème pourrait signifier que les assistants IA réagissent plus rapidement que depuis le cloud et même travaillent hors ligne.
Garantir que les requêtes reçoivent une réponse sur le propre appareil d’un individu sans envoyer de données vers le cloud est également susceptible d’apporter des avantages en matière de confidentialité, un différenciateur clé pour Apple ces dernières années.
« Notre expérience est conçue pour optimiser l’efficacité de l’inférence sur les appareils personnels », ont déclaré ses chercheurs. Apple a testé son approche sur des modèles dont le Falcon 7B, une version plus petite d’un LLM open source développé à l’origine par le Technology Innovation Institute d’Abu Dhabi.
L’optimisation des LLM pour qu’ils fonctionnent sur des appareils alimentés par batterie constitue une préoccupation croissante pour les chercheurs en IA. Les articles universitaires ne constituent pas un indicateur direct de la manière dont Apple a l’intention d’ajouter de nouvelles fonctionnalités à ses produits, mais ils offrent un rare aperçu de ses laboratoires de recherche secrets et des dernières avancées techniques de l’entreprise.
« Notre travail apporte non seulement une solution à un goulot d’étranglement informatique actuel, mais crée également un précédent pour les recherches futures », ont écrit les chercheurs d’Apple dans la conclusion de leur article. « Nous pensons qu’à mesure que la taille et la complexité des LLM continuent de croître, des approches telles que celles-ci seront essentielles pour exploiter leur plein potentiel dans un large éventail d’appareils et d’applications. »
Apple n’a pas immédiatement répondu à une demande de commentaire.