Jusqu’à présent, l’IA n’a pas été rentable pour les Big Tech

Les grandes entreprises technologiques comme Microsoft et Google sont aux prises avec le défi de transformer des produits d’IA comme ChatGPT en une entreprise rentable, rapporte le Wall Street Journal. Alors que les entreprises investissent massivement dans les technologies d’IA capables de générer des mémos commerciaux ou du code, le coût d’exécution de modèles d’IA avancés s’avère être un obstacle de taille. Certains services, comme GitHub Copilot de Microsoft, entraînent des pertes opérationnelles importantes.

Les modèles d’IA générative utilisés pour créer du texte ne sont pas bon marché à exploiter. Les grands modèles de langage (LLM) comme ceux qui alimentent ChatGPT nécessitent des serveurs puissants dotés de puces haut de gamme et énergivores. Par exemple, nous avons récemment cité un rapport de Reuters avec une analyse selon laquelle chaque requête ChatGPT peut coûter 4 cents à exécuter. En conséquence, Adam Selipsky, directeur général d’Amazon Web Services, a déclaré au Journal que de nombreuses entreprises clientes sont mécontentes des coûts de fonctionnement élevés de ces modèles d’IA.

Le défi actuel en matière de coûts est lié à la nature des calculs de l’IA, qui nécessitent souvent de nouveaux calculs pour chaque requête, contrairement aux logiciels standards qui bénéficient d’économies d’échelle. Cela rend les modèles forfaitaires pour les services d’IA risqués, car une utilisation croissante par les clients peut augmenter les coûts opérationnels et entraîner des pertes potentielles pour l’entreprise.

Certaines entreprises tentent de réduire leurs coûts, tandis que d’autres continuent d’investir davantage dans la technologie. Microsoft et Google ont introduit des mises à niveau plus coûteuses basées sur l’IA pour leurs services logiciels existants, tandis que Zoom aurait tenté de réduire les coûts en utilisant parfois un modèle d’IA interne moins complexe pour certaines tâches. Adobe aborde le problème avec des plafonds d’activité et une facturation basée sur l’utilisation, tandis que Microsoft et Google s’en tiennent généralement à des frais fixes.

Chris Young, responsable de la stratégie d’entreprise de Microsoft, estime qu’il faudra plus de temps pour obtenir un retour sur investissement dans l’IA, le temps que les gens trouvent les meilleures façons de l’utiliser. « Nous sommes clairement à un point où nous devons maintenant traduire l’enthousiasme et le niveau d’intérêt en une véritable adoption », a-t-il déclaré au média.

Le rapport du WSJ affirme notamment que le GitHub Copilot de Microsoft, qui aide les développeurs d’applications en générant du code, fonctionne à perte bien qu’il ait attiré plus de 1,5 million d’utilisateurs et qu’il soit intégré dans près de la moitié de leurs projets de codage. Les utilisateurs paient un forfait de 10 dollars par mois pour le service, mais le coût pour Microsoft dépasse 20 dollars par mois et par utilisateur en moyenne, selon une personne proche du dossier. Dans certains cas, les utilisateurs expérimentés individuels ont coûté à l’entreprise jusqu’à 80 dollars par mois.

L’une des raisons pour lesquelles les services d’IA sont si coûteux est que certaines entreprises recherchent les modèles d’IA les plus puissants disponibles. Par exemple, Microsoft utilise le LLM le plus complexe d’OpenAI, GPT-4, pour bon nombre de ses fonctionnalités d’IA. GPT-4 fait partie des modèles d’IA les plus grands et les plus coûteux à exploiter, exigeant une puissance de calcul importante. Le WSJ a plaisanté en disant que l’utilisation de ce modèle pour des tâches de base telles que la synthèse d’un e-mail équivaut à « demander à une Lamborghini de livrer une pizza », suggérant que l’utilisation des modèles d’IA les plus performants peut être excessive pour des tâches simples.

Dans cette optique, Microsoft a exploré des alternatives moins coûteuses pour son assistant de moteur de recherche Bing Chat, notamment le modèle linguistique Llama 2 de Meta. Cependant, au fil du temps, grâce aux progrès du matériel d’accélération de l’IA, les coûts d’exploitation de ces modèles complexes diminueront probablement. Il n’est pas certain que ces avancées puissent arriver assez tôt pour correspondre au cycle de battage médiatique de cette année sur l’IA.

Bien qu’il y ait encore de l’enthousiasme dans le secteur, le WSJ rapporte que nous pourrions être proches du sommet avant que la réalité ne s’installe. Certains experts anticipent une approche financière plus stricte dans un avenir proche, souligné par May Habib, PDG de la société d’IA générative Writer, qui a déclaré au média : « L’année prochaine, je pense, sera l’année où la caisse noire pour l’IA générative disparaîtra. » Cela suggère que nous pourrions bientôt voir l’industrie passer d’un enthousiasme et de budgets expérimentaux à une phase où l’accent sera mis sur la question de savoir si ces modèles d’IA peuvent réellement contribuer à la rentabilité de l’entreprise.

Source-147