Aucun cloud requis : le chatbot s’exécute localement sur les iPhones et les anciens PC

La plupart des chatbots IA nécessitent une tonne de puissance de traitement, à tel point qu’ils vivent généralement dans le cloud. Bien sûr, vous pouvez exécuter ChatGPT sur votre PC ou même sur un Raspberry Pi, mais le programme local envoie vos invites sur Internet aux serveurs d’OpenAI pour une réponse. Certains LLM (Large Language Models) peuvent s’exécuter localement, mais nécessite un GPU puissant avec beaucoup de VRAM. Vous ne pourriez pas exécuter un chatbot localement sur un appareil mobile ? Ou pourriez-vous?

Un tout nouveau projet open-source appelé MLC LLM est suffisamment léger pour fonctionner localement sur à peu près n’importe quel appareil, même un iPhone ou un ancien ordinateur portable avec carte graphique intégrée. Et, une fois que vous avez installé MLC LLM, vous pouvez désactiver Internet, car toutes les données et le traitement se produisent sur votre système.

Source-138