La photonique s’avère être un problème difficile à résoudre
Le calcul croissant la puissance nécessaire pour former des modèles d’IA sophistiqués tels que ChatGPT d’OpenAI pourrait éventuellement se heurter à un mur avec les technologies de puces grand public.
Dans une analyse de 2019, OpenAI a constaté que de 1959 à 2012, la quantité d’énergie utilisée pour entraîner les modèles d’IA a doublé tous les deux ans et que la consommation d’énergie a commencé à augmenter sept fois plus vite après 2012.
Cela cause déjà de la tension. Microsoft serait confronté à une pénurie interne de matériel de serveur nécessaire pour faire fonctionner son IA, et la rareté fait grimper les prix. CNBC, s’adressant à des analystes et à des technologues, estime à plus de 4 millions de dollars le coût actuel de la formation d’un modèle de type ChatGPT à partir de zéro.
Une solution au dilemme de la formation à l’IA qui a été proposée est les puces photoniques, qui utilisent la lumière pour envoyer des signaux plutôt que l’électricité utilisée par les processeurs conventionnels. Les puces photoniques pourraient en théorie conduire à des performances d’entraînement plus élevées car la lumière produit moins de chaleur que l’électricité, peut voyager plus rapidement et est beaucoup moins sensible aux changements de température et aux champs électromagnétiques.
Lightmatter, LightOn, Luminous Computing, Intel et NTT font partie des entreprises développant des technologies photoniques. Mais alors que la technologie suscitait beaucoup d’enthousiasme il y a quelques années — et attirait beaucoup d’investissements — le secteur s’est sensiblement refroidi depuis lors.
Il y a diverses raisons à cela, mais le message général des investisseurs et des analystes qui étudient la photonique est que les puces photoniques pour l’IA, bien que prometteuses, ne sont pas la panacée qu’on croyait autrefois.