Les grandes entreprises américaines comme Meta, Microsoft et Alphabet prévoient d’investir 228 milliards de dollars dans l’intelligence artificielle cette année, une augmentation de 55 % par rapport à l’année précédente. Cependant, des doutes persistent quant à la rentabilité de ces investissements, surtout après le succès d’une startup chinoise, Deepseek, qui propose un modèle d’IA open source. Jonas Geiping met en lumière les implications de ce modèle, notamment en matière de sécurité et de transparence par rapport à OpenAI.
Investissements en Intelligence Artificielle par les Géants Américains
Les grandes entreprises américaines telles que Meta, Microsoft et Alphabet, la société mère de Google, prévoient d’injecter un montant colossal de 228 milliards de dollars dans l’infrastructure de l’intelligence artificielle cette année. Cela représente une hausse impressionnante de 55 % par rapport à l’année précédente. Cependant, les investisseurs demeurent sceptiques quant à la rentabilité de ces investissements massifs. En effet, un startup chinois a récemment fait sensation avec un modèle d’IA open source, qui aurait coûté une fraction de celui de son concurrent américain, OpenAI. Jonas Geiping, chercheur à l’Institut Max Planck pour les systèmes intelligents, nous éclaire sur les implications de Deepseek, notamment sur les risques potentiels pour la sécurité et la véracité des déclarations faites par ce modèle.
Deepseek : Un Outsider Surprenant dans le Monde de l’IA
ntv.de : Vous et vos collègues avez-vous déjà pensé qu’un startup chinois pourrait bouleverser le monde de l’IA ?
Jonas Geiping : C’est vraiment impressionnant. Deepseek se distingue comme un outsider parmi les entreprises d’IA en Chine. Contrairement à des géants comme Alibaba qui bénéficient d’une attention accrue du gouvernement de Pékin, Deepseek opère en tant que filiale d’un petit fonds spéculatif. Ce qui est surprenant, c’est la solidité du modèle d’IA qu’ils ont créé. Il est également notable que le tremblement de terre des annonces ait eu lieu avec un certain retard ; le modèle a été présenté il y a plus d’un mois, et la version de dialogue a été dévoilée quelques semaines plus tard.
Vous faites des recherches sur l’IA depuis neuf ans. Qu’est-ce qui rend le modèle Deepseek spécial ?
Ce qui nous intéresse davantage que la technologie elle-même, c’est que Deepseek a rendu son modèle et son algorithme accessibles au public. Nous pouvons analyser les paramètres en détail. Des collègues ont même réussi à reproduire l’algorithme et ont confirmé son bon fonctionnement. En revanche, pour OpenAI, qui dominait jusqu’à présent, le fonctionnement interne du modèle reste un mystère. Bien qu’il existe également un dialogue interne dans leur modèle, comme dans celui de Deepseek, il est gardé secret. L’approche transparente de Deepseek est véritablement rafraîchissante.
Deepseek a-t-il développé quelque chose de totalement nouveau ?
Le modèle de Deepseek est très similaire à celui d’OpenAI. Toutefois, il a amélioré et développé l’algorithme d’OpenAI. Tandis que les modèles simples offrent des réponses instantanées, le modèle avancé de Deepseek permet d’apprendre à gérer des dialogues internes pour des questions complexes avant de donner une réponse. Les deux entreprises exploitent cette nouvelle technologie, mais la transparence de Deepseek en fait un cas à part.
Quel est l’avenir de cette technologie ?
Il y a un an ou deux, on disait que certaines tâches seraient impossibles pour l’IA. Cependant, Deepseek a prouvé le contraire. Par exemple, des tâches mathématiques de niveau universitaire, pour lesquelles on pensait qu’il faudrait plusieurs années de développement, sont désormais réalisables. Au lieu de simplement augmenter la taille de leurs modèles, les entreprises peuvent maintenant les rendre « plus intelligents » grâce à des algorithmes comme ceux de Deepseek, sans nécessairement les agrandir.
Qu’en est-il des risques de sécurité associés aux entreprises chinoises ?
Du point de vue européen, des préoccupations subsistent. Bien que Deepseek ne plaide pas pour une protection accrue des données, il agira selon ses propres critères. Il est donc essentiel d’exercer la même prudence vis-à-vis des applications américaines. Cependant, une caractéristique importante de Deepseek est qu’il peut fonctionner localement sur des serveurs européens, ce qui permet aux utilisateurs de contrôler leurs données.
Une entreprise chinoise pourrait-elle offrir une solution pour contrer l’espionnage ?
En effet, c’est possible. Cependant, il est crucial de faire la distinction entre le modèle public accessible à tous et l’application contrôlée par les Chinois. Les utilisateurs peuvent choisir d’adopter des mesures de protection.
Pour plus de sécurité, doit-on télécharger le modèle sur son ordinateur ?
Oui, c’est une option. Beaucoup d’utilisateurs l’ont déjà fait, et Deepseek a été surpris par la demande. Toutefois, cela peut rendre les ordinateurs portables lents, et obtenir une réponse pourrait prendre plusieurs jours, nécessitant jusqu’à deux téraoctets d’espace de stockage. Il est donc préférable de faire confiance à une entreprise européenne qui héberge le modèle sur ses serveurs.
Que dire des accusations de vol de la technologie d’OpenAI par Deepseek ?
Il ne s’agit pas de vol au sens strict, mais plutôt d’une question de distillation : Deepseek est accusé d’avoir entraîné son modèle en utilisant des réponses générées par OpenAI.
Peut-on prouver ces allégations ?
Scientifiquement, cela reste indémontrable. Les preuves concrètes font défaut. OpenAI a inondé Internet de ses textes pendant des années, et il est probable que le modèle de Deepseek ait croisé des textes de ChatGPT, mais cela est inévitable.
Est-ce simplement dû à la recherche de réponses sur Internet ?