DeepSeek V4 déployé : Zhipu et MiniMax s'effondrent, NVIDIA paniquée

DeepSeek V4 finally launched. C’est un moment attendu depuis près de cinq mois. Le modèle principal MoE de 1T de paramètres + la version Flash de 285B paramètres, la version Pro complète de 1,6T de paramètres, tout en open source sur GitHub, sous licence Apache 2.0, avec les poids et le code de déploiement simultanément libérés.

Dès la sortie du modèle, le marché financier a répondu de trois manières indépendantes mais interconnectées.

Réactions différentes du marché financier

Le secteur A des capacités de calcul a presque entièrement connu une hausse. Cambricon a connu 11 jours consécutifs de hausse, avec une augmentation de 3,7 % en une journée, et un gain cumulé de plus de 60 % en un mois. Hygon Information a touché un plafond de hausse de 10 % en cours de séance, clôturant à +8,4 %. SMIC International (+4,91 %), Hong Kong (+8,81 %). Huahong a atteint +18 % au plus haut en bourse de Hong Kong, clôturant à +12 %. L’ETF Guotai pour les puces innovantes a attiré 2,4 milliards de RMB en un seul jour, atteignant un sommet historique.

Côté entreprises de grands modèles à Hong Kong, la réaction est différente. Zhipu (02513.HK) a chuté de 8,07 %, avec un ratio de vente à découvert de 9,9 %. MiniMax (00100.HK) a chuté de 7,40 %, avec un ratio de vente à découvert atteignant 22,87 %. Ce dernier représente le record de vente à découvert en un seul jour dans le secteur de l’IA à Hong Kong ces trois derniers mois. Ces deux sociétés sont des représentants de la vague d’introduction en bourse de l’IA à Hong Kong prévue pour la seconde moitié de 2025, leur avantage concurrentiel principal étant la même phrase : « Modèle de base auto-développé ».

La réaction de l’autre côté de l’océan Pacifique est tout aussi concrète. Nvidia a ouvert en baisse de 1,8 %, atteignant brièvement -2,6 % en cours de séance, puis clôturant stable. La revue de marché de Bloomberg a comparé cette correction à celle du 27 janvier lors du « moment DeepSeek » avec V3. La différence est que, en janvier, il s’agissait d’une vente panique, avec une évaporation de 600 milliards de dollars de capitalisation en une journée. Cette fois, il s’agit plutôt d’une réévaluation, d’une ampleur modérée mais avec une direction claire. Selon un rapport de recherche d’un organisme d’investissement, « la demande chinoise en inférence IA commence à se décorréler de celle en Amérique du Nord ».

En superposant ces trois réactions, on obtient la première décision du marché dans les 24 heures suivant la sortie de V4. Après la victoire de l’open source, l’argent commence à se repositionner : ce qui peut être tarifé n’est plus seulement le modèle lui-même, mais aussi la plateforme sur laquelle il tourne, la chaîne industrielle dans laquelle il est intégré.

30 jours, 11 nouveaux modèles, V4 ravive la scène open source

La fenêtre de lancement de V4 est en elle-même une raison amplifiant cette réaction.

Regardons les 30 derniers jours. Entre le 26 mars et le 24 avril, au moins 11 grands modèles à impact significatif ont été lancés ou mis à jour, couvrant presque tous les principaux acteurs. Anthropic Opus 4.6, Google Gemini 3.1 Pro, OpenAI GPT-5.5, Mistral Large 3, Meta Llama 4, Kimi K2.6 de la face obscure de la lune, Alibaba Qwen3-Next, ByteDance Doubao 2.5 Pro, Tencent Hunyuan 3.0, Kimi K2.6 Plus, et enfin DeepSeek V4 publié dans la matinée du 23 avril.

En moyenne, un nouveau modèle sort tous les 2,7 jours. C’est un rythme auquel même un gestionnaire de fonds ne peut pas suivre pour lire tous les communiqués. Mais en regardant la courbe des actifs IA à Hong Kong et en Chine sur ces 30 jours, un seul nom se détache : GPT-5.5, lancé le 8 avril, qui a entraîné une hausse de 4,2 % de Nvidia en une journée, atteignant un sommet. Ensuite, le 23-24 avril, DeepSeek V4 a fait bondir la chaîne de capacités de calcul en Chine et à Hong Kong, provoquant une hausse continue.

La différence ne réside pas dans la capacité du modèle lui-même. La majorité de ces 11 modèles ont des écarts de moins de 50 points dans le classement LMArena, restant dans une même « gamme » étroite. La différence réside dans deux facteurs combinés.

Le premier est l’open source. Parmi ces 10 modèles, seul Llama 4 est open source, mais ses conditions de licence incluent une longue liste de restrictions commerciales, ce qui a refroidi la communauté des développeurs en Occident. Sur OpenRouter, il est sorti du top 10 après seulement trois jours. V4 utilise la licence Apache 2.0, avec des poids sans restriction, une utilisation commerciale illimitée, et le code de déduction publié simultanément. C’est le premier modèle phare open source depuis six mois à faire pression à la fois sur la performance, le prix et l’ouverture, face à des modèles propriétaires.

Le second est le timing. Dans un contexte où les modèles propriétaires continuent de multiplier leurs annonces, la narration open source est constamment comprimée. Opus 4.6 a porté le benchmark SWE-Bench à un nouveau sommet, GPT-5.5 a fixé le prix par million de tokens à 1,25 dollar, un point d’ancrage pour le marché. La question de savoir si l’open source peut rattraper le fermé dure depuis deux ans dans la Silicon Valley. V4, avec une estimation de 90 millions d’utilisateurs actifs mensuels, a mis cette discussion en pause.

Selon un gestionnaire de fonds chinois lors d’une présentation, « Avant V4, nous avions une décote sur la valorisation des grands modèles open source, après V4, cette décote commence à s’inverser. »

DeepSeek change la grille de tarification de la chaîne d’approvisionnement en capacités de calcul

Dans le communiqué de V4, une phrase n’avait jamais été vue dans aucun document officiel de grands modèles chinois : « Day 0, adaptation complète à Cambricon Syu Yuan 590 et Huawei Ascend 950PR, code de déploiement open source en synchronisation. » La signification de cette phrase ne devient claire qu’en reliant les trois lignes parallèles de cette année écoulée, qui concernent le matériel, le logiciel et la réaction de la Silicon Valley.

La première ligne concerne le matériel. Huawei Ascend 950PR, dont la production en série a commencé en décembre 2025, offre une puissance de 1,56 PFLOPS en FP4, avec une capacité HBM de 112 Go, représentant la première fois qu’un processeur IA national chinois se compare en performance à la série B de Nvidia. Dans le cadre de tâches d’inférence MoE de 1T de paramètres comme V4, la capacité par carte est 2,87 fois supérieure à celle du H20. La pile logicielle CANN 8.0 optimise la déduction LLM au niveau des opérateurs, et le benchmark publié par DeepSeek montre que, sur un cluster Ascend (8 cartes 950PR), la latence d’inférence de bout en bout est inférieure de 35 % à celle d’un cluster H100 de même taille. La puce Cambricon Syu Yuan 590 est encore plus ambitieuse : sa puissance FP8 par chip, comparable à H100, coûte moins de la moitié.

La deuxième ligne concerne le logiciel. La branche vLLM a fusionné le 22 avril la PR du backend MLU de Cambricon, permettant pour la première fois à un framework d’inférence open source de supporter nativement des GPU chinois non Nvidia. DCU de Hygon Information, utilisant l’écosystème ROCm, suit une autre voie, mais peut faire fonctionner intégralement la couche de routage MoE de V4. Cela signifie que le déploiement de V4 n’est plus limité à une seule marque de GPU chinois, mais peut s’étendre à plusieurs. La dépendance à un fournisseur unique est brisée, ce qui constitue une étape clé pour la production.

La troisième ligne vient de la Silicon Valley. Le 15 avril, Jensen Huang, lors de la conférence TSMC, a été interrogé par un analyste sur l’avancement de la puissance de calcul chinoise. Sa réponse, froide et précise, était : « Si ils parviennent vraiment à faire tourner des LLM sans CUDA, ce sera une catastrophe pour nous. » Neuf jours plus tard, DeepSeek a répondu avec une annonce Day 0.

Le terme « substitution nationale » a été galvaudé ces trois dernières années. Mais après le matin du 24 avril, cette notion a enfin été quantifiée par le marché financier. La capacité par carte, la latence d’inférence, le coût par inférence, la possibilité de déploiement commercial, tout cela a silencieusement placé cette longue bataille de discours à la porte de la production.

La logique derrière la hausse de 11 jours consécutifs de Cambricon est ici. La société n’est plus simplement une « société de GPU chinois concept », mais devient « fournisseur d’infrastructure d’inférence DeepSeek V4 ». La même logique explique aussi la hausse de 12 % de Huahong en bourse, qui fabrique le 950PR en procédés équivalents à 7 nm. Chaque token V4 tournant sur un processeur chinois signifie que la capacité qui aurait dû aller à Nvidia ou TSMC est en partie retenue dans le delta du Guangdong.

Et la prochaine étape est déjà en préparation. La feuille de route de Huawei prévoit la livraison du 950DT (version entraînement) pour le quatrième trimestre 2026, avec pour objectif « entraînement complet d’un modèle de même niveau ou V5 sur un cluster de 10 000 cartes ». Si cette voie est couronnée de succès, la barrière de CUDA dans la formation de grands modèles chinois passera de « nécessaire » à « optionnelle ».

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler