Je lisais à propos de l’histoire de ZTE il y a peu de temps et une idée étrange m’est venue — la guerre des puces aujourd’hui n’est pas la même qu’il y a 8 ans.



Vous vous souvenez de l’histoire de ZTE ? En avril 2018, le ministère du Commerce américain a imposé une interdiction très limitée : pas de puces, pas de logiciels, rien d’américain. Une entreprise de 80 000 employés et des revenus dépassant le billion de yuans a cessé de fonctionner en un jour. Sans puces Qualcomm, pas de stations de base, et sans licence Android de Google, pas de téléphones. Tout s’est effondré. Il a fallu seulement 23 jours pour que ZTE admette que ses opérations principales n’étaient plus possibles. Elle a payé 1,4 milliard de dollars pour rester en vie.

Mais cette fois, la guerre contre l’intelligence artificielle se déroule de manière complètement différente.

Lorsque l’Amérique a imposé ses premières restrictions sur les exportations de puces NVIDIA A100 et H100 en octobre 2022, tout le monde pensait que c’était la fin. Puis est venue la deuxième vague en octobre 2023, puis la troisième en décembre 2024. La escalation continue, le blocus s’intensifie. Mais cette fois, les entreprises chinoises n’ont pas abandonné — elles ont choisi une voie plus difficile.

Le vrai problème n’est pas les puces elles-mêmes, mais quelque chose appelé CUDA. C’est un système de calcul développé par NVIDIA depuis 2006, qui est devenu la base de toute l’industrie de l’intelligence artificielle. Tous les frameworks majeurs, de TensorFlow de Google à PyTorch de Meta, sont profondément liés à CUDA. Un doctorant spécialisé en IA commence dès le premier jour en apprenant dans un environnement CUDA. Chaque ligne de code qu’il écrit renforce le monopole de NVIDIA. D’ici 2025, il y aura 4,5 millions de développeurs dans le système CUDA, utilisé par plus de 40 000 entreprises mondiales. Plus de 90 % des développeurs d’IA dans le monde sont liés à NVIDIA.

C’est le véritable bastion. CUDA est une roue durable — plus un développeur l’utilise, plus il y a d’outils et de bibliothèques, plus l’environnement prospère, attirant encore plus de développeurs. Une fois cette roue lancée, il est presque impossible de l’arrêter.

Mais les Chinois ont trouvé une façon de sortir de cette impasse — et ce n’est pas en essayant de concurrencer directement NVIDIA sur les puces.

La solution est venue des algorithmes. De fin 2024 à 2025, toutes les entreprises chinoises d’IA sont passées à des modèles experts hybrides. L’idée est simple : au lieu de déployer un seul modèle complet, on le divise en plusieurs petits experts et on n’active que ceux qui sont pertinents pour la tâche. DeepSeek V3 en est un exemple clair — 671 milliards de paramètres, mais seulement 37 milliards sont activés lors de l’inférence. 5,5 % seulement de la taille totale.

Résultat ? des coûts d’entraînement incroyablement réduits. DeepSeek a utilisé 2048 unités de traitement H800 pour s’entraîner pendant 58 jours à un coût de 5,576 millions de dollars. GPT-4 a coûté environ 78 millions de dollars. Une différence d’un niveau entier. Et cela se reflète directement sur les prix — DeepSeek est 25 à 75 fois moins cher que Claude. En février 2026, la part des modèles chinois sur OpenRouter, la plus grande plateforme d’API mondiale, a augmenté de 127 % en seulement trois semaines. Il y a un an, cette part était inférieure à 2 %. Maintenant, elle approche les 60 %.

Mais cela ne concerne que l’inférence. Le problème de l’entraînement reste entier.

C’est là que les puces locales entrent en jeu. En 2025, une entreprise locale a commencé à construire une ligne de production de 148 mètres à Qianxiu — du signature à la production en seulement 180 jours. Un processeur Loongson 3C6000 entièrement local, et une carte T100 de Taichu Yuanqi de l’Université Tsinghua. La ligne produit cinq serveurs par minute, avec un investissement de 1,1 milliard de yuans, visant 100 000 unités par an.

Plus important encore — ces puces ont déjà commencé à supporter de véritables tâches d’entraînement. En janvier 2026, Zhipu AI a lancé avec Huawei le modèle GLM-Image, le premier modèle avancé de génération d’images entièrement entraîné sur des puces chinoises locales. En février, un modèle « étoile » massif a été entraîné sur un supercalculateur chinois local avec des dizaines de milliers d’unités de traitement.

C’est une révolution qualitative. L’inférence nécessite des puces ordinaires, mais l’entraînement demande une puissance de calcul énorme et une bande passante très élevée. Cela augmente les exigences d’un facteur dix. Huawei Ascend est la solution clé ici. Fin 2025, le nombre de développeurs dans l’écosystème Ascend dépasse 4 millions, plus de 3 000 partenaires, 43 modèles principaux entraînés sur Ascend, et plus de 200 modèles open source adaptés. Lors du MWC de mars 2026, Huawei a lancé la nouvelle architecture SuperPoD. La puissance de traitement de l’Ascend 910B a atteint le niveau du NVIDIA A100. L’écart existe toujours, mais il est passé de « inutilisable » à « facilement utilisable ».

Il ne faut pas attendre que les puces soient parfaites. Il faut commencer à déployer massivement quand elles sont suffisantes, et utiliser les besoins réels des affaires pour faire avancer le développement. ByteDance, Tencent et Baidu visent à doubler leurs importations de serveurs de calcul locaux en 2026. Le ministère de l’Industrie et des Technologies de l’Information a annoncé que la puissance de calcul intelligente en Chine a atteint 1590 EFLOPS. 2026 sera une année pivot pour le déploiement du calcul local.

Et un autre facteur que personne n’a encore pris en compte — l’électricité.

Au début de 2026, la Virginie a suspendu l’approbation de nouveaux projets de centres de données. La Géorgie a suivi. L’Illinois et le Michigan ont imposé des mesures restrictives. La consommation d’énergie des centres de données américains a atteint 183 térawattheures en 2024, soit environ 4 % de la consommation totale. Elle devrait doubler d’ici 2030, atteignant 426 térawattheures, soit plus de 12 %. Le PDG d’Arm prévoit que d’ici 2030, les centres de données IA consommeront 20 à 25 % de l’électricité américaine. Le réseau électrique américain est déjà sous pression. Le réseau PJM, couvrant 13 États, fait face à un déficit de capacité de 6 GW. D’ici 2033, les États-Unis auront un déficit de 175 GW. Les coûts de l’électricité en gros ont augmenté de 267 % dans les zones des centres de données.

La situation en Chine est complètement différente. La production annuelle d’électricité est de 10,4 térawatts-heure, contre 4,2 aux États-Unis. La Chine produit 2,5 fois plus qu’aux États-Unis. La consommation domestique en Chine représente 15 % du total, contre 36 % aux États-Unis. Cela signifie une capacité industrielle d’énergie bien plus grande pouvant être orientée vers le calcul. Les prix de l’électricité dans les régions des entreprises d’IA américaines tournent autour de 0,12 à 0,15 dollar par kilowatt-heure. En Chine occidentale, environ 0,03 dollar — un quart à un cinquième du prix américain.

Alors qu’aux États-Unis, la crise électrique se profile, l’IA chinoise se déploie discrètement à l’étranger. Mais cette fois, ce qui sort n’est pas un produit ou une usine, mais un Token — la plus petite unité traitée par les modèles d’IA. Il est produit dans des usines de calcul chinoises, puis circule via des câbles sous-marins à travers le monde.

La répartition des utilisateurs de DeepSeek raconte une histoire claire : 30,7 % en Chine locale, 13,6 % en Inde, 6,9 % en Indonésie, 4,3 % aux États-Unis, 3,2 % en France. Supporte 37 langues, très populaire sur les marchés émergents comme le Brésil. 26 000 entreprises mondiales ont des comptes, 3 200 ont utilisé la version entreprise. En 2025, 58 % des nouvelles startups d’IA ont intégré DeepSeek dans leur infrastructure technique. En Chine, DeepSeek détient 89 % du marché. Dans les pays sous sanctions, la part varie entre 40 et 60 %.

C’est exactement comme la guerre pour l’indépendance industrielle il y a 40 ans. En 1986 à Tokyo, le gouvernement japonais a signé un accord sur les semi-conducteurs américains et japonais sous une pression énorme des États-Unis. Les clauses principales : ouvrir le marché des semi-conducteurs pour que la part des États-Unis ne soit pas inférieure à 20 %, interdire l’exportation de puces japonaises sous licence à un coût inférieur au coût, imposer une taxe punitive de 100 % sur 300 millions de dollars d’exportations. En même temps, les États-Unis ont refusé l’acquisition de Fujitsu par Fairchild.

En 1988, le Japon contrôlait 51 % du marché mondial des semi-conducteurs, contre seulement 36,8 % pour les États-Unis. Parmi les dix plus grandes entreprises mondiales, six étaient japonaises — NEC en deuxième position, Toshiba en troisième, Hitachi en cinquième, Fujitsu en septième, Mitsubishi en huitième, Matsushita en neuvième. Mais après l’accord, tout a changé. Les États-Unis ont utilisé la section 301 et ont exercé une pression globale, tout en soutenant Samsung et Hynix en Corée pour inonder le marché japonais de prix bas. La part du Japon dans la DRAM est passée de 80 % à 10 %. En 2017, la part du Japon dans le marché des circuits intégrés n’était que de 7 %. Les géants se sont retirés, soit par division, soit par acquisition, soit par sortie déçue.

La tragédie du Japon, c’est qu’il a accepté d’être le meilleur producteur dans un système mondial dominé par une seule puissance, sans jamais penser à construire un système indépendant. Quand la vague s’est retirée, il a réalisé qu’il ne possédait rien d’autre que la production.

La Chine aujourd’hui se trouve à un carrefour similaire, mais complètement différent. Nous faisons face à une pression énorme de l’extérieur — trois vagues de restrictions sur les puces avec une escalade continue. Mais cette fois, nous avons choisi une voie plus difficile : des améliorations algorithmiques, un saut vers des puces locales pour l’inférence puis l’entraînement, 4 millions de développeurs dans l’écosystème Ascend, la diffusion mondiale du Token. Chaque étape construit un système industriel indépendant que le Japon n’a jamais eu.

Le 27 février 2026, trois entreprises locales de puces ont publié leurs rapports de performance le même jour. Les résultats sont mitigés — la moitié est une réussite, l’autre un échec. La première a vu ses revenus augmenter de 453 % et a réalisé ses premiers bénéfices. La deuxième a crû de 243 %, mais a perdu un milliard de yuans net. La troisième a augmenté de 121 %, mais a perdu 800 millions.

Le vide laissé par le monopole de NVIDIA, à 95 %, est progressivement comblé par les chiffres des entreprises locales. Peu importe leur performance actuelle, le marché a besoin d’une alternative. Une opportunité structurelle très rare, née des tensions géopolitiques.

Les pertes financières ne sont pas un échec de gestion — c’est une taxe de guerre nécessaire pour construire un système indépendant. Investissements en R&D, soutien logiciel, coûts humains pour des ingénieurs résolvant des problèmes de traduction, tout cela constitue une facture qui paie le prix de la guerre pour la puissance de calcul, plus qu’aucun rapport industriel ne l’a fait. Ces rapports financiers offrent la meilleure image fidèle de cette guerre pour la puissance de calcul, plus que tout autre rapport industriel. Ce n’est pas une victoire inspirante, mais une bataille acharnée, livrée sur la ligne de front, avec du sang qui coule.

Mais la forme de la guerre a déjà changé. Il y a 8 ans, nous demandions « Pouvons-nous rester ? ». Aujourd’hui, la question est « À quel prix devons-nous rester ? ». Le prix lui-même est le progrès.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler