Il s'est passé quelque chose d'étrange ces dernières semaines. J'ai commencé à remarquer une transformation radicale dans la carte mondiale de l'intelligence artificielle, et pas seulement au niveau des modèles, mais à l'échelle de toute l'infrastructure.



Il y a huit ans, l'histoire de ZTE était une leçon dure. Une grande entreprise a cessé ses activités du jour au lendemain à cause d'une interdiction américaine sur les puces. Mais cette fois, l'image est complètement différente. Lorsque les États-Unis ont commencé à renforcer les restrictions sur les exportations de NVIDIA vers la Chine, tout le monde pensait que le rêve de l'IA chinoise allait s'arrêter là.

Ils se sont trompés.

Le vrai problème n'était pas les puces elles-mêmes, mais CUDA — cette plateforme logicielle de NVIDIA qui est devenue la colonne vertébrale de toute l'industrie de l'intelligence artificielle. Aujourd'hui, plus de 90 % des développeurs mondiaux d'IA sont liés à cet environnement. C'est une roue durable — plus on l'utilise, plus elle devient puissante.

Mais au lieu d'essayer de casser cette roue directement, les entreprises chinoises ont choisi une voie différente. Elles ont commencé par les algorithmes.

DeepSeek est un modèle doté de 671 milliards de transactions, mais il n'active que 37 milliards d'entre elles en fonctionnement. Le coût total de l'entraînement : seulement 5,576 millions de dollars. Comparez cela à GPT-4, qui a coûté 78 millions de dollars. La différence ne réside pas dans la limite, mais dans un niveau complètement différent.

Et les prix ? DeepSeek facture entre 0,028 et 0,28 dollar par million de caractères. GPT-4 coûte 5 dollars. Claude Opus atteint 15 dollars. Simplement, DeepSeek est 25 à 75 fois moins cher. Cette différence a provoqué un séisme sur le marché des développeurs.

En février 2026, l'utilisation des modèles chinois sur OpenRouter a augmenté de 127 % en seulement trois semaines. Il y a un an, la part des modèles chinois ne dépassait pas 2 %. Maintenant, elle approche les 60 %.

Mais voici la partie la plus importante : réduire uniquement les coûts d'inférence ne résout pas le problème. La formation est le véritable trou noir de la puissance de calcul.

À Changzhou, dans le sud-est de la Chine, une ligne de production locale complète a été construite en seulement 180 jours. Le composant principal ? un processeur Loongson 3C6000 et une carte T100 de Taichu Yuanqi — des puces 100 % chinoises. La productivité : un serveur toutes les cinq minutes.

Et là, l'histoire a commencé à changer. En janvier 2026, Zhipu, en collaboration avec Huawei, a lancé le modèle GLM-Image — le premier modèle avancé de génération d'images entièrement entraîné sur des puces chinoises locales. Un mois plus tard, le modèle « Étoile » massif pour la communication a été entraîné sur un bassin de calcul chinois local comprenant des dizaines de milliers d'unités de traitement.

Cela signifie une chose : les puces locales ont dépassé la phase d'inférence pour entrer dans la phase de formation. Un véritable changement de paradigme.

La force motrice derrière tout cela est Huawei Ascend. D'ici la fin 2025, plus de 4 millions de développeurs utiliseront l'environnement Ascend. Plus de 3 000 entreprises travaillent avec elle. 43 modèles principaux ont été entraînés sur la base d'Ascend. Et en mars 2026, Huawei a lancé une nouvelle architecture de calcul appelée SuperPoD.

Télécharger le paquet de mises à jour Huawei signifie que les processeurs Ascend 910B ont atteint le niveau du NVIDIA A100 en termes de puissance de traitement. L'écart n'a pas disparu, mais il est passé d'inutilisable à utilisable efficacement.

Et voici la partie la plus intéressante : l'énergie.

Les États-Unis font face à une crise électrique réelle. Les centres de données américains ont consommé 183 térawattheures en 2024, soit environ 4 % de l'électricité totale. On prévoit que cela doublera d'ici 2030. Le PDG d'Arm prévoit que les centres de données d'IA consommeront 20 à 25 % de l'électricité des États-Unis d'ici 2030.

La Chine produit 10,4 térawattheures par an. Les États-Unis en produisent 4,2. La Chine produit 2,5 fois plus que l'Amérique. Le plus important : seulement 15 % de la consommation électrique chinoise est destinée aux ménages, contre 36 % aux États-Unis. Cela signifie une énorme capacité énergétique industrielle pouvant être dirigée vers le calcul.

Le coût de l'électricité dans les zones où se concentrent les entreprises d'IA américaines varie entre 0,12 et 0,15 dollar par kilowattheure. En Chine occidentale, les prix industriels tournent autour de 0,03 dollar. Quatre à cinq fois moins cher que l'Amérique.

Le téléchargement des mises à jour Huawei et la nouvelle infrastructure chinoise signifient que l'IA chinoise ne sort pas à l'étranger avec des produits ou des usines, mais avec des tokens — de petites unités de traitement de données, produites dans des usines de calcul chinoises, puis transférées via des câbles sous-marins dans le monde entier.

DeepSeek seule compte 26 000 entreprises mondiales comme clients, et 3 200 institutions ont utilisé la version d'entreprise. En Chine, elle détient 89 % du marché. Dans les pays sous sanctions, entre 40 et 60 %. En 2025, 58 % des startups en IA ont intégré DeepSeek dans leur infrastructure technologique.

Cela me rappelle une autre guerre pour l'indépendance industrielle. En 1986, le Japon a signé un accord sur les semi-conducteurs avec les États-Unis. Le Japon contrôlait 51 % du marché mondial en 1988. Aujourd'hui, sa part est inférieure à 7 %.

Pourquoi ? Parce que le Japon a accepté d'être le meilleur producteur dans un système mondial dominé par une seule puissance, mais il n'a pas construit un système environnemental indépendant.

Cette fois, la Chine choisit une voie complètement différente. Des améliorations algorithmiques, une avancée dans les puces locales passant de l'inférence à la formation, 4 millions de développeurs dans le système Ascend, une diffusion mondiale des tokens.

Chaque étape construit un système industriel indépendant.

Le 27 février 2026, trois entreprises chinoises de puces ont publié leurs rapports de performance le même jour. Les revenus ont explosé : 453 %, 243 %, 121 %. Mais les pertes aussi sont importantes. La moitié des résultats est du feu, l'autre de l'eau.

Le feu : le marché a un besoin urgent d'une alternative à NVIDIA. Le vide de 95 % est en train d'être comblé progressivement.

L'eau : chaque perte est un investissement réel dans la construction d'un écosystème indépendant. Recherche et développement, soutien logiciel, ingénieurs sur le terrain résolvent les problèmes de traduction, un par un.

Ces pertes ne sont pas une mauvaise gestion. Ce sont une taxe de guerre à payer.

Il y a huit ans, nous demandions : pouvons-nous survivre ?

Aujourd'hui, la question est différente : combien devons-nous payer pour survivre ?

Le même prix est le progrès.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler