Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 30+ model AI, dengan 0% biaya tambahan
DeepSeek V4 diterapkan: Zhipu dan MiniMax jatuh tajam, Nvidia menjadi panik
DeepSeek V4 akhirnya diluncurkan. Ini adalah momen yang telah dinanti hampir lima bulan. Model utama MoE dengan 1T parameter + versi Flash dengan 285B parameter, lengkap dengan versi Pro 1.6T yang lengkap, segera menyusul, seluruhnya open source di GitHub, dengan lisensi Apache 2.0, bobot dan kode deployment dirilis secara bersamaan.
Begitu model ini keluar, pasar modal memberikan jawaban mereka dalam tiga cara yang saling independen namun saling terkait.
Respon pasar modal yang berbeda
Kinerja komputasi A-shares hampir seluruhnya melonjak. Cambricon mencatat 11 hari berturut-turut positif, kenaikan harian 3.7%, kenaikan kumulatif bulan ini lebih dari 60%. Hygon Information mencapai batas kenaikan 10% selama perdagangan, penutupan +8.4%. SMIC A-shares +4.91%, Hong Kong stocks +8.81%. Huahong di Hong Kong mencapai puncak +18%, penutupan +12%. ETF chip inovatif Guotai menarik dana 2,4 miliar yuan dalam satu hari, mencapai rekor tertinggi sejarah.
Di sisi perusahaan model besar di Hong Kong, warnanya berbeda. Zhipu (02513.HK) turun 8.07%, rasio short selling 9.9%. MiniMax (00100.HK) turun 7.40%, rasio short selling melonjak ke 22.87%. Ini adalah data short selling harian tertinggi dalam tiga bulan terakhir untuk sektor AI di Hong Kong. Kedua perusahaan ini mewakili gelombang IPO AI di Hong Kong pada paruh kedua 2025, dengan kekuatan kompetitif utama dalam dokumen IPO mereka adalah “Model besar berbasis riset mandiri”.
Respon di ujung lain Pasifik juga sangat spesifik. Semalam, Nvidia membuka pasar dengan penurunan 1.8%, sempat turun hingga -2.6% selama sesi, tetapi akhirnya ditutup datar. Ulasan pasar dari Bloomberg membandingkan konsolidasi ini dengan “DeepSeek moment” pada 27 Januari lalu. Perbedaannya adalah, saat itu adalah penjualan panik yang menghapus nilai pasar sebesar 600 miliar dolar AS dalam satu hari. Kali ini lebih seperti penyesuaian harga ulang, skala moderat tetapi arah jelas. Dalam catatan riset institusi pembeli, muncul ungkapan baru, “Permintaan inferensi AI di China mulai terlepas dari permintaan inferensi AI di Amerika Utara.”
Menggabungkan ketiga indikator ini, adalah keputusan pasar pertama yang tercatat dalam 24 jam setelah peluncuran V4. Setelah open source menang, uang mulai memilih sisi lagi, yang bisa menentukan harga bukan lagi model itu sendiri, tetapi model dijalankan di kartu mana, dan dipasang di rantai industri mana.
30 hari, 11 model baru, V4 menambah semangat bagi kubu open source
Waktu peluncuran V4 sendiri menjadi salah satu alasan utama mengapa reaksi ini diperbesar.
Mari kita lihat 30 hari terakhir. Antara 26 Maret dan 24 April, setidaknya ada 11 model besar yang dirilis atau mengalami pembaruan besar, yang mencakup hampir semua pemain utama. Anthropic Opus 4.6, Google Gemini 3.1 Pro, OpenAI GPT-5.5, Mistral Large 3, Meta Llama 4, Kimi K2.6 dari Bulan Gelap, Alibaba Qwen3-Next, ByteDance Doubao 2.5 Pro, Tencent Hunyuan 3.0, Kimi K2.6 Plus, dan terakhir DeepSeek V4 yang dirilis dini hari 23 April.
Rata-rata, setiap 2.7 hari muncul model baru. Ini kecepatan yang bahkan manajer dana pun tidak sempat membaca seluruh rilisnya. Tapi jika melihat grafik K AI di pasar Hong Kong dan China selama 30 hari ini, hanya satu nama yang meninggalkan jejak berkelanjutan di pasar. GPT-5.5 pada 8 April mendorong Nvidia naik 4.2% dalam satu hari, mencapai puncaknya. Kemudian, pada 23-24 April, DeepSeek V4 mendorong lonjakan berkelanjutan di rantai komputasi di China dan Hong Kong.
Perbedaannya bukan pada kemampuan model itu sendiri. Perbedaan di antara 11 model ini di peringkat LMArena biasanya tidak lebih dari 50 poin, berada dalam rentang “satu tingkat” yang sempit. Perbedaan terletak pada dua hal yang bertumpuk.
Pertama adalah open source. Dari 10 model teratas, hanya Llama 4 yang open source, tetapi lisensi bobot Llama 4 menyertakan serangkaian batasan komersial, komunitas pengembang di Eropa dan Amerika Utara menilai dingin, dan setelah tiga hari peluncuran di OpenRouter, model ini keluar dari sepuluh besar. Lisensi V4 adalah Apache 2.0, bobot tanpa batasan, komersial tanpa batas, dan kode inferensi dirilis secara bersamaan. Ini adalah model open source flagship pertama dalam enam bulan terakhir yang secara bersamaan menekan performa, harga, dan tingkat keterbukaan dari kubu tertutup.
Kedua adalah soal waktu. Dalam konteks kubu tertutup yang terus memperbesar langkah, narasi open source sedang terus ditekan. Opus 4.6 meningkatkan skor SWE-Bench untuk tugas kode ke level tertinggi baru, GPT-5.5 menetapkan harga per juta token di angka 1.25 dolar AS sebagai anchor yang lebih rendah. Apakah open source bisa mengejar tertinggal dari tertutup, perdebatan ini sudah berlangsung dua tahun di Silicon Valley. V4, dengan estimasi pengguna aktif bulanan mencapai 90 juta, menempatkan flagship open source ini dalam posisi menekan perdebatan tersebut.
Menurut seorang manajer dana besar domestik dalam roadshow, “Sebelum V4, kami memberi diskon pada valuasi model besar open source, setelah V4 diskon itu mulai berbalik arah.”
DeepSeek mengubah tabel harga rantai pasok komputasi
Dalam rilis V4, ada satu kalimat yang sebelumnya tidak pernah muncul di dokumen resmi model besar China mana pun: “Day 0, adaptasi lengkap ke Cambricon Si Yuan 590 dan Huawei Ascend 950PR, kode deployment dirilis secara bersamaan.” Kalimat ini harus dilihat dalam konteks menghubungkan tiga jalur paralel selama 12 bulan terakhir. Tiga jalur ini masing-masing terkait perangkat keras, perangkat lunak, dan reaksi Silicon Valley.
Jalur pertama di sisi chip. Huawei Ascend 950PR akan resmi mass production pada Desember 2025, dengan kapasitas FP4 1.56 PFLOPS, HBM 112GB, menjadi chip AI domestik pertama yang secara indikator keras menyaingi seri B Nvidia. Dalam tugas inferensi MoE dengan 1T parameter seperti V4, throughput per kartu meningkat 2.87 kali dibanding H20. Software stack CANN 8.0 yang mendukungnya mengoptimalkan kerangka inferensi LLM ke tingkat operator, dan benchmark yang dirilis DeepSeek menunjukkan bahwa inferensi end-to-end di Ascend Super Node (8 kartu 950PR) memiliki latensi 35% lebih rendah dibanding klaster H100 dengan skala yang sama. Data dari Cambricon Si Yuan 590 lebih agresif lagi, dengan kapasitas FP8 per chip yang setara H100, harganya kurang dari setengah.
Jalur kedua di sisi perangkat lunak. vLLM utama menggabungkan PR backend MLU dari Cambricon pada 22 April, mendukung native inference framework untuk GPU domestik non-Nvidia. DCU dari Hygon Information berjalan di ekosistem ROCm, tetapi mampu menjalankan routing layer MoE V4 secara lengkap. Ini berarti deployment V4 tidak lagi terbatas “hanya bisa dijalankan di satu vendor domestik”, melainkan “bisa dipilih di beberapa vendor domestik”. Ketergantungan pada satu vendor dalam ekosistem ini dihilangkan, yang merupakan titik balik penting untuk produksi.
Jalur ketiga dari Silicon Valley. Pada 15 April, Jensen Huang ditanya oleh analis di konferensi TSMC tentang kemajuan komputasi domestik China, dan jawabannya tegas dan spesifik, “Jika mereka benar-benar bisa membuat LLM lepas dari CUDA, itu akan menjadi bencana bagi kami.” Sepuluh hari kemudian, DeepSeek memberikan jawaban melalui pengumuman Day 0.
“Penggantian domestik” selama tiga tahun terakhir telah kehilangan maknanya karena terlalu sering diucapkan. Tapi setelah pagi 24 April, data konkret yang bisa dinilai pasar modal mulai muncul. Throughput per kartu, latensi inferensi end-to-end, biaya inferensi, kode deployment yang bisa dipakai secara komersial, secara diam-diam membawa pertempuran narasi panjang ini ke ambang produksi.
Kenaikan harga saham Cambricon selama 11 hari berturut-turut terletak di sini. Mereka tidak lagi sekadar “perusahaan konsep GPU domestik”, melainkan “penyedia infrastruktur inferensi DeepSeek V4”. Logika yang sama juga bisa menjelaskan kenaikan 12% di saham Huahong Hong Kong, yang memproses chip 950PR dengan proses 7nm setara. Setiap token V4 yang berjalan di atas Ascend domestik berarti sebagian kapasitas produksi yang seharusnya mengalir ke Nvidia dan TSMC, tertahan di Delta Sungai Pearl.
Dan langkah berikutnya sudah dipersiapkan. Peta jalan Huawei merencanakan pengiriman 950DT (versi pelatihan) pada kuartal keempat 2026, dengan target “pelatihan seluruh rangkaian model setara V5 atau yang sepadan di klaster 10.000 kartu”. Jika jalur ini berhasil, keunggulan CUDA dalam pelatihan model besar di China akan berkurang dari “penting” menjadi “pilihan”.