Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
"Injeksi prompt" menjadi bahaya utama bagi browser AI - ForkLog: cryptocurrency, AI, singularitas, masa depan
Perusahaan OpenAI mengungkapkan tentang kerentanan browser AI dan langkah-langkah untuk memperkuat keamanan solusi mereka sendiri — Atlas.
Perusahaan mengakui bahwa serangan jenis “injeksi prompt”, yang memanipulasi agen untuk melaksanakan instruksi berbahaya, merupakan risiko. Dan itu tidak akan hilang dalam waktu dekat.
Dia mencatat bahwa “mode agen” di Atlas “meningkatkan luas ancaman”.
Selain startup Sam Altman, masalah ini juga menarik perhatian para ahli lainnya. Pada awal Desember, Pusat Keamanan Siber Inggris memperingatkan bahwa serangan dengan integrasi prompt berbahaya “tidak akan pernah hilang”. Pemerintah menyarankan para ahli siber untuk tidak mencoba menghentikan masalah ini, tetapi untuk mengurangi risiko dan konsekuensinya.
Langkah-langkah pencegahan
Injeksi prompt adalah cara untuk memanipulasi AI, di mana teks secara khusus ditambahkan ke inputnya yang membuatnya mengabaikan instruksi asli.
OpenAI mengumumkan penerapan siklus respons cepat proaktif, yang menunjukkan hasil menjanjikan dalam mencari strategi serangan baru sebelum muncul “dalam kondisi nyata”.
Anthropic dan Google mengungkapkan pemikiran yang serupa. Para pesaing menawarkan untuk menerapkan perlindungan multilapis dan terus melakukan uji stres.
OpenAI menggunakan “penyerang otomatis berbasis LLM” — bot AI yang dilatih untuk berperan sebagai peretas yang mencari cara untuk menyusup ke agen dengan prompt jahat.
Penipu buatan dapat menguji eksploitasi kerentanan dalam simulator, yang akan menunjukkan tindakan dari jaringan saraf yang diserang. Kemudian bot akan mempelajari reaksi, mengoreksi tindakan, dan melakukan percobaan kedua, kemudian ketiga, dan seterusnya.
Pihak luar tidak memiliki akses ke informasi tentang pemikiran internal AI target. Dalam teori, “peretas virtual” harus menemukan kerentanan lebih cepat daripada penyerang nyata.
Setelah pembaruan keamanan, “mode agen” dapat mendeteksi upaya injeksi prompt secara tiba-tiba dan menandainya untuk pengguna.
OpenAI menekankan bahwa, meskipun sulit untuk melindungi diri dari jenis serangan ini dengan cara yang andal, ia bergantung pada pengujian skala besar dan siklus perbaikan yang cepat.
Rekomendasi untuk pengguna
Peneliti utama keamanan di perusahaan Wiz, Rami McCarthy, menekankan bahwa pembelajaran dengan penguatan adalah salah satu cara utama untuk terus beradaptasi dengan perilaku pelaku jahat, tetapi itu hanya sebagian dari gambaran.
Dua rekomendasi ini diberikan oleh OpenAI kepada pengguna untuk mengurangi risiko. Startup juga menyarankan untuk memberikan instruksi yang spesifik kepada agen, bukan memberikan akses ke email dan meminta “mengambil tindakan yang diperlukan.”
Makarti mencatat bahwa hingga saat ini, browser dengan agen AI bawaan tidak memberikan manfaat yang cukup untuk membenarkan profil risiko.
Perlu diingat, pada bulan November, para ahli Microsoft memperkenalkan lingkungan untuk pengujian agen AI dan mengidentifikasi kerentanan yang melekat pada asisten digital modern.