Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Perusahaan AI Anthropic mencari ahli senjata untuk menghentikan pengguna dari 'penyalahgunaan'
Perusahaan AI Anthropic Cari Ahli Senjata untuk Mencegah Penyalahgunaan
1 hari yang lalu
BagikanSimpan
Zoe KleinmanEditor Teknologi
BagikanSimpan
Perusahaan kecerdasan buatan (AI) asal AS, Anthropic, sedang mencari ahli senjata kimia dan bahan peledak berkekuatan tinggi untuk mencoba mencegah “penyalahgunaan yang katastrofik” dari perangkat lunaknya.
Dengan kata lain, mereka khawatir bahwa alat AI mereka mungkin memberi tahu seseorang cara membuat senjata kimia atau radioaktif, dan mereka menginginkan seorang ahli untuk memastikan pengamanannya cukup kuat.
Dalam posting lowongan di LinkedIn, perusahaan menyatakan bahwa pelamar harus memiliki pengalaman minimal lima tahun dalam “pertahanan senjata kimia dan/atau bahan peledak” serta pengetahuan tentang “alat penyebar radiologis” – juga dikenal sebagai bom kotor.
Perusahaan mengatakan kepada BBC bahwa peran ini serupa dengan pekerjaan di bidang sensitif lain yang sudah mereka buat.
Anthropic bukan satu-satunya perusahaan AI yang mengadopsi strategi ini.
Posisi serupa juga diiklankan oleh pengembang ChatGPT, OpenAI. Di situs kariernya, mereka mencantumkan lowongan untuk peneliti dalam bidang “risiko biologis dan kimia”, dengan gaji hingga $455.000 (£335.000), hampir dua kali lipat dari yang ditawarkan oleh Anthropic.
Namun, beberapa ahli mengkhawatirkan risiko dari pendekatan ini, memperingatkan bahwa hal ini memberi alat AI informasi tentang senjata – bahkan jika mereka telah diprogram untuk tidak menggunakannya.
“Apakah pernah aman menggunakan sistem AI untuk menangani informasi tentang bahan kimia dan bahan peledak sensitif, termasuk bom kotor dan senjata radiologis lainnya?” kata Dr. Stephanie Hare, peneliti teknologi dan co-presenter acara TV AI Decoded BBC.
“Tidak ada perjanjian internasional atau regulasi lain untuk jenis pekerjaan ini dan penggunaan AI dengan jenis senjata ini. Semua ini berlangsung di luar penglihatan.”
Industri AI terus memperingatkan tentang potensi ancaman eksistensial yang ditimbulkan oleh teknologi mereka, tetapi tidak ada upaya untuk memperlambat kemajuannya.
Isu ini menjadi semakin mendesak saat pemerintah AS menyerukan kepada perusahaan AI sambil meluncurkan perang di Iran dan operasi militer di Venezuela.
Iklan lowongan kerja perusahaan AI AS, Anthropic, merekrut ahli senjata kimia dan bahan peledak berkekuatan tinggi untuk bergabung dengan tim kebijakan mereka
Anthropic mengambil tindakan hukum terhadap Departemen Pertahanan AS, yang menandainya sebagai risiko rantai pasokan ketika perusahaan bersikeras bahwa sistem mereka tidak boleh digunakan dalam senjata otonom penuh maupun pengawasan massal terhadap warga AS.
Co-founder Anthropic, Dario Amodei, menulis pada Februari bahwa dia tidak berpikir teknologi ini cukup baik dan seharusnya tidak digunakan untuk tujuan tersebut.
Gedung Putih menyatakan bahwa militer AS tidak akan diatur oleh perusahaan teknologi.
Label risiko ini menempatkan perusahaan AS yang sama dengan Huawei, perusahaan telekomunikasi Tiongkok yang juga masuk daftar hitam karena kekhawatiran keamanan nasional yang berbeda.
OpenAI mengatakan setuju dengan posisi Anthropic, tetapi kemudian menegosiasikan kontrak sendiri dengan pemerintah AS, yang menurut mereka belum dimulai.
Asisten AI Anthropic, bernama Claude, belum dihentikan dan saat ini masih terintegrasi dalam sistem yang disediakan oleh Palantir dan digunakan oleh AS dalam perang Iran-AS-Israel.
Teknologi Besar Dukung Anthropic dalam Perlawanan terhadap Administrasi Trump
Anthropic Gugat Pemerintah AS karena Menganggapnya Risiko
Pemimpin Keamanan AI Katakan ‘Dunia dalam Bahaya’ dan Mengundurkan Diri untuk Belajar Puisi
Daftar untuk newsletter Tech Decoded kami untuk mengikuti cerita dan tren teknologi teratas dunia. Di luar Inggris? Daftar di sini.
Kecerdasan Buatan
Militer