Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Empresa de IA Anthropic procura especialista em armas para impedir "mau uso" pelos utilizadores
Empresa de IA Anthropic procura especialista em armas para evitar ‘uso indevido’
há 1 dia
CompartilharSalvar
Zoe KleinmanEditora de Tecnologia
CompartilharSalvar
A empresa americana de inteligência artificial (IA) Anthropic procura contratar um especialista em armas químicas e explosivos de alta potência para tentar prevenir o “uso catastrófico indevido” do seu software.
Em outras palavras, teme que as suas ferramentas de IA possam fornecer informações sobre como fabricar armas químicas ou radioativas, e quer um especialista para garantir que as suas barreiras de proteção sejam suficientemente robustas.
Na publicação de recrutamento no LinkedIn, a empresa afirma que os candidatos devem ter no mínimo cinco anos de experiência em “defesa contra armas químicas e/ou explosivos”, bem como conhecimento de “dispositivos de dispersão radiológica” – também conhecidos como bombas sujas.
A empresa disse à BBC que o papel é semelhante a outros cargos sensíveis que já criou.
Anthropic não é a única empresa de IA a adotar essa estratégia.
Uma vaga semelhante foi anunciada pelo desenvolvedor do ChatGPT, OpenAI. No seu site de carreiras, há uma vaga para pesquisador em “riscos biológicos e químicos”, com um salário de até 455.000 dólares (£335.000), quase o dobro do oferecido pela Anthropic.
Porém, alguns especialistas estão preocupados com os riscos dessa abordagem, alertando que ela fornece às ferramentas de IA informações sobre armas – mesmo que tenham sido instruídas a não usá-las.
“É seguro alguma vez usar sistemas de IA para lidar com informações sensíveis sobre químicos e explosivos, incluindo bombas sujas e outras armas radiológicas?” questionou a Dra. Stephanie Hare, pesquisadora de tecnologia e co-apresentadora do programa de TV AI Decoded da BBC.
“Não existe nenhum tratado internacional ou outra regulamentação para esse tipo de trabalho e o uso de IA com essas armas. Tudo isso acontece às escondidas.”
A indústria de IA tem continuamente alertado sobre as potenciais ameaças existenciais que sua tecnologia pode representar, mas não houve tentativa de desacelerar seu progresso.
A questão ganhou urgência à medida que o governo dos EUA convoca empresas de IA enquanto lança guerra no Irã e operações militares na Venezuela.
O anúncio de emprego da empresa americana de IA Anthropic está recrutando um especialista em armas químicas e explosivos de alta potência para integrar sua equipe de políticas
Anthropic está tomando ações legais contra o Departamento de Defesa dos EUA, que a classificou como risco na cadeia de suprimentos, após a empresa insistir que seus sistemas não devem ser usados em armas totalmente autônomas ou na vigilância em massa de americanos.
O cofundador da Anthropic, Dario Amodei, escreveu em fevereiro que achava que a tecnologia ainda não era suficientemente avançada e que não deveria ser usada para esses fins.
A Casa Branca afirmou que o força militar dos EUA não será governada por empresas de tecnologia.
O rótulo de risco coloca a empresa americana na mesma situação da chinesa Huawei, que também foi colocada na lista negra por preocupações de segurança nacional diferentes.
A OpenAI afirmou concordar com a posição da Anthropic, mas negociou seu próprio contrato com o governo dos EUA, que, segundo dizem, ainda não começou.
O assistente de IA da Anthropic, chamado Claude, ainda não foi descontinuado e continua integrado em sistemas fornecidos pela Palantir e sendo utilizado pelos EUA na guerra entre EUA, Israel e Irã.
Grandes empresas de tecnologia apoiam a Anthropic na luta contra a administração Trump
Anthropic processa o governo dos EUA por considerá-la um risco
Líder em segurança de IA diz que ‘o mundo está em perigo’ e sai para estudar poesia
Inscreva-se na nossa newsletter Tech Decoded para acompanhar as principais notícias e tendências tecnológicas do mundo. Fora do Reino Unido? Inscreva-se aqui.
Inteligência artificial
Militar