Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
«Injeção de prompt» tornou-se o principal perigo para os navegadores de IA - ForkLog: criptomoedas, IA, singularidade, futuro
A empresa OpenAI falou sobre a vulnerabilidade dos navegadores de IA e as medidas para fortalecer a segurança da sua própria solução — Atlas.
A empresa reconheceu que ataques do tipo “injeção de prompt”, que manipulam agentes forçando-os a executar instruções maliciosas, são um risco. E não desaparecerá tão cedo.
Ela observou que o “modo agente” no Atlas “aumenta a área de ameaça”.
Além da startup de Sam Altman, outros especialistas também chamaram a atenção para o problema. No início de dezembro, o Centro Nacional de Cibersegurança do Reino Unido alertou que os ataques com integração de prompts maliciosos “nunca vão desaparecer”. O governo aconselhou os ciberespecialistas a não tentarem parar o problema, mas a reduzir o risco e as consequências.
Medidas de combate
Injeção de prompt é uma forma de manipulação de IA, onde se adiciona intencionalmente texto aos dados de entrada que faz com que ignore as instruções originais.
A OpenAI informou sobre a aplicação de um ciclo proativo de resposta rápida, que mostra resultados encorajadores na busca por novas estratégias de ataque antes de sua aparição “em condições reais”.
Anthropic e Google expressam pensamentos semelhantes. Os concorrentes propõem aplicar uma proteção em múltiplos níveis e realizar testes de estresse constantemente.
A OpenAI utiliza um “agressor automatizado baseado em LLM” — um bot de IA treinado para desempenhar o papel de hacker, procurando formas de infiltrar-se em um agente com prompts maliciosos.
Um golpe artificial é capaz de testar a exploração de vulnerabilidades em um simulador, que mostrará as ações da rede neural atacada. Em seguida, o bot estudará a reação, ajustará as ações e fará uma segunda tentativa, depois uma terceira e assim por diante.
Pessoas externas não têm acesso às informações sobre o raciocínio interno da IA alvo. Em teoria, um “hacker virtual” deve encontrar vulnerabilidades mais rapidamente do que um criminoso real.
Após a atualização de segurança, o “modo agente” conseguiu detectar uma tentativa de injeção de prompt repentina e marcá-la para o usuário.
A OpenAI destacou que, embora seja difícil proteger-se de forma confiável contra esse tipo de ataque, ela se baseia em testes em larga escala e ciclos rápidos de correção.
Recomendações para os usuários
O principal investigador de segurança na empresa Wiz, Rami McCarthy, destacou que o aprendizado por reforço é uma das principais formas de se adaptar continuamente ao comportamento dos criminosos, mas isso é apenas uma parte da história.
Estas duas recomendações foram fornecidas pela OpenAI aos utilizadores para reduzir o risco. A startup também sugeriu dar instruções específicas aos agentes, em vez de conceder acesso ao e-mail e pedir que “tomem quaisquer ações necessárias”.
McCarthy destacou que, até hoje, os navegadores com agentes de IA integrados não estão proporcionando benefícios suficientes para justificar o perfil de risco.
Recorde-se que, em novembro, especialistas da Microsoft apresentaram um ambiente para testar agentes de IA e identificaram vulnerabilidades inerentes aos assistentes digitais modernos.