Menu
in

Desvendando a Inteligência Artificial: O Novo Desafio nas Ameaças às Criptomoedas

Recentemente, um relatório da Anthropic trouxe à tona uma preocupação crescente no mundo das criptomoedas: a capacidade de agentes de inteligência artificial (IA) de realizar ataques de forma autônoma. De acordo com o estudo, mais da metade dos ataques a contratos inteligentes em 2025 poderia ser conduzida por esses agentes, que demonstraram uma taxa de sucesso alarmante.

Entre os anos de 2025 e 2025, a pesquisa analisou 405 contratos que foram alvo de hackers. Os resultados foram surpreendentes, com os agentes de IA conseguindo replicar 51,1% dos ataques, o que potencialmente poderia ter gerado um prejuízo de aproximadamente US$ 550,1 milhões.

Capacidades dos agentes de IA

A análise da Anthropic não se limitou apenas a observar ataques já realizados. O estudo também destacou que os agentes de IA foram capazes de identificar duas vulnerabilidades inexploradas, demonstrando que essas máquinas não estão apenas replicando técnicas existentes, mas também inovando na descoberta de falhas.

Benchmarking com SCONE-bench

Para medir a eficácia desses agentes, a Anthropic apresentou o SCONE-bench, um benchmark que avalia a habilidade de agentes em explorar contratos inteligentes. A metodologia envolve instruir o agente a identificar e explorar vulnerabilidades específicas, com o objetivo de maximizar a quantidade de fundos simulados que podem ser roubados.

Os modelos utilizados incluem nomes como OpenAI GPT-5, Claude Opus 4.5 e outros, que mostraram resultados significativos ao explorar 34 problemas, com o modelo Opus 4.5 liderando ao explorar 50% deles. Esse desempenho é particularmente preocupante, considerando que os testes foram realizados em um ambiente controlado, sem impacto real nas economias.

Impacto no mercado de criptomoedas

A crescente sofisticação dos ataques realizados por agentes de IA levanta questões sobre a segurança das criptomoedas. A necessidade de uma abordagem defensiva mais robusta é evidente, especialmente quando se considera que o relatório sugere que, em 2025, a maioria dos ataques poderia ser feita de forma autônoma. Isso implica que, embora os hackers humanos ainda estejam no jogo, a IA está se tornando uma ferramenta poderosa em suas mãos.

Desafios e oportunidades

Enquanto a tecnologia de IA avança, empresas como a Coinbase estão adotando essas ferramentas para melhorar seus processos internos. O CEO Brian Armstrong revelou que 40% do código da empresa é gerado por IA, refletindo a utilidade dessa tecnologia para desenvolvedores. Contudo, essa mesma tecnologia pode ser utilizada por indivíduos com intenções maliciosas.

A Anthropic também notou que os custos para realizar esses ataques com IA são relativamente baixos. Por exemplo, a empresa gastou apenas US$ 3.476 para executar o GPT-5 contra 2.849 contratos, resultando em um lucro médio de US$ 109 por operação. Isso indica que o retorno sobre o investimento para hackers pode ser considerável, tornando a situação ainda mais alarmante.

O estudo conclui que, além de explorar vulnerabilidades conhecidas, os agentes de IA podem encontrar falhas não documentadas. Um exemplo recente evidenciou que uma vulnerabilidade foi explorada por um hacker real apenas quatro dias após a identificação pelo agente da Anthropic.

Defesa e adaptação

Diante desse cenário, a necessidade de uma defesa proativa contra esses novos tipos de ataques é crucial. A Anthropic recomenda que as empresas adotem a IA não apenas para desenvolvimento, mas também para segurança, uma vez que a mesma tecnologia que pode ser usada para atacar pode, em paralelo, ser utilizada para proteger ativos digitais.

Entre os anos de 2025 e 2025, a pesquisa analisou 405 contratos que foram alvo de hackers. Os resultados foram surpreendentes, com os agentes de IA conseguindo replicar 51,1% dos ataques, o que potencialmente poderia ter gerado um prejuízo de aproximadamente US$ 550,1 milhões.0