As habilidades de hacking da IA ​​​​estão se aproximando de um ‘ponto de inflexão’


Vlad Ionescu e Ariel Herbert-Voss, cofundadores da segurança cibernética comece ExecutarSybilficaram momentaneamente confusos quando IA ferramenta, Sybil, alertou-os sobre uma fraqueza nos sistemas de um cliente em novembro passado.

Sybil usa uma mistura de diferentes IA modelos— bem como alguns truques técnicos proprietários — para verificar sistemas de computador em busca de problemas que hackers possam explorar, como um servidor sem patch ou um banco de dados mal configurado.

Neste caso, Sybil sinalizou um problema com a implantação do GraphQL federado pelo cliente, uma linguagem usada para especificar como os dados são acessados ​​pela web por meio de interfaces de programação de aplicativos (APIs). O problema significava que o cliente estava expondo inadvertidamente informações confidenciais.

O que intrigou Ionescu e Herbert-Voss foi que identificar o problema exigia um conhecimento extremamente profundo de vários sistemas diferentes e de como esses sistemas interagem. Desde então, a RunSybil diz que encontrou o mesmo problema em outras implantações do GraphQL — antes que alguém o tornasse público. “Nós vasculhamos a Internet e ele não existia”, diz Herbert-Voss. “Descobri-lo foi um passo de raciocínio em termos das capacidades dos modelos – uma mudança radical.”

A situação aponta para um risco crescente. À medida que os modelos de IA continuam a ficar mais inteligentes, a sua capacidade de encontrar bugs de dia zero e outras vulnerabilidades também continua a crescer. A mesma inteligência que pode ser usada para detectar vulnerabilidades também pode ser usada para explorá-las.

Canção do amanhecercientista da computação da UC Berkeley especializado em IA e segurança, diz que avanços recentes em IA produziram modelos que são melhores para encontrar falhas. O raciocínio simulado, que envolve a divisão dos problemas em partes constituintes, e a IA agente, como pesquisar na web ou instalar e executar ferramentas de software, ampliaram as capacidades cibernéticas dos modelos.

“As capacidades de segurança cibernética dos modelos de fronteira aumentaram drasticamente nos últimos meses”, diz ela. “Este é um ponto de inflexão.”

No ano passado, Song co-criou um benchmark chamado CyberGym para determinar quão bem os modelos de linguagem grandes encontram vulnerabilidades em grandes projetos de software de código aberto. CyberGym inclui 1.507 vulnerabilidades conhecidas encontradas em 188 projetos.

Em julho de 2025, Claude Sonnet 4 da Anthropic conseguiu encontrar cerca de 20% das vulnerabilidades no benchmark. Em outubro de 2025, um novo modelo, Claude Sonnet 4.5, conseguiu identificar 30 por cento. “Os agentes de IA são capazes de encontrar o dia zero e com um custo muito baixo”, diz Song.

Song diz que esta tendência mostra a necessidade de novas contramedidas, incluindo a ajuda da IA ​​aos especialistas em segurança cibernética. “Precisamos pensar em como realmente fazer com que a IA ajude mais no lado da defesa, e podemos explorar diferentes abordagens”, diz ela.

Uma ideia é que as empresas de IA de ponta compartilhem modelos com pesquisadores de segurança antes do lançamento, para que possam usar os modelos para encontrar bugs e proteger sistemas antes de um lançamento geral.

Outra contramedida, diz Song, é repensar como o software é construído. Seu laboratório mostrou que é possível usar IA para gerar código mais seguro do que o que a maioria dos programadores usa hoje. “No longo prazo, acreditamos que essa abordagem segura desde o projeto realmente ajudará os defensores”, diz Song.

A equipe RunSybil afirma que, no curto prazo, as habilidades de codificação dos modelos de IA podem significar que os hackers ganharão vantagem. “A IA pode gerar ações em um computador e gerar código, e essas são duas coisas que os hackers fazem”, diz Herbert-Voss. “Se essas capacidades forem aceleradas, isso significa que as ações ofensivas de segurança também serão aceleradas.”


Esta é uma edição de Will Knight’s Boletim informativo do Laboratório de IA. Leia boletins informativos anteriores aqui.



Source link