O avanço da inteligência artificial está redesenhando o cenário da cibersegurança. Um novo relatório do Google Threat Intelligence Group (GTIG) revelou que, pela primeira vez, hackers estão utilizando IA generativa para desenvolver malwares que se adaptam em tempo real, capazes de reescrever o próprio código e escapar de mecanismos tradicionais de defesa digital
Inteligência artificial “autônoma”
Entre os casos identificados, um dos mais emblemáticos é o PROMPTFLUX, um malware que interage diretamente com o modelo Gemini da Google para reescrever suas linhas de código de hora em hora. O objetivo é simples e perigoso, evitar a detecção por antivírus e manter-se ativo no sistema da vítima. O código solicita que a IA atue como um “obfuscador especialista”, recriando versões de si mesmo com pequenas variações, o que o torna extremamente difícil de rastrear
Outro exemplo é o PROMPTSTEAL, um minerador de dados utilizado por grupos ligados à Rússia. Ele consulta modelos hospedados no Hugging Face para gerar comandos de coleta de informações e roubo de documentos. O malware é disfarçado de programa de geração de imagens, mas executa scripts maliciosos em segundo plano. Essa abordagem representa uma evolução, em vez de incluir os comandos fixos no código, os hackers agora pedem que a própria IA os crie sob demanda.
Hackers aprendem a enganar IAs
O relatório também revela que grupos da China, Irã e Coreia do Norte estão explorando brechas nos sistemas de segurança das IAs. Uma das táticas mais curiosas é o uso de pretextos “sociais” para burlar as restrições impostas por modelos como o Gemini.
Cibercriminosos têm se passado por estudantes ou competidores de eventos de Capture the Flag, uma espécie de torneio de hacking ético, para convencer os modelos a fornecerem informações sobre vulnerabilidades de sistemas. Ao acreditar estar ajudando em um contexto inofensivo, a IA acaba entregando dados sensíveis que podem ser usados em ataques reais.
Criptomoedas no alvo
As criptomoedas continuam entre os principais alvos de ataques impulsionados por IA. O grupo norte-coreano UNC1069, por exemplo, usou o Gemini para pesquisar sobre carteiras digitais, elaborar mensagens de phishing e até gerar desculpas em espanhol para enganar suas vítimas. Em outra operação, deepfakes foram usados para se passar por executivos do setor e induzir o download de softwares falsos que roubavam ativos digitais.
Essa prática reforça uma tendência, países sob sanções econômicas ou com histórico de ciberataques estão combinando técnicas tradicionais de espionagem com automação via IA, tornando suas operações mais rápidas e sofisticadas.
O mercado paralelo da IA
Além das ameaças diretas, a Google identificou um mercado alternativo em expansão dedicado à venda de ferramentas de IA voltadas a crimes cibernéticos. Fóruns na Rússia e em países de língua inglesa já anunciam serviços que prometem gerar phishing, malware e até conteúdo falso com a ajuda de modelos generativos. Esses produtos são oferecidos em diferentes faixas de preço, com assinaturas que lembram plataformas legítimas de software.
Segundo o GTIG, essa popularização da IA maliciosa pode reduzir drasticamente a barreira técnica para novos criminosos digitais. Mesmo atores com pouca experiência podem usar essas ferramentas para automatizar ataques complexos, aponta o relatório.
Reação das big techs
Em resposta, a Google e o DeepMind têm reforçado as barreiras de segurança em seus modelos. Entre as medidas estão a desativação de contas associadas a cibercriminosos e o aprimoramento de classificadores para impedir que sistemas como o Gemini respondam a solicitações perigosas. A empresa também desenvolveu estruturas como o Secure AI Framework SAIF, voltadas à criação responsável de modelos de IA e à detecção automática de usos indevidos.
Apesar dos esforços, o relatório conclui que a integração entre IA e crime cibernético é um caminho sem volta. A tecnologia que promete aumentar a produtividade e impulsionar a inovação também está sendo usada como arma digital. O desafio agora é equilibrar o avanço da inteligência artificial com mecanismos eficazes de proteção, antes que a linha entre criação e destruição se torne irreversível.