Pesquisadores de cibersegurança descobriram que é possível usar modelos de linguagem LLMs para gerar variantes de código JavaScript malicioso em escala, dificultando a detecção por sistemas tradicionais. Embora LLMs não sejam projetados para criar malwares do zero, criminosos podem utilizá-los para reescrever ou ofuscar códigos existentes, tornando-os mais naturais e menos suspeitos para ferramentas de análise.
Segundo uma análise da Palo Alto Networks Unit 42, transformações como renomeação de variáveis, inserção de código inútil, remoção de espaços desnecessários e reimplementação completa do código são métodos eficazes para reescrever amostras de malware sem alterar sua funcionalidade. Essa abordagem pode gerar até 10.000 variantes de malware, reduzindo sua pontuação de “malicioso” para “benigno” em 88% dos casos, com eficácia suficiente para enganar sistemas como o VirusTotal. Ferramentas como WormGPT, que exploram os mesmos princípios, têm sido promovidas em fóruns de cibercriminosos, permitindo a automação de campanhas de phishing e criação de malwares.
Embora LLMs modernos implementem barreiras de segurança para evitar esses usos indevidos, o problema persiste devido à criatividade dos atacantes. Esses avanços destacam a necessidade de inovação contínua em segurança cibernética, especialmente no contexto de IA generativa e sistemas baseados em aprendizado de máquina. Ao mesmo tempo que essas ferramentas oferecem potencial para melhorar a detecção de ameaças, elas também podem ser exploradas para sofisticar ataques.