Novas estratégias de Malware utilizam IA para evasão avançada

A inteligência artificial (IA) e os modelos de linguagem de grande porte (LLMs) estão se tornando ferramentas poderosas não apenas para inovação e desenvolvimento, mas também para fins maliciosos, incluindo a criação de malware auto-augmentável capaz de burlar regras YARA.

Os pesquisadores destacaram que a IA generativa pode ser usada para evadir regras YARA baseadas em strings, modificando o código-fonte de variantes de malware menores, efetivamente reduzindo as taxas de detecção. Os achados fazem parte de um exercício de red teaming projetado para descobrir casos de uso maliciosos para tecnologias de IA, que já estão sendo experimentadas por atores de ameaças para criar trechos de código de malware, gerar e-mails de phishing e conduzir reconhecimento em alvos potenciais.

Além de modificar malware para passar despercebido, as ferramentas de IA podem ser usadas para criar deepfakes que personificam executivos seniores e líderes e conduzir operações de influência que imitam sites legítimos em larga escala. A IA generativa também deve acelerar a capacidade dos atores de ameaças de realizar reconhecimento de instalações de infraestrutura crítica e obter informações que podem ser de uso estratégico em ataques subsequentes.

A Microsoft e a OpenAI alertaram no mês passado que o APT28 usou LLMs para “entender protocolos de comunicação via satélite, tecnologias de imagem por radar e parâmetros técnicos específicos, indicando esforços para adquirir conhecimento aprofundado sobre capacidades de satélite.

Leia mais na mesma categoria:

CibercriminososNotíciasVulnerabilidades