Microsoft e OpenAI alertam sobre uso de IA em ataques cibernéticos

A Microsoft, em colaboração com a OpenAI, alertou sobre a experimentação de atores patrocinados por estados-nação, associados à Rússia, Coreia do Norte, Irã e China, com inteligência artificial (IA) e modelos de linguagem de grande escala (LLMs) para complementar suas operações de ataque cibernético em andamento. O relatório publicado pelas duas organizações revelou que esforços feitos por cinco atores afiliados a estados que utilizaram seus serviços de IA para realizar atividades cibernéticas maliciosas foram interrompidos ao encerrar seus ativos e contas.

Os LLMs, com seu suporte natural a linguagens, são atraentes para atores de ameaças focados em engenharia social e outras técnicas que dependem de comunicações falsas e enganosas, adaptadas aos empregos dos alvos, redes profissionais e outras relações.

Embora ataques significativos ou novos empregando LLMs ainda não tenham sido detectados, a exploração adversária de tecnologias de IA já ultrapassou várias fases da cadeia de ataque, como reconhecimento, assistência de codificação e desenvolvimento de malware.

Os atores geralmente procuraram usar os serviços da OpenAI para consultar informações de código aberto, traduzir, encontrar erros de codificação e executar tarefas básicas de codificação. Por exemplo, o grupo russo conhecido como APT28 usou suas ofertas para pesquisar protocolos de comunicação via satélite e tecnologia de imagem de radar, além de obter suporte com tarefas de script.

A Microsoft também está formulando um conjunto de princípios para mitigar os riscos apresentados pelo uso malicioso de ferramentas e APIs de IA por ameaças persistentes avançadas (APTs) patrocinadas pelo estado, manipuladores persistentes avançados (APMs) e sindicatos de cibercriminosos, concebendo eficazes guardas e mecanismos de segurança em torno de seus modelos.

Leia mais na mesma categoria:

CibercriminososNotíciasVulnerabilidades