Novo ataque de IA explora credenciais roubadas em serviços de LLM na nuvem

Pesquisadores de cibersegurança identificaram um novo ataque que utilizou credenciais de nuvem roubadas para mirar dez serviços de modelos de linguagem de grande escala (LLM) hospedados na nuvem, conhecido como LLMjacking.

As credenciais foram obtidas de um alvo popular, um sistema que executava uma versão vulnerável do Laravel (CVE-2021-3129). Embora os ataques contra sistemas de IA baseados em LLM tenham sido frequentemente discutidos, neste caso os atacantes planejavam vender acesso aos LLMs para outros cibercriminosos, enquanto o proprietário da conta na nuvem arca com as despesas.

Após obterem acesso inicial, os invasores exfiltraram as credenciais de nuvem e ganharam acesso ao ambiente na nuvem, onde tentaram acessar modelos LLM locais hospedados por provedores de nuvem. Se não descoberto, esse tipo de ataque poderia resultar em mais de $46.000 em custos de consumo de LLM por dia para a vítima. Além disso, outra possível motivação seria a extração de dados de treinamento de LLM.

A equipe foi capaz de descobrir as ferramentas que estavam gerando as solicitações usadas para invocar os modelos durante o ataque, revelando um script mais amplo que verificava as credenciais para dez serviços de IA diferentes para determinar quais eram úteis para seus propósitos. Todos os principais provedores de nuvem, incluindo Azure Machine Learning, GCP’s Vertex AI e AWS Bedrock, agora hospedam serviços de modelos de linguagem de grande escala (LLM).

Embora esses modelos não sejam ativados por padrão, a solicitação precisa ser enviada ao fornecedor de nuvem para ativá-los. O ataque explorou API requests legítimas dentro do ambiente de nuvem, testando os limites de acesso sem acionar alarmes imediatamente. O dano causado por um ataque de LLMjacking se reflete em custos aumentados para a vítima.

Leia mais na mesma categoria:

CibercriminososNotíciasVazamentos