GitLab Corrige Vulnerabilidade que Permitiria Injeção Oculta de Comandos na IA

Pesquisadores de cibersegurança identificaram uma grave falha de injeção indireta de prompts na assistente de inteligência artificial GitLab Duo, que poderia permitir o roubo de código-fonte e a inserção de HTML malicioso nas respostas da IA, redirecionando vítimas para sites perigosos.

Lançada em junho de 2023 e baseada nos modelos Claude da Anthropic, a GitLab Duo auxilia no desenvolvimento e revisão de código. No entanto, a Legit Security descobriu que era possível esconder instruções maliciosas em comentários, descrições de issues, commits e até no próprio código-fonte. Essas instruções ocultas, se interpretadas pela IA, poderiam exfiltrar informações sensíveis, incluir pacotes maliciosos ou disfarçar URLs perigosas como confiáveis.

Ataques foram facilitados por técnicas como codificação Base16, smuggling Unicode e textos brancos com KaTeX. A IA, ao analisar todo o contexto de uma página, acabava processando essas instruções como legítimas. Isso também poderia levar a execução de HTML nos navegadores dos usuários por meio de renderização de markdown em tempo real. A vulnerabilidade foi reportada em 12 de fevereiro de 2025 e já foi corrigida pelo GitLab. Para especialistas, a falha evidencia os riscos da integração profunda de assistentes de IA nos fluxos de trabalho de desenvolvimento, uma vez que essas ferramentas herdam não só o contexto, mas também as vulnerabilidades embutidas.

Leia mais na mesma categoria:

CibercriminososNotíciasPatches e CorreçõesVulnerabilidades