Falha Grave no AutoGPT Permite Execução Remota de Comandos

Uma grave vulnerabilidade de segurança foi descoberta no AutoGPT, uma ferramenta de inteligência artificial (IA) projetada para automatizar tarefas por meio de agentes inteligentes. Com mais de 166 mil estrelas no GitHub, o AutoGPT ganhou popularidade por sua capacidade de simplificar operações complexas. No entanto, a descoberta da CVE-2024-6091, uma falha de injeção de comandos do sistema operacional com uma pontuação CVSS de 9.8, levantou sérias preocupações sobre a segurança de suas funções de execução de comandos shell.

A vulnerabilidade foi descoberta pelo pesquisador de segurança Pinkdraconian e envolvia a possibilidade de contornar a “lista de negação” de comandos do shell do AutoGPT. A lista de negação pretendia impedir a execução de comandos específicos, mas um invasor poderia facilmente contornar essa proteção usando o caminho completo de um comando. Essa falha abriu a possibilidade de exploração, permitindo que atores mal-intencionados executassem ações não autorizadas em sistemas que executam o AutoGPT.

O problema estava na forma como o AutoGPT lidava com a lista de negação. Embora os administradores pudessem especificar comandos proibidos, o framework falhou em considerar variações sutis na execução, como o uso do caminho completo do comando. Pinkdraconian publicou uma prova de conceito (PoC) demonstrando a facilidade com que a lista de negação pode ser burlada. A PoC destaca o perigo dessa vulnerabilidade, especialmente para os usuários que dependem do AutoGPT para automação em ambientes sensíveis, onde o controle da execução de comandos é crucial.

Leia mais na mesma categoria:

NotíciasVulnerabilidades