Falha em Framework da Meta Expõe IA a Riscos de Execução Remota de Código

Uma grave vulnerabilidade foi descoberta no framework de modelos de linguagem grande (LLM) da Meta, conhecido como Llama, que pode permitir que atacantes executem código arbitrário em servidores de inferência do Llama Stack. De acordo com o pesquisador Avi Lumelsky, o problema reside na desserialização de dados não confiáveis na API de inferência em Python usada pelo Llama Stack. Esse componente do framework oferece interfaces de API para desenvolvimento de aplicações de inteligência artificial, incluindo modelos próprios da Meta, e utiliza o módulo Python pickle para desserializar objetos.

No entanto, esse formato é conhecido por permitir a execução de código arbitrário quando dados maliciosos são processados. A Meta foi informada da vulnerabilidade em 24 de setembro de 2024, e o problema foi corrigido na versão 0.0.41 do framework, lançada em 10 de outubro. Para mitigar o risco, a empresa substituiu o uso do formato pickle pelo mais seguro formato JSON para comunicação via socket. O problema também foi resolvido na biblioteca pyzmq, que fornece acesso à biblioteca de mensagens ZeroMQ.

Essa falha reflete um padrão crescente de vulnerabilidades relacionadas à desserialização em frameworks de inteligência artificial. Em agosto de 2024, uma vulnerabilidade semelhante foi descoberta no framework TensorFlow Keras, permitindo execução arbitrária de código devido ao uso do módulo marshal, considerado inseguro. A descoberta de problemas como esses ressalta a importância de práticas seguras de desenvolvimento, especialmente em aplicações críticas como inteligência artificial.

Leia mais na mesma categoria:

NotíciasVulnerabilidades