Pesquisadores de segurança cibernética identificaram várias vulnerabilidades em ferramentas de aprendizado de máquina de código aberto amplamente utilizadas, como MLflow, H2O, PyTorch e MLeap. Essas falhas podem permitir a execução de códigos maliciosos, representando um risco significativo para organizações que utilizam essas tecnologias.
As descobertas fazem parte de um conjunto de 22 problemas de segurança divulgados recentemente. Diferentemente das falhas anteriormente relatadas, que afetavam servidores, essas novas vulnerabilidades impactam diretamente os clientes de ML e estão presentes em bibliotecas que manipulam formatos considerados seguros, como o Safetensors.
O comprometimento de um cliente de aprendizado de máquina pode possibilitar que invasores realizem movimentações laterais dentro de uma organização, acessando dados sensíveis, como credenciais de registro de modelos e pipelines MLOps. Essa exposição pode permitir que agentes mal-intencionados alterem modelos armazenados ou até mesmo executem códigos maliciosos, causando danos significativos. Entre as vulnerabilidades estão problemas relacionados à sanitização insuficiente, desserialização insegura e travessia de caminho, que podem levar à execução remota de código, sobrescrição de arquivos críticos e até mesmo ataques de negação de serviço.