NIST destaca vulnerabilidades em sistemas de Inteligência Artificial

O Instituto Nacional de Padrões e Tecnologia dos EUA (NIST) emitiu um alerta sobre os desafios de segurança e privacidade associados ao aumento do uso de sistemas de inteligência artificial (IA) nos últimos anos. O NIST destacou preocupações específicas, incluindo a manipulação adversária de dados de treinamento, a exploração de vulnerabilidades do modelo para afetar negativamente o desempenho do sistema de IA e manipulações maliciosas para exfiltrar informações sensíveis.

À medida que os sistemas de IA se integram rapidamente em serviços online, impulsionados em parte pela emergência de sistemas de IA gerativos como o OpenAI ChatGPT e o Google Bard, os modelos que alimentam essas tecnologias enfrentam várias ameaças.

Estas incluem dados de treinamento corrompidos, falhas de segurança nos componentes de software, envenenamento de modelos de dados, fraquezas na cadeia de suprimentos e violações de privacidade resultantes de ataques de injeção de prompt. Apostol Vassilev, cientista da computação do NIST, expressou preocupação com a possibilidade de chatbots disseminarem informações incorretas ou tóxicas quando estimulados com linguagem cuidadosamente projetada.

Os ataques, que podem ter impactos significativos na disponibilidade, integridade e privacidade, são classificados em evasão, envenenamento, privacidade e abuso. O alerta do NIST ocorre mais de um mês após o Reino Unido, os EUA e parceiros internacionais de 16 outros países divulgarem diretrizes para o desenvolvimento de sistemas de IA seguros.

“Apesar do progresso significativo que a IA e o aprendizado de máquina fizeram, essas tecnologias são vulneráveis a ataques que podem causar falhas espetaculares com consequências graves”, disse Vassilev. “Existem problemas teóricos com a segurança de algoritmos de IA que simplesmente não foram resolvidos ainda. Se alguém disser o contrário, está vendendo ilusões.”

Leia mais na mesma categoria:

NotíciasVulnerabilidades