A Microsoft está processando um grupo de hackers estrangeiros por operar uma infraestrutura de hacking como serviço (HaaS) destinada a contornar os controles de segurança de seus serviços de inteligência artificial (IA) generativa e criar conteúdos ofensivos e prejudiciais. O caso é liderado pela Unidade de Crimes Digitais (DCU) da empresa, que identificou o grupo desenvolvendo softwares sofisticados para explorar credenciais de clientes expostas em sites públicos e acessar ilegalmente contas de serviços de IA, como o Azure OpenAI Service. Os criminosos não apenas utilizaram esses serviços para gerar conteúdos nocivos, mas também os monetizaram ao vender acesso a outros atores maliciosos, fornecendo ferramentas personalizadas e instruções detalhadas para o uso das mesmas.
A Microsoft descobriu essa atividade em julho de 2024, e desde então revogou o acesso dos hackers, implementou novas medidas de segurança e reforçou suas proteções contra esse tipo de exploração. Além disso, a empresa obteve uma ordem judicial para apreender o site aitism[.]net, que era fundamental para as operações criminosas do grupo. A popularidade de ferramentas de IA, como o ChatGPT da OpenAI, tem levado a abusos por parte de atores mal-intencionados, que as utilizam para criar conteúdos proibidos ou até mesmo para desenvolver malware. Microsoft e OpenAI já haviam alertado que grupos ligados a Estados-nação, como China, Irã, Coreia do Norte e Rússia, vêm utilizando esses serviços para atividades como reconhecimento, tradução e campanhas de desinformação.
De acordo com documentos judiciais, pelo menos três indivíduos desconhecidos estão envolvidos na operação, utilizando chaves de API do Azure roubadas e informações de autenticação do Entra ID para acessar os sistemas da Microsoft e criar imagens prejudiciais com o modelo DALL-E, violando as políticas de uso da empresa. Outras sete partes também teriam usado os serviços e ferramentas fornecidos pelos hackers para fins semelhantes.