Um problema de segurança foi corrigido no aplicativo ChatGPT para macOS que poderia ter permitido que atacantes inserissem spyware persistente na memória da ferramenta de IA, facilitando a exfiltração contínua de dados digitados pelos usuários ou recebidos nas respostas. A técnica, apelidada de SpAIware, foi descoberta pelo pesquisador de segurança Johann Rehberger.
O problema estava relacionado ao recurso de memória, que permite ao ChatGPT lembrar certas informações entre conversas para facilitar o uso contínuo. Esse recurso foi introduzido pela OpenAI em fevereiro de 2024 e expandido para usuários das versões Free, Plus, Team e Enterprise. No entanto, a falha explorava esse recurso para armazenar instruções maliciosas, que permaneciam entre as conversas, permitindo que os dados fossem enviados secretamente a servidores controlados por atacantes.
Rehberger destacou que a vulnerabilidade poderia ser usada em cenários de ataque onde um usuário é induzido a visitar um site malicioso ou baixar um documento comprometido, que, ao ser analisado no ChatGPT, atualizaria a memória do sistema com instruções prejudiciais. Com isso, todas as futuras conversas poderiam ser enviadas para um servidor adversário sem o conhecimento do usuário.
A OpenAI resolveu o problema com a versão 1.2024.247 do ChatGPT, fechando a brecha que permitia a exfiltração de dados. Rehberger também sugeriu que os usuários revisem regularmente as memórias armazenadas pelo ChatGPT para garantir que não contenham informações incorretas ou suspeitas. A divulgação desse incidente ocorre paralelamente à descoberta de uma técnica de jailbreaking de IA, chamada MathPrompt, que explora a capacidade avançada de resolver problemas matemáticos em modelos de linguagem para contornar seus mecanismos de segurança.