ChatGPT Corrige Vulnerabilidade Crítica que Permitia Exfiltração Contínua de Dados

Um problema de segurança foi corrigido no aplicativo ChatGPT para macOS que poderia ter permitido que atacantes inserissem spyware persistente na memória da ferramenta de IA, facilitando a exfiltração contínua de dados digitados pelos usuários ou recebidos nas respostas. A técnica, apelidada de SpAIware, foi descoberta pelo pesquisador de segurança Johann Rehberger.

O problema estava relacionado ao recurso de memória, que permite ao ChatGPT lembrar certas informações entre conversas para facilitar o uso contínuo. Esse recurso foi introduzido pela OpenAI em fevereiro de 2024 e expandido para usuários das versões Free, Plus, Team e Enterprise. No entanto, a falha explorava esse recurso para armazenar instruções maliciosas, que permaneciam entre as conversas, permitindo que os dados fossem enviados secretamente a servidores controlados por atacantes.

Rehberger destacou que a vulnerabilidade poderia ser usada em cenários de ataque onde um usuário é induzido a visitar um site malicioso ou baixar um documento comprometido, que, ao ser analisado no ChatGPT, atualizaria a memória do sistema com instruções prejudiciais. Com isso, todas as futuras conversas poderiam ser enviadas para um servidor adversário sem o conhecimento do usuário.

A OpenAI resolveu o problema com a versão 1.2024.247 do ChatGPT, fechando a brecha que permitia a exfiltração de dados. Rehberger também sugeriu que os usuários revisem regularmente as memórias armazenadas pelo ChatGPT para garantir que não contenham informações incorretas ou suspeitas. A divulgação desse incidente ocorre paralelamente à descoberta de uma técnica de jailbreaking de IA, chamada MathPrompt, que explora a capacidade avançada de resolver problemas matemáticos em modelos de linguagem para contornar seus mecanismos de segurança.