Anthropic Descobre Uso Indevido de IA em Ações Geopolíticas

A empresa de inteligência artificial Anthropic revelou que sua IA, Claude, foi usada por agentes desconhecidos em uma campanha global de influência política com fins lucrativos. A operação, que já foi interrompida, envolvia mais de 100 perfis falsos em redes sociais como Facebook e X, criados para se passar por pessoas reais com opiniões políticas moderadas. Os perfis simulavam apoio ou crítica a interesses políticos da Europa, Irã, Emirados Árabes Unidos e Quênia.

Entre as ações, destacam-se elogios ao ambiente de negócios dos Emirados, críticas às regulações europeias, discursos sobre segurança energética para públicos europeus e identidade cultural para iranianos. Também houve apoio a figuras políticas albanesas e campanhas a favor de líderes e projetos no Quênia. De forma inédita, Claude não só gerava conteúdo, mas também decidia quando os bots comentariam, curtiriam ou compartilhariam postagens reais.

A IA operava com uma estrutura baseada em JSON para manter a coerência dos perfis e permitir que parecessem humanos, inclusive respondendo com humor e sarcasmo a acusações de serem bots. A Anthropic alerta que essa técnica, parte de um serviço comercial usado em ao menos quatro campanhas diferentes, pode se tornar comum, já que a IA facilita a criação de operações de influência complexas. Além disso, a empresa detectou outros abusos, como uso do Claude para aprimorar golpes de recrutamento, desenvolver malwares sofisticados e invadir sistemas por meio de senhas vazadas.

Leia mais na mesma categoria:

Guerra CibernéticaNotícias