A Meta anunciou que está adiando seus esforços para treinar os grandes modelos de linguagem (LLMs) da empresa usando conteúdo público compartilhado por usuários adultos no Facebook e Instagram na União Europeia, após um pedido da Comissão de Proteção de Dados da Irlanda (DPC). A empresa expressou decepção em ter que pausar seus planos de IA, afirmando que levou em consideração o feedback de reguladores e autoridades de proteção de dados na região.
A questão central é o plano da Meta de usar dados pessoais para treinar seus modelos de inteligência artificial (IA) sem buscar o consentimento explícito dos usuários, baseando-se na justificativa legal de “Interesses Legítimos” para processar dados de primeira e terceira parte na região. Essas mudanças estavam previstas para entrarem em vigor em 26 de junho, antes das quais a empresa informou que os usuários poderiam optar por não ter seus dados utilizados, submetendo um pedido “se desejassem”.
Stefano Fratta, diretor global de engajamento de políticas de privacidade da Meta, disse que isso representa um retrocesso para a inovação europeia, competição no desenvolvimento de IA e atrasa os benefícios da IA para as pessoas na Europa. Ele acrescentou que a Meta permanece confiante de que sua abordagem está em conformidade com as leis e regulamentos europeus, sendo mais transparente do que muitos de seus concorrentes na indústria.