A Google está incentivando os desenvolvedores de aplicativos Android a incorporar inteligência artificial generativa de forma responsável. As novas diretrizes visam combater conteúdos problemáticos, como material sexual e discurso de ódio, criados por essas ferramentas. Os aplicativos que utilizam IA devem garantir que não criem Conteúdo Restrito, tenham um mecanismo para que os usuários denunciem informações ofensivas e sejam comercializados de maneira a representar com precisão suas capacidades.
Além disso, os desenvolvedores são recomendados a testar rigorosamente seus modelos de IA para garantir a segurança e a privacidade dos usuários. “Certifique-se de testar seus aplicativos em vários cenários de uso e proteger contra prompts que possam manipular a função de IA generativa para criar conteúdo prejudicial ou ofensivo”, disse Prabhat Sharma, diretor de segurança do Google Play, Android e Chrome.
A orientação surge após uma investigação do 404 Media encontrar vários aplicativos na Apple App Store e Google Play Store que anunciavam a capacidade de criar imagens nuas não consensuais. A rápida adoção de tecnologias de IA nos últimos anos também levantou preocupações mais amplas sobre privacidade e segurança relacionadas aos dados de treinamento e à segurança dos modelos, fornecendo aos atores maliciosos uma maneira de extrair informações sensíveis e manipular os modelos para obter resultados inesperados.