TikTok enfrenta investigação da comissão europeia por riscos a menores e conteúdo prejudicial

A Comissão Europeia anunciou o lançamento de uma investigação formal sobre o TikTok por supostas violações da Lei de Direitos Digitais da Europa (Digital Services Act – DSA), incluindo design viciante, falta de verificação de idade, falhas de privacidade, entre outras possíveis infrações.

A investigação focará em se o aplicativo de mídia social falhou em proteger menores, criou políticas de publicidade que carecem de transparência, falhou em fornecer acesso a dados para pesquisadores e não abordou adequadamente os riscos apresentados por seu design de produto e “conteúdo prejudicial”.

Os algoritmos do TikTok parecem criar “efeitos de buraco de coelho” para os usuários, segundo a comissão, que é o braço executivo da UE. A comissão quer examinar a avaliação e mitigação de riscos sistêmicos da empresa e como ela lida com efeitos negativos reais ou previsíveis.

Os investigadores também explorarão como o TikTok gerencia suas proteções infantis e se seus processos de verificação de idade — destinados a impedir que menores acessem conteúdo prejudicial — são eficazes. Em relação às políticas de publicidade do TikTok, a comissão disse que investigará se a plataforma forneceu um “repositório pesquisável e confiável” para acadêmicos e outros pesquisadores acessarem.

Um porta-voz do TikTok afirmou que a empresa “pioneirou recursos e configurações para proteger adolescentes” e manter crianças menores de 13 anos fora da plataforma, acrescentando que essas são “questões com as quais toda a indústria está lidando”.

Leia mais na mesma categoria:

Mercado de CibersegurançaNotícias