O TikTok é uma plataforma de entretenimento movida pela criatividade, autoexpressão e pelo coração dos criadores, que produzem conteúdo de forma autêntica. As Diretrizes da Comunidade estabelecem e explicam os comportamentos e conteúdos que não são permitidos no aplicativo – quando as políticas são violadas, a plataforma toma medidas sobre o conteúdo e, quando justificado, sobre o perfil da pessoa. Assim, o aplicativo se mantém seguro.
A maioria dos membros da comunidade concorda em seguir as políticas, mas existe uma pequena minoria que as violam, repetidamente, e não mudam o comportamento. Por isso, o TikTok anuncia hoje um sistema atualizado de moderação e revisão de contas para agir de forma mais eficaz contra infratores reincidentes. Estas mudanças ajudarão a remover contas prejudiciais com mais eficiência e rapidez, enquanto promovem uma experiência mais clara e consistente para a grande maioria dos criadores que deseja seguir as políticas.
Por que o TikTok está atualizando o sistema de moderação de contas vigente
O sistema utiliza diferentes tipos de restrições, como proibições temporárias de publicações ou comentários, para evitar que as ferramentas dos produtos sejam usadas de forma abusiva ao mesmo tempo em que educa as pessoas sobre as políticas presentes nas Diretrizes da Comunidade, a fim de reduzir violações futuras. Embora esta abordagem tenha sido eficaz na redução geral de conteúdo nocivo, os criadores afirmaram que ela pode ser confusa. Pode haver, também, um impacto desproporcional sobre criadores que, raramente e de modo inconsciente, violam alguma política, sendo ao mesmo tempo menos eficiente ao desencorajar aqueles que as violam repetidamente.
Quem viola as diretrizes de forma recorrente tende a seguir um padrão. Uma análise descobriu que cerca de 90% desses perfis violam as Diretrizes da Comunidade usando a mesma ferramenta do aplicativo de forma consistente, e mais de 75% violam a mesma categoria de política repetidamente. Para lidar melhor com isso, o TikTok está atualizando o sistema de moderação de contas, uma vez que a plataforma procura apoiar sua comunidade de criadores e remover os infratores reincidentes do aplicativo.
Como o sistema simplificado de moderação de contas vai funcionar
Sob o novo sistema, se alguém postar um conteúdo que viole uma das Diretrizes da Comunidade, o conteúdo será removido e sua conta receberá uma advertência. Se uma conta atingir o limite de advertências dentro de uma mesma ferramenta (como Comentários ou LIVE) ou política (como Bullying e Assédio), ela será banida permanentemente. Esses limites podem variar dependendo do potencial de uma violação em causar danos aos membros da comunidade – por exemplo, pode haver um limite mais restrito em caso de violação da política contra promover ideologias de ódio do que para o compartilhamento de spam de dano leve.
O TikTok vai continuar a bloquear permanentemente na primeira violação de políticas consideradas graves, incluindo a divulgação ou ameaça de violência, exibição ou facilitação de material sobre abuso sexual infantil (CSAM), ou mostrar violência e tortura reais. Como uma proteção adicional, as contas que acumularem um alto número geral de advertências entre políticas e ferramentas também serão permanentemente banidas. Após 90 dias, as advertências expirarão do registro de uma conta.
Ajudando os criadores a entender a situação de suas contas
As mudanças têm o objetivo de dar mais transparência em torno das decisões de moderação, além de ajudar a comunidade a entender melhor como seguir as Diretrizes da Comunidade. Para apoiar ainda mais os criadores, durante as próximas semanas, o TikTok também implementará novos recursos no Centro de Segurança dentro do aplicativo.
Os recursos incluem uma página de "Status da conta", na qual os criadores podem ver facilmente a situação atual de seus perfis, e uma página de "Registro de denúncias" em que os criadores também podem ver o status das denúncias que fizeram sobre outros conteúdos ou contas.
Essas novas ferramentas fazem com que os criadores recebam notificações caso tenham violado as políticas, e auxilia quando os criadores desejarem recorrer de decisões da moderação e removerem as advertências, se forem válidas. A plataforma também começará a notificar os criadores se eles estiverem prestes a ter suas contas removidas de forma permanente.
Tomar decisões consistentes e transparentes de moderação
Como mais um passo para melhorar a transparência sobre as práticas de moderação de conteúdo, a plataforma também começou a testar em alguns mercados um novo recurso que fornece aos criadores informações sobre quais de seus vídeos foram marcados como não elegíveis para recomendação à página Para Você, informando o motivo e oferecendo a eles a oportunidade de recorrer.
A atualização do sistema de moderação de contas está sendo implementada globalmente. A plataforma irá notificar os membros da comunidade à medida que este novo sistema se tornar disponível a eles. O TikTok continuará trabalhando na evolução desses sistemas e compartilhando o progresso em torno dos processos que utilizam para avaliar as contas e assegurar decisões de moderação precisas e diferenciadas para contas de todos os tipos em nossa plataforma.