Por Cormac Keenan, Head de Confiança e Segurança, TikTok

Hoje estamos lançando nosso Relatório de Aplicação das Diretrizes da Comunidade do segundo trimestre, que detalha o volume e a natureza de conteúdos violadores e contas removidas do TikTok para proteger a segurança de nossa comunidade e a integridade da nossa plataforma. Também estamos compartilhando atualizações sobre o nosso trabalho para proteger as pessoas de comportamentos abusivos.

Uma olhada em nosso último Relatório de Aplicação das Diretrizes da Comunidade

Conforme detalhado em nosso relatório, 81.518.334 vídeos foram removidos globalmente entre abril e junho por violarem nossas Diretrizes da Comunidade ou Termos de Serviço, o que representa menos de 1% de todos os vídeos carregados no TikTok. Desses vídeos, identificamos e removemos 93,0% em menos de 24 horas após serem postados e 94,1% antes de algum usuário relatá-los. 87,5% do conteúdo removido teve zero visualizações, o que é uma melhoria desde nosso último relatório (81,8%).

Seguimos fazendo progressos constantes em nossa detecção proativa de comportamento de ódio, bullying e assédio. Por exemplo, 73,3% dos vídeos de assédio e bullying foram removidos antes de qualquer denúncia, em comparação com 66,2% no primeiro trimestre deste ano; enquanto 72,9% dos vídeos de comportamento de ódio foram removidos antes de qualquer denúncia, em comparação com 67,3% entre janeiro e março. Esse progresso pode ser atribuído a melhorias contínuas em nossos sistemas que sinalizam proativamente símbolos de ódio, palavras e outros sinais de abuso para análise posterior por nossas equipes de segurança.

O assédio como um todo, e o discurso de ódio em particular, são problemas contextuais e com muitas nuances que podem ser difíceis de detectar e moderar todas as vezes corretamente. Por exemplo, a reapropriação de um termo não é uma violação de nossas políticas, mas usar esse termo reapropriado para atacar ou abusar de outra pessoa violaria nossa política de comportamento de ódio. O bullying pode ser altamente pessoal e requer um contexto offline que nem sempre está disponível. Para melhor aplicar nossas políticas, treinamos e orientamos regularmente nossos times para ajudá-los a diferenciar, por exemplo, reapropriação de calúnias ou sátiras de bullying. Também contratamos especialistas em políticas em direitos civis, equidade e inclusão. A medida que melhoramos continuamente nossos mecanismos de detecção, nos empenhamos para resolver esses problemas críticos para a nossa comunidade. Incentivamos as pessoas a denunciarem contas ou conteúdo que possa violar nossas Diretrizes da Comunidade.

Incorporando esforços anti-abuso em nosso produto

Além de remover conteúdo, capacitamos as pessoas a personalizar sua experiência com uma variedade de ferramentas e recursos, incluindo maneiras eficazes de filtrar comentários em seu conteúdo, excluir ou relatar vários comentários de uma vez e bloquear contas em massa.

Também adicionamos avisos que incentivam as pessoas a considerar o impacto de suas palavras antes de postar um comentário potencialmente rude ou violador das normas. O efeito dessas solicitações já foi sentido, com quase 4 em cada 10 pessoas optando por retirar e editar seus comentários, com a maioria das edições não violando nossas políticas. Embora nem todos optem por alterar seus comentários, somos encorajados pelo impacto que esses recursos têm e continuamos desenvolvendo e testando novas intervenções para prevenir abusos em potencial.

Hoje estamos expandindo esses recursos com configurações aprimoradas para silenciar comentários e perguntas durante transmissões ao vivo. O livestreaming no TikTok é uma maneira empolgante para os criadores e espectadores se conectarem e estamos criando segurança na experiência por meio do design. Agora, o anfitrião ou seu ajudante de confiança podem silenciar temporariamente um espectador com comportamento indelicado, por alguns segundos ou minutos, ou durante toda a transmissão AO VIVO. Se uma conta for silenciada por qualquer período de tempo, todo o histórico de comentários dessa pessoa também será removido. Os anfitriões de uma LIVE já podem desativar comentários ou limitar comentários potencialmente prejudiciais, usando um filtro de palavra-chave. Esperamos que esses novos controles deem ainda mais controle para que os anfitriões e o público tenham transmissões ao vivo seguras e divertidas.

Para mais informações sobre as medidas que estamos adotando para proteger a segurança de nossa comunidade e integridade de nossa plataforma, encorajamos você a ler o nosso relatório.