Por Cormac Keenan, Head de Confiança e Segurança do TikTok

No TikTok nos esforçamos para promover um espaço divertido e inclusivo, onde as pessoas possam criar, encontrar a comunidade e se divertir. Para manter esse ambiente, tomamos medidas para remover conteúdos que violam nossas Diretrizes da Comunidade e limitar o alcance de conteúdo não adequado para um público amplo.

O trabalho com a segurança da plataforma não tem uma linha de chegada, e nós compartilhamos atualizações trimestrais sobre nosso progresso como parte de nosso compromisso. Hoje, estamos fornecendo contexto em torno de nosso Relatório de Aplicação das Diretrizes da Comunidade do quarto trimestre de 2022, incluindo atualizações que fizemos para melhorar a precisão e eficiência da moderação de conteúdo no TikTok.

Moderação em escala

Nosso objetivo é identificar e remover conteúdos violativos o mais rápido possível, e isto não é um feito pequeno dada a escala do TikTok. Para focar nossos esforços, trabalhamos para:

  1. Priorizar a remoção mais rápida de conteúdo altamente grave e explícito, como material sobre abuso sexual infantil (CSAM) e extremismo violento.
  2. Minimizar a visão geral de conteúdos que violam nossas Diretrizes da Comunidade.
  3. Garantir precisão, consistência e imparcialidade para os criadores.

Para nos ajudar a conseguir isso, empregamos uma combinação de tecnologia automatizada e moderação feita por pessoas habilidosas que podem tomar decisões contextuais sobre tópicos variados como desinformação, discurso de ódio e assédio.

Evoluindo nossa abordagem

No passado, escalamos a moderação lançando uma rede mais ampla para revisão e trabalhando para capturar o máximo de conteúdo violativo possível. Embora isso tenha aumentado o número de vídeos removidos, não refletia todos os nossos objetivos globais de segurança para priorizar a remoção de conteúdo grave, minimizar a visualização e garantir decisões precisas e consistentes. Como nossa comunidade continuou a crescer e a se expressar - inclusive por meio de novas experiências como vídeos mais longos, LIVE e TikTok Now - nossa abordagem de moderação de conteúdo também evoluiu. Estamos cada vez mais focados na prevenção de danos gerais por meio de recursos, enquanto construímos uma experiência justa e precisa para nossos criadores.

Como resultado, nos últimos meses começamos a refinar nossa abordagem para sermos mais precisos, minimizar as visualizações de conteúdo violativo, e remover rapidamente conteúdo grave. Atualizamos os sistemas que encaminham o conteúdo para revisão, para que incorporem melhor a gravidade do dano de um vídeo (com base no tipo de violação potencial) e o alcance esperado (com base no engajamento de uma conta) ao determinar se aquele vídeo deve ser removido, enviado para revisão humana ou tomar uma ação diferente. Estamos alavancando medidas, como recursos restritos à idade, inelegibilidade para recomendação e nosso novo sistema de Níveis de Conteúdo com mais frequência e transparência, a fim de reduzir os danos, limitando quem pode criar ou ver determinado conteúdo. E nossa tecnologia proativa está reduzindo a quantidade de conteúdo que precisa de revisão, à medida que se torna mais sofisticada para capturar atividades, como contas de spam, ou conteúdo duplicado.

Nosso Relatório de Transparência

O impacto dessas mudanças já está sendo refletido nos dados de nosso Relatório de Aplicação das Diretrizes da Comunidade do quarto trimestre de 2022. Por exemplo, o total de remoções de conteúdo foi reduzido à medida que tornamos mais conteúdos inelegíveis para a página "Para Você", ao invés de removê-los completamente. Ao mesmo tempo, a proporção daquele conteúdo que foi removido com precisão pela automação aumentou conforme nossos sistemas se tornaram mais precisos. Esta flutuação está dentro de nossa faixa esperada - removemos consistentemente 1% ou menos de todo conteúdo publicado na plataforma por ser violativo - e é parte de um esforço para tornar nossa crescente comunidade mais segura e promover uma experiência mais consistente para nossos criadores.

É possível que tais flutuações métricas continuem enquanto seguimos desenvolvendo nossos sistemas durante o próximo ano. Por exemplo, fizemos melhorias adicionais significativas neste ano, tais como a introdução de um novo sistema de moderação de contas e a atualização abrangente de nossas Diretrizes da Comunidade com novos agrupamentos de políticas que os futuros Relatórios de Aplicação das Diretrizes seguirão. Também continuamos refinando os processos de moderação nos bastidores, como, por exemplo, especializando mais equipes de moderação de conteúdo em torno de áreas de expertise.

Enquanto continuamos nosso trabalho para construir um local seguro, inclusivo e autêntico para nossa comunidade global, estamos ansiosos para compartilhar mais sobre nossos esforços em evolução para evitar danos.