Por Natalia Aguilar Gallego, líder de Segurança e Integridade na América Latina

Com uma expectativa de mais de 2 bilhões de pessoas em mais de 50 países irem às urnas este ano, estamos extremamente empenhados em proteger a integridade eleitoral no TikTok. Nos últimos quatro anos, trabalhamos para proteger nossa plataforma em mais de 150 eleições em todo o mundo. Hoje, compartilhamos uma visão geral de nosso investimento contínuo para garantir que o TikTok siga sendo um lugar criativo, seguro e civilizado para a nossa comunidade em um ano eleitoral histórico.

Conectando pessoas a informações confiáveis

Fazemos parcerias com comissões eleitorais e organizações de checagem de fatos para criar Centros Eleitorais que conectam as pessoas a informações confiáveis sobre as votações. Nossos Centros Eleitorais locais alcançaram mais de 55 milhões de pessoas em todo o mundo no ano passado. No Brasil, durante o último pleito, desenvolvemos o Guia de Eleições 2022, em parceria com o Tribunal Superior Eleitoral, que trouxe informações de fontes confiáveis para nossa comunidade, além de vídeos de educação midiática. Essa página exclusiva no aplicativo foi acessada mais de 6 milhões de vezes, entre fevereiro e novembro de 2022.

A educação midiática também é parte integral da nossa estratégia eleitoral. Colaboramos com criadores locais e com a sociedade civil para promover as melhores práticas de educação midiática, que alcançaram milhões de pessoas no TikTok no ano passado. Ao longo de 2024, continuamos a fazer parcerias com especialistas e organizações de checagem de fatos em todo o mundo para oferecer campanhas de educação midiática sobre desinformação, identificação de conteúdo gerado por Inteligência Artificial (IA) e mais.

Além disso, seguimos desenvolvendo recursos que fornecem informações adicionais sobre conteúdo e contas no TikTok. Por exemplo, os selos de verificação azul confirmam que contas notáveis são quem dizem ser. Rotulamos o conteúdo que nossa moderação determina como não verificado e expandiremos os recursos de educação midiática para essas classificações este ano.

Você pode ler mais sobre nossas ações em prol da integridade eleitoral em nosso guia de Integridade Eleitoral.

Moderando conteúdo e contas durante as eleições

Milhares de profissionais de confiança e segurança trabalham junto com a tecnologia para aplicar nossas Diretrizes da Comunidade. Estamos comprometidos em aplicar nossas regras de forma consistente para combater desinformação, operações de influência disfarçadas e outros conteúdos e comportamentos que crescem nas plataformas durante as eleições.

  • Combate à desinformação: Investimos na educação midiática como uma estratégia de combate à desinformação, bem como em tecnologia e pessoas para combater a desinformação em escala. Isso inclui moderadores especializados em desinformação com ferramentas e treinamento adequados, além de equipes que fazem parcerias com especialistas para priorizar o contexto e as nuances locais. Temos parcerias com 17 organizações globais de checagem de fatos, que avaliam a precisão do conteúdo em mais de 50 idiomas para que nossos moderadores possam aplicar nossas políticas de desinformação adequadamente. Adicionamos três novos parceiros globais em 2023 e continuaremos a expandir nosso programa de checagem de fatos neste ano.
  • Impedindo operações de influência disfarçadas: Sabemos que agentes enganosos tentam atingir nas plataformas durante as eleições e permanecemos atentos contra operações de influência disfarçadas. Temos especialistas dedicados trabalhando para detectar, interromper e se antecipar a comportamentos enganosos. Relatamos as remoções de redes de influência em nossos relatórios trimestrais de aplicação das Diretrizes da Comunidade. Nos próximos meses, apresentaremos relatórios dedicados a operações de influência para aumentar ainda mais a transparência e a prestação de contas com a indústria. Fornecemos informações sobre como avaliamos esse comportamento em nosso Centro de Transparência.
  • Endereçando conteúdo enganoso gerado por IA: O conteúdo gerado por Inteligência Artificial (IA) traz novos desafios em relação à desinformação em nossa indústria, que temos abordado proativamente com regras firmes e novas tecnologias. Não permitimos conteúdo manipulado que possa ser enganoso, incluindo o de figuras públicas, se elas forem retratadas endossando uma visão política. Também exigimos que os criadores rotulem qualquer conteúdo realista gerado por IA e lançamos uma ferramenta inédita para ajudar as pessoas a fazer isso. À medida que a tecnologia evoluir em 2024, continuaremos a aprimorar nossas políticas de detecção e, ao mesmo tempo, faremos parcerias com especialistas em conteúdo de educação midiática que ajudem nossa comunidade a navegar pela IA de forma responsável.
  • Adaptando nossa abordagem de contas políticas e de notícias: Há anos o TikTok não permite publicidade política paga e contas pertencentes a políticos ou partidos políticos não podem anunciar ou ganhar dinheiro no TikTok. Também reconhecemos que as contas pertencentes a organizações de notícias, políticos, partidos políticos e governos desempenham um papel único no discurso cívico e aplicamos a elas políticas mais diferenciadas para proteger o interesse público, o que explicamos em nossas Diretrizes da Comunidade.

Consultamos mais de 50 especialistas enquanto a nossa indústria se prepara para este ano eleitoral histórico, incluindo nossos Conselhos Consultivos de Segurança e Conteúdo. Para saber mais sobre como combatemos a desinformação, consulte nossa recém-ampliada página do Centro de Transparência.