Hoy compartimos información sobre nuestro trabajo para proteger la integridad de la plataforma en las recientes elecciones al Parlamento Europeo, en las que se celebraron 27 elecciones nacionales simultáneamente entre el 6 y el 9 de junio.

Los puntos clave son:

  • Se creó un Centro de Información Electoral en la aplicación para cada Estado miembro de la UE, que fue visitado más de 7,5 millones de veces en las cuatro semanas previas a las elecciones y durante las mismas.
  • Eliminamos más de 2.600 contenidos por infringir nuestras políticas de integridad cívica y electoral, y más de 43.000 contenidos por infringir nuestras políticas de desinformación en las cuatro semanas previas a las elecciones y durante las mismas.
  • Eliminamos de forma proactiva más del 96% de los contenidos que violaban nuestras políticas de desinformación antes de que se nos informara de ellos, y más del 80% antes de recibir una sola visualización, durante este período.

Protegiendo a nuestra comunidad

Además de la tecnología, contamos con más de 6.000 personas dedicadas a moderar los contenidos en los idiomas de la UE para garantizar que tomamos medidas contra los contenidos y comportamientos que infringen nuestras normas. Entre ellos hay moderadores especializados en desinformación que cuentan con herramientas y formación mejoradas para detectar y eliminar contenidos que violen las Normas de la Comunidad.

Para facilitar aún más la colaboración y la acción, se puso en marcha un espacio dedicado al "Centro de Control de la Misión" en nuestra oficina de Dublín, que reunía en persona a empleados de varios equipos especializados de nuestro departamento de seguridad para maximizar la eficacia de nuestro trabajo en el período previo a las elecciones y durante las mismas.

En las cuatro semanas previas, e incluyendo la semana de las elecciones, eliminamos más de 2.600 contenidos por vulnerar nuestras políticas de integridad cívica y electoral, y más de 43.000 contenidos por vulnerar nuestras políticas de desinformación. Eliminamos más del 96% de los contenidos que violaban nuestras políticas de desinformación antes de que fueran reportados, y más del 80% antes de recibir una sola visita. Algunas de las narrativas de desinformación que observamos incluían argumentos en torno a la migración, el cambio climático, la seguridad y la defensa y los derechos LGBTQ.

El auge de los contenidos generados por inteligencia artificial (AIGC, por sus siglas en inglés) en general ha planteado nuevos retos al sector ante las numerosas elecciones que se celebran este año. Llevamos más de un año exigiendo a los usuarios que etiqueten los AIGC con aspecto realista y prohibiendo los contenidos perjudicialmente engañosos que muestran a personajes públicos apoyando una opinión política.

Antes de estas elecciones, reforzamos aún más nuestro enfoque de AIGC al convertirnos en la primera plataforma de intercambio de vídeos en empezar a aplicar la tecnología de credenciales de contenido, asociándonos con la Coalition for Content Provenance and Authenticity (C2PA), que nos permite etiquetar automáticamente los AIGC que se originan en otras plataformas importantes.

En febrero, también fuimos uno de los fundadores que firmó el acuerdo interprofesional sobre tecnología de IA para combatir el uso de esta tecnología de forma engañosa en las elecciones de 2024.

Empoderando a nuestra comunidad

Otra parte fundamental de nuestro trabajo se centró en conectar a las personas con información fiable y proporcionarles más contexto sobre el contenido que estaban viendo.

En marzo pusimos en marcha un Centro de Información Electoral en la aplicación para cada Estado miembro de la UE. En colaboración con las comisiones electorales y las organizaciones de la sociedad civil, estos centros pusieron a disposición de los ciudadanos información fiable sobre la votación: cuándo, dónde y cómo votar, los requisitos para ser candidato y, por último, los resultados de las elecciones. También enviamos notificaciones push a los usuarios de cada uno de los 27 países.

Dirigimos activamente a la gente a estos Centros mediante avisos sobre contenidos electorales relevantes y búsquedas relacionadas con las elecciones, que se marcaron con etiquetas de aviso y banners de búsqueda respectivamente. En las cuatro semanas anteriores a las elecciones, estos Centros Electorales fueron visitados más de 7,5 millones de veces, y los banners de búsqueda fueron vistos más de 63 millones de veces.

A lo largo de este periodo, colaboramos estrechamente con el Parlamento Europeo, entre otras cosas, incorporando a los Centros los vídeos de alfabetización mediática del propio Parlamento Europeo, con un botón de "seguir" a la cuenta TikTok del propio Parlamento como enlace adicional a información fidedigna relacionada con las elecciones.

Colaborando con expertos

La colaboración con expertos externos fue otro componente esencial de nuestra estrategia. En toda Europa, trabajamos con 12 socios locales en la labor de fact-checking, que cubren al menos una lengua oficial de cada Estado miembro. Estos socios apoyaron nuestro trabajo mediante la detección proactiva de posibles informaciones erróneas; la verificación de contenidos y la contribución a un repositorio de afirmaciones contrastadas; y la intervención en la aplicación. También colaboramos con fact-checkers para crear vídeos de alfabetización mediática.

Estos datos ofrecen una instantánea tanto de nuestro enfoque como de su impacto, y compartiremos más detalles en los próximos meses como parte de nuestros requisitos de información de transparencia en virtud tanto del Código de Prácticas sobre Desinformación como de la Ley de Servicios Digitales. Nuestro trabajo para mantener a salvo a la gente en TikTok no tiene línea de meta, y seguimos evolucionando nuestras políticas y procesos, al tiempo que recibimos comentarios y valoraciones de expertos externos, para garantizar que nuestro enfoque avanza para hacer frente a los nuevos retos y amenazas en este año histórico para las elecciones.