Por Cormac Keenan, Head of Trust and Safety

TikTok permite a las personas compartir su creatividad, conocimiento y pasión con los demás mientras entretienen y alegran a nuestra comunidad. Para ayudar a mantener nuestra plataforma acogedora y auténtica para todos, eliminamos el contenido que viola nuestras políticas.

Nuestro objetivo es ser transparentes sobre estas eliminaciones con los creadores y a través de nuestros Informes de Cumplimiento de las Normas de la Comunidad. El informe de abril a junio, publicado hoy, muestra las mejoras realizadas en contra de la desinformación y da a conocer el trabajo que ha conducido a estos avances.

La desinformación no es un problema nuevo, pero Internet ofrece una nueva vía para este reto. Reconocemos el impacto que la desinformación puede tener en la erosión de la confianza en la salud pública, los procesos electorales y la ciencia. Por ello, nos comprometemos a formar parte de la solución y a tratar la desinformación con la máxima seriedad. Adoptamos un enfoque múltiple para detener su difusión, al tiempo que elevamos la información autorizada e invertimos en educación digital para anticiparnos a este problema a gran escala.

Nuestras políticas

Nuestras políticas de integridad tienen como objetivo promover una experiencia auténtica y confiable. Dentro de ellas, nuestras políticas de desinformación perjudicial prohíben los contenidos que puedan confundir a nuestra comunidad sobre procesos cívicos, de salud pública o seguridad. Por ejemplo, no permitimos la desinformación médica sobre las vacunas o el COVID-19, ni la desinformación sobre el voto, en tiempos electorales. Estas políticas pueden aplicarse a una amplia gama de contenidos, teniendo en cuenta que estos cambian constantemente en función de lo que ocurre en el mundo.

Además de eliminar el contenido que es impreciso y perjudica a nuestros usuarios o a la comunidad, también eliminamos las cuentas que buscan confundir a la gente o utilizar TikTok para influir engañosamente en la opinión pública. Estas actividades van desde la creación de cuentas inauténticas o falsas, hasta esfuerzos más sofisticados para disminuir la confianza del público, quienes nunca dejan de evolucionar sus tácticas, por tanto, continuamente tratamos de fortalecer nuestras políticas a medida que detectamos nuevos tipos de contenido y comportamientos.

Aplicación de nuestras políticas

En TikTok, una combinación de tecnología y miles de profesionales de la seguridad trabajan juntos para hacer cumplir nuestras Normas de la Comunidad. Para hacer esto de manera efectiva a escala, continuamos invirtiendo en la señalización basada en la tecnología, así como en la moderación. Confiamos en la moderación automatizada cuando nuestros sistemas tienen un alto grado de confianza en que el contenido es violatorio, de modo que podemos eliminar rápidamente las infracciones de nuestras políticas.

Sin embargo, la desinformación es diferente a otros problemas de contenido. El contexto y la comprobación de los hechos son fundamentales para aplicar con coherencia y precisión nuestras políticas de desinformación. Así que, mientras utilizamos modelos de aprendizaje automático para ayudar a detectar la posible desinformación, en última instancia nuestro enfoque actual es que nuestro equipo de moderación evalúe, confirme y elimine las violaciones de la desinformación. Contamos con moderadores especializados en desinformación que cuentan con formación, experiencia y las herramientas para actuar contra la desinformación. Esto incluye el acceso directo a nuestros socios de comprobación de hechos que ayudan a evaluar la exactitud del contenido.

Tenemos más de una docena de aliados en todo el mundo para la verificación de hechos y noticias falsas que revisan los contenidos en más de 30 idiomas. Todos ellos están acreditados por la Red Internacional de Comprobación de Hechos como signatarios verificados del código de principios de la Red Internacional de Comprobación de Hechos. Por temas de precaución, cuando un contenido se somete a una comprobación de hechos o cuando no puede ser corroborado a través de la comprobación de hechos, no se puede recomendar en los feeds de For You. Si los verificadores de hechos confirman que el contenido es falso, podemos eliminar el vídeo de nuestra plataforma o hacer que el vídeo no sea recomendado en los feeds de For You.

Para mejorar continuamente la detección y la eliminación de la desinformación, hemos realizado algunas inversiones clave este año, tales como:

  • inversión continua en modelos de aprendizaje automático y aumento de la capacidad de repetición de estos modelos con rapidez, dada la naturaleza cambiante de la desinformación.
  • mejora de la detección de audio e imágenes engañosas empleadas para reducir los contenidos manipulados.
  • una base de datos de afirmaciones previamente verificadas para ayudar a los moderadores de la desinformación a tomar decisiones rápidas y precisas.
  • un programa de detección proactivo con nuestros verificadores de hechos que señalan las afirmaciones nuevas y en evolución que ven en Internet. Esto nos permite buscar estas afirmaciones en nuestra plataforma y eliminar las infracciones. Desde el inicio de este programa el pasado trimestre, hemos identificado 33 nuevas afirmaciones de desinformación, lo que ha dado lugar a la eliminación de 58.000 vídeos de la plataforma.

Aunque las infracciones de nuestras políticas de integridad y autenticidad representan menos del 1% del total de las retiradas de vídeos, estas inversiones continuas han aportado beneficios inmediatos a nuestra detección proactiva de estas políticas.

Colaboración con otros

Estamos convencidos de que la colaboración con expertos es fundamental para afrontar este reto. Colaboramos regularmente con nuestro Consejo Asesor de Contenidos y Seguridad, investigadores, organizaciones de la sociedad civil y expertos en alfabetización mediática. Esta colaboración no sólo ayuda a fortalecer nuestras políticas y el conocimiento general de las tendencias y los problemas, sino que también nos permite elevar las voces autorizadas en nuestra aplicación.

Por ejemplo, hemos creado un centro de alfabetización digital en nuestra aplicación con contenidos destinados a que las personas desarrollen habilidades para evaluar los contenidos que consumen, con contenidos de expertos de MediaWise y de la National Association of Media Literacy Education.

Para promover la integridad de las elecciones, creamos Centros Electorales para proporcionar acceso a información autorizada sobre el voto y las elecciones locales.

Para apoyar la salud pública, la gente puede acceder a información, de la Organización Mundial de la Salud, sobre el COVID-19 y la viruela del mono a través de anuncios de servicio público con hashtags y etiquetas en los vídeos.

Seguiremos reafirmando la forma de abordar este reto, y sabemos que nuestro trabajo nunca terminará. Si quieres saber más sobre nuestros esfuerzos para salvaguardar nuestra plataforma, visita nuestro Centro de Transparencia.