Cormac Keenan, Head of Trust & Safety, TikTok

En TikTok, nos comprometemos a fomentar un entorno divertido e inclusivo donde la gente pueda crear, encontrar una comunidad y entretenerse. Para mantener ese ambiente, tomamos medidas para eliminar el contenido que viola nuestras Normas de la Comunidad, y limitar el alcance de los contenidos que pueden no ser adecuados para el público general.

La seguridad no tiene una línea de meta, y como parte de nuestra responsabilidad compartimos actualizaciones trimestrales sobre nuestro progreso. Hoy proporcionamos información sobre nuestro Informe de Cumplimiento de las Normas de la Comunidad del cuarto trimestre de 2022, incluidas las actualizaciones que hemos realizado para mejorar la precisión y la eficiencia de la moderación de contenidos en TikTok.

Moderación a escala

Nuestro objetivo es identificar y eliminar los contenidos ofensivos lo antes posible, lo que es muy importante dada la magnitud de TikTok. Para centrar nuestros esfuerzos, trabajamos para:

1. Dar prioridad a la eliminación más rápida de contenidos sumamente graves, como el material de abuso sexual infantil (CSAM) y el extremismo violento.

2. Minimizar las visualizaciones generales de contenidos que infrinjan nuestras Normas de la Comunidad

3. Garantizar la exactitud, coherencia y equidad para los creadores.

Para lograrlo, empleamos una combinación de tecnología automatizada y moderadores entrenados, personas especializadas capaces de tomar decisiones contextuales sobre temas con matices, como la desinformación, el lenguaje de odio y el acoso.

Evolución de nuestro enfoque

En el pasado, escalamos la moderación extendiendo la red de revisión y tratando de capturar el mayor número posible de contenidos ofensivos. Aunque, por lo general, esto aumentaba el número de vídeos que eliminábamos, no se ajusta a nuestros objetivos generales de seguridad, que consisten en dar prioridad a los contenidos ofensivos, minimizar el número total de visitas y garantizar decisiones precisas y coherentes. A medida que nuestra comunidad ha seguido creciendo y expresándose, incluso a través de nuevas experiencias como vídeos más largos, como TikTok LIVE y TikTok Now, nuestro enfoque de la moderación de contenidos también ha evolucionado. Nos centramos cada vez más en prevenir el riesgo de daño general a través de las funciones, a la vez que creamos una experiencia justa y precisa para nuestros creadores.

Como resultado, en los últimos meses hemos empezado a perfeccionar nuestro enfoque para priorizar mejor la precisión, minimzar las visualizaciones de contenidos ofensivos y eliminar rápidamente estos contenidos. Hemos actualizado los sistemas que dirigen los contenidos para su revisión, de modo que incorporen mejor la gravedad del daño de un vídeo (en función del tipo de infracción potencial) y el alcance previsto (en función de los seguidores de una cuenta) a la hora de determinar si eliminarlo, someterlo a una revisión humana o tomar otras medidas. Estamos aplicando medidas como la restricción de edad, la imposibilidad de recomendación y nuestro nuevo sistema de Level Contents con mayor frecuencia y transparencia, con el fin de reducir los daños limitando quién puede crear o ver determinados contenidos. Y nuestra tecnología proactiva está reduciendo la cantidad de contenidos que necesitan revisión, a medida que se vuelve más sofisticada a la hora de detectar cosas como cuentas de spam al registrarse o contenidos duplicados.

Nuestro Informe de Cumplimiento de las Normas de la Comunidad del cuarto trimestre de 2022

El impacto de estos cambios ya se está reflejando en los datos de nuestro informe del cuarto trimestre de cumplimiento de las Normas de la Comunidad. Por ejemplo, el número total de contenidos eliminados ha disminuido, ya que hemos aumentado el número de contenidos, que tienen un nivel bajo de nocividad, y que han sido catalogado como no aptos para el Feed Para Ti en vez eliminarlos por completo. Al mismo tiempo, la proporción de ese contenido que fue eliminado correctamente por automatización aumentó a medida que nuestros sistemas se volvieron más precisos. Esta fluctuación entra dentro de lo esperado -eliminamos sistemáticamente un 1% o menos de los contenidos publicados por ser ofensivos- y forma parte de un esfuerzo conjunto por hacer más segura nuestra creciente comunidad y fomentar una experiencia más uniforme para nuestros creadores.

Es posible que estas fluctuaciones métricas continúen a medida que sigamos desarrollando nuestros sistemas durante el próximo año. Por ejemplo, este año hemos introducido mejoras adicionales significativas, como un nuevo un sistema actualizado de control de cuentas y una actualización de nuestras Normas de la Comunidad con nuevas agrupaciones de políticas que se reflejarán en los futuros Informes de cumplimiento. También seguimos perfeccionando los procesos de moderación, por ejemplo estableciendo más equipos de moderación de contenidos por áreas de especialización.

Mientras seguimos trabajando para construir un entorno seguro, integrador y auténtico para nuestra comunidad mundial, esperamos poder compartir más información sobre nuestros esfuerzos para prevenir posibles daños.