Cormac Keenan, Head of Trust & Safety, TikTok
En TikTok, nos esforzamos por fomentar un ambiente divertido e inclusivo donde la gente pueda crear, hacer comunidad y entretenerse. Para mantener ese entorno, tomamos medidas para eliminar el contenido que no cumpla nuestras Normas de la Comunidad, y limitamos el alcance de los contenidos que no son adecuados para un público amplio.
Cuando se trata de seguridad no hay línea de meta, no obstante, tenemos actualizaciones trimestrales sobre nuestro progreso como parte de nuestro compromiso de rendición de cuentas. Hoy, estamos proporcionando contexto en torno a nuestro Informe de Cumplimiento de las Normas de la Comunidad del cuarto trimestre de 2022, incluyendo las actualizaciones que hemos realizado para mejorar la precisión y la eficiencia en la moderación de contenidos en TikTok.
Moderación a escala
Nuestro objetivo es identificar y eliminar el contenido infractor lo más rápidamente posible, y esto es significativo dada la escala de TikTok. Para centrar nuestros esfuerzos, trabajamos en:
- Dar prioridad a la eliminación rápida de contenidos altamente ofensivo y atroz, como el contenido de abuso sexual infantil y el extremismo violento.
- Minimizar las visualizaciones generales de contenidos que infrinjan nuestras Normas de la Comunidad
- Garantizar la exactitud, coherencia y equidad para los creadores.
Para lograrlo, empleamos una combinación de tecnología automatizada y moderadores humanos cualificados que pueden tomar decisiones contextuales sobre temas matizados como la desinformación, la incitación al odio y el acoso.
Evolucionando nuestro enfoque
En el pasado, hemos escalado la moderación ampliando la red de revisión y trabajando para detectar la mayor cantidad posible de contenidos infractores. Si bien estas acciones aumentaron el número de vídeos que eliminábamos, no nos permitía alcanzar nuestros objetivos generales de seguridad, que consisten en dar prioridad a los contenidos ofensivos, minimizar el número total de visitas y garantizar decisiones precisas y coherentes. A medida que nuestra comunidad sigue creciendo y expresándose -incluso a través de nuevas experiencias como vídeos más largos, LIVE y TikTok Now- nuestro enfoque de moderación de contenidos también ha evolucionado. Estamos cada vez más enfocados en prevenir daños generales en todas las funciones mientras construimos una experiencia justa y precisa para nuestros creadores.
Como resultado, en los últimos meses hemos perfeccionado nuestro enfoque para priorizar mejor la precisión, minimizar las visualizaciones de contenidos infractores y eliminar rápidamente los contenidos ofensivos. Hemos actualizado los sistemas que dirigen los contenidos para su revisión, de modo que incorporen mejor la gravedad del daño de un vídeo (en función del tipo de infracción potencial) y el alcance previsto (en función de los seguidores de una cuenta) al determinar si eliminarlo, escalar para revisión humana o tomar una medida diferente. Estamos aprovechando medidas como las funciones de restricción de edad, la inelegibilidad para recomendaciones y nuestro nuevo sistema de clasificación de contenidos con mayor frecuencia y transparencia, con el fin de reducir los daños al limitar quién puede crear o ver determinados contenidos. Y nuestra tecnología está reduciendo la cantidad de contenidos que necesitan revisión, a medida que se vuelve más innovadora y sofisticada a la hora de detectar acciones como cuentas de spam en el momento del registro o contenidos duplicados.
Nuestro Informe de Transparencia del 4to. Trimestre del 2022
El impacto de estos cambios ya se está reflejando en los datos de nuestro cuarto Informe de Cumplimiento de las Normas de la Comunidad del 2022. Por ejemplo, el total de contenidos eliminados disminuyó al hacer que más contenidos poco nocivos no fueran aptos para el canal "Para ti", en lugar de eliminarlos por completo. Al mismo tiempo, la proporción de ese contenido que se eliminaba correctamente mediante automatización, aumentaba a medida que nuestros sistemas se volvían más precisos. Esta transformación entra dentro de lo esperado -eliminamos sistemáticamente un 1% o menos de los contenidos publicados por ser violatorios- y forma parte de nuestro esfuerzo por hacer más segura nuestra creciente comunidad y fomentar una experiencia más coherente para nuestros creadores.
Es posible que estas variaciones métricas continúen a medida que sigamos evolucionando nuestros sistemas durante el próximo año. Por ejemplo, hemos realizado importantes mejoras adicionales este año como un nuevo sistema de control de cuentas y una actualización a nuestras Normas de la Comunidad con nuevas políticas que se verán reflejadas en los futuros Informes de Ejecución. También continuamos perfeccionando los procesos de moderación entre bastidores por ejemplo, estamos especializando más equipos de moderación de contenidos en torno a áreas de especialización.
Mientras seguimos trabajando para construir un hogar seguro, integrador y auténtico para nuestra comunidad mundial, esperamos poder compartir más información sobre nuestros esfuerzos para prevenir daños.