En TikTok, miles de personas se centran en ayudar a que nuestra plataforma sea segura para que nuestra comunidad pueda explorar contenidos entretenidos y compartir su creatividad. Así, el equipo de Trust & Safety de TikTok se centra en llevar a cabo una serie de tareas para proteger a nuestra comunidad. A medida que continuamos en nuestro viaje hacia la seguridad, queremos ser abiertos y transparentes a lo largo del camino. Por ello, vamos a hablar acerca del trabajo que hacemos aquí. 

Creación y actualización de nuestras Normas de la Comunidad

Nuestras Normas de la Comunidad definen un conjunto de normas y un código de conducta común para la comunidad de TikTok; proporcionan orientación sobre lo que está y no está permitido hacer dentro de la plataforma para ayudar a mantener un espacio acogedor. Nuestros expertos son responsables de evaluar constantemente estas directrices para considerar cómo podemos permitir la expresión creativa y al mismo tiempo proteger a nuestra comunidad contra posibles daños. 

Estos expertos suelen ser especialistas en la materia: algunos tienen experiencia en la industria tecnológica, otros pueden unirse a nosotros desde la sociedad civil o el gobierno. Sus funciones implican enfrentarse a áreas complejas y desafiantes: por ejemplo, dónde debemos fijar la línea de los contenidos relacionados con los trastornos alimenticios. Gracias a nuestro trabajo con expertos externos, sabemos que los contenidos relacionados con los trastornos alimentarios pueden ser perjudiciales, pero los contenidos que se centran en la recuperación pueden tener un impacto positivo y, a medida que perfeccionamos nuestras políticas, es importante que sigamos reflejando matices como éste.

Detección de daños potenciales y aplicación de nuestras políticas

Los equipos de Producto y Procesos se centran en el diseño de estrategias y técnicas para detectar, de forma más eficiente, los posibles daños y hacer cumplir, a escala, nuestras  Normas de la Comunidad. Un ejemplo es el uso de la tecnología "hashing" para crear un identificador digital único de una imagen o vídeo. En línea con los estándares de la industria, esto nos permite identificar un contenido dañino que pueda estar violando las normas de la comunidad y eliminarlo más fácilmente, a escala. Por ejemplo, si se elimina un contenido por infringir nuestras políticas de protección contra el intercambio de imágenes de explotación sexual infantil, el identificador único ayudaría a encontrar y eliminar el contenido relacionado, y evitaría que se subiera de nuevo. 

Como explicamos en nuestro último Informe de Transparencia, más del 80% de los vídeos que violaban nuestras políticas fueron eliminados antes de recibir una sola visualización, y nos comprometemos a seguir desarrollando nuestra eficacia en este ámbito. Aunque la tecnología puede ayudar a eliminar infracciones claras, una parte importante de la moderación de contenidos implica la revisión humana.  No importa la hora del día, si se denuncia un contenido, nuestros equipos están disponibles para ayudar a tomar medidas. A través de este filtro adicional de revisión humana, también podemos mejorar nuestros sistemas de aprendizaje automático, ya que los moderadores proporcionan información a la tecnología, ayudando a captar nuevas tendencias de contenido y a mejorar nuestras futuras capacidades de identificación. 

Otra función esencial de nuestro equipo es identificar y analizar los contenidos para mejorar continuamente la precisión de nuestros procesos de moderación de contenidos. Por ejemplo, si un vídeo se hace popular, puede ser revisado de nuevo por nuestros sistemas para reducir la posibilidad de que un contenido infractor permanezca en TikTok. Además, analizamos las decisiones de moderación de contenidos para entender por qué el contenido infractor puede no haber sido detectado en una etapa anterior, y para identificar las tendencias de contenido no permitido en nuestra plataforma

Por ejemplo, puede que nos demos cuenta de que tenemos que trabajar más en el desarrollo de una tecnología que detecte automáticamente ciertos tipos de potenciales infracciones. En otras ocasiones, podríamos descubrir que necesitamos ofrecer sesiones adicionales de formación específica a nuestros equipos de moderación para ayudar a impulsar una mejor comprensión de ciertas políticas y matices, con el objetivo de mejorar la toma de decisiones correctas durante el proceso de revisión. 

Centrándonos en el bienestar de los empleados

Construir y mantener una experiencia segura para nuestra comunidad es la función más importante de nuestro equipo. A veces, nuestros moderadores pueden tener que revisar contenido potencialmente dañino, lo que hace que sea esencial proporcionarles el apoyo adecuado. Somos conscientes de ello y nos centramos en dar prioridad a la salud, la seguridad y el bienestar de nuestra gente. Proporcionamos a nuestros equipos acceso a programas de bienestar, que incluyen formación, recursos basados en pruebas y asesoramiento profesional. Además, realizamos análisis periódicos para saber cómo podemos seguir mejorando y esperamos poder liderar nuestra industria proporcionando las estructuras de apoyo más ambiciosas y eficaces para nuestros empleados. 

Mientras continuamos nuestro viaje para ayudar a hacer de TikTok un lugar seguro donde la alegría y la creatividad puedan prosperar, estamos deseando compartir más acerca del trabajo que realiza nuestros equipos de Trust & Safety.