TikTok es una plataforma de entretenimiento impulsada por la creatividad, la autoexpresión y el corazón que los creadores ponen al crear contenidos auténticos. Nuestras Normas de la Comunidad establecen y explican el tipo de comportamientos y contenidos que no están permitidos en nuestra plataforma. Cuando una persona infringe nuestras políticas, tomamos medidas sobre su contenido o sobre su cuenta para que podamos mantener nuestra plataforma segura.
La mayoría de los miembros de nuestra comunidad siguen nuestras normas, pero hay una minoría de personas que las infringen en repetidas ocasiones. Por ello, hoy anunciamos un sistema actualizado de control de cuentas para actuar mejor contra los usuarios que reinciden. Creemos que estos cambios nos ayudarán a eliminar de forma más eficaz y rápida las cuentas perjudiciales, al tiempo que promoverán una experiencia más clara y acorde con los valores de TikTok para la mayoría de creadores que siguen nuestras políticas.
¿Por qué estamos actualizando el sistema de control de cuentas?
Nuestro actual sistema de control de cuentas utiliza diferentes tipos de restricciones, como prohibiciones temporales de publicar o comentar, para evitar el abuso de estas funciones y enseñar a los usuarios nuestras políticas con el fin de reducir futuras infracciones. Aunque este enfoque ha sido eficaz para reducir los contenidos nocivos en general, los creadores nos han comentado que, en ocasiones, puede resultar confuso. También sabemos que puede afectar de forma desproporcionada a los creadores que rara vez infringen una política sin saberlo, mientras que puede ser menos eficaz para disuadir a los que la infringen repetidamente. Los usuarios reincidentes tienden a seguir un patrón: nuestro análisis ha revelado que casi el 90% infringe las normas utilizando la misma función de forma sistemática y más del 75% infringe la misma categoría de política repetidamente. Para abordar mejor este problema, estamos actualizando nuestro sistema de control de cuentas con el fin de apoyar a nuestra comunidad de creadores y eliminar de nuestra plataforma a reincidentes.
¿Cómo funcionará el sistema simplificado de control de cuentas?
Con el nuevo sistema, si alguien publica contenido que infrinja alguna de nuestras Normas de la Comunidad, la cuenta acumulará un strike y se eliminará el contenido. Si una cuenta alcanza el máximo de infracciones en una función (por ejemplo, Comentarios, LIVE) o en una política (por ejemplo, intimidación y acoso), será bloqueada permanentemente. Los límites de estas políticas varian en función del potencial de la infracción para causar daño a los miembros de nuestra comunidad. Por ejemplo, puede haber límites más estrictos por infringir nuestra política contra la promoción de ideologías de odio que para compartir spam poco dañino. Seguiremos aplicando prohibiciones permanentes a la primera infracción grave, como promover o amenazar con violencia, mostrar o facilitar material de abuso sexual infantil (CSAM) o mostrar violencia o tortura en el mundo real. Como medida de seguridad adicional, las cuentas que acumulen un gran número de strikes en distintas políticas y funciones también serán bloqueadas permanentemente. Los strikes desaparecerán del registro de una cuenta después de 90 días.
Ayudamos a creadores a comprender el estado de sus cuentas
El objetivo de esta actualización, es aumentar la transparencia en torno a nuestras decisiones de aplicar estas medidas y ayudar a nuestra comunidad a entender mejor cómo seguir nuestras Normas de la Comunidad. Para ayudar aún más a los creadores. En las próximas semanas pondremos habilitaremos nuevas funciones en el Centro de Seguridad, que los creadores podrán encontrar dentro la aplicación. Entre ellas se incluye la página "Estado de la cuenta", en la que los creadores pueden ver fácilmente la situación de su cuenta, y la página "Registros de denuncias", en la que los creadores pueden revisar el estado de las denuncias que han realizado sobre otros contenidos o cuentas. Estas nuevas herramientas se suman a las notificaciones que enviamos si han infringido nuestras políticas, y apoyan la oportunidad que tienen los creadores para apelar las sanciones y hacer que se eliminen los strikes si es que sus pruebas son validadas. También empezaremos a notificar a los creadores si su cuenta está a punto de ser eliminada de forma permanente por no cumplir con nuestras políticas.
Implementamos medidas de moderación consistentes y transparentes
Nos adelantamos un paso más para mejorar la transparencia de nuestras prácticas de moderación a nivel de contenido, así que empezamos a probar una nueva función en algunos mercados que proporcionará a los creadores información sobre cuáles de sus vídeos han sido reportados como no aptos para ser recomendados en la sección Para Ti, les informará el motivo y les dará la oportunidad de apelar.
Nuestro sistema actualizado de control de cuentas se está implantando en todo el mundo. Informaremos a los miembros de la comunidad cuando este nuevo sistema esté disponible. Seguiremos evolucionando y compartiendo los avances en los procesos que utilizamos para evaluar las cuentas y garantizar decisiones precisas sobre el cumplimiento de las normas en nuestra plataforma.