Theo Bertram, Director of Government Relations and Public Policy, Europe y Cormac Keenan, Head of Trust and Safety, EMEA


Hoy publicamos nuestro Informe Global de Transparencia para el último semestre de 2019 (1 de julio - 31 de diciembre de 2019). Este informe proporciona una visión del volumen y la naturaleza de las solicitudes que recibimos de los organismos encargados de la aplicación de la ley en todo el mundo y cómo respondemos responsablemente a ellas. Para aumentar la transparencia de nuestras prácticas y acciones de moderación de contenidos, hemos ampliado este informe para incluir información sobre nuestro enfoque de aplicación de las políticas y prácticas que mantienen a TikTok como un lugar seguro y auténtico para la expresión creativa. Esto significa que estamos compartiendo por primera vez el volumen global de vídeos retirados por violar nuestras Normas de la Comunidad o los Términos de Servicio, incluyendo los 5 mercados con el mayor volumen de vídeos retirados.


Antecedentes

Publicamos nuestro primer Informe de Transparencia el pasado diciembre, que cubría las solicitudes legales que recibimos y nuestra respuesta a ellas durante la primera mitad de 2019. Estamos publicando estos informes con regularidad y nuestro objetivo es proporcionar más información en futuros informes a medida que continuemos invirtiendo en nuestra infraestructura, mejorando nuestros sistemas de información y desarrollando nuevas políticas, prácticas y asociaciones de seguridad.

Nuestro enfoque de la seguridad  

Alrededor del mundo, decenas de miles de videos se suben a TikTok cada minuto. Con cada video viene una mayor responsabilidad de proteger la seguridad y el bienestar de nuestros usuarios. Como plataforma global, tenemos miles de personas en los mercados donde opera TikTok trabajando para mantener un entorno de aplicaciones seguro para todos. 

Esto incluye nuestros centros de "Trust and Safety" en Dublín, San Francisco y Singapur. Nuestros equipos de seguridad global están formados por profesionales experimentados de la industria cuyas experiencias abarcan producto, política, el cumplimiento legal, la seguridad infantil, ley, la privacidad y las ONG. Estos centros especializados se centran en el fortalecimiento de las políticas, las tecnologías y las estrategias de moderación y en asegurar que complementen tanto la cultura como el contexto local. Nuestros líderes de "Trust and Safety" colaboran estrechamente con los reguladores regionales, los encargados de formular políticas, el gobierno y las agencias de aplicación de la ley en nuestro objetivo por proporcionar el más alto nivel posible de seguridad del usuario. 


Para hacer cumplir nuestras Normas de la Comunidad, utilizamos una combinación de tecnología y moderación de contenido para identificar y eliminar el contenido y las cuentas que no cumplen con nuestros estándares. 

  • La tecnología: Nuestros sistemas marcan automáticamente ciertos tipos de contenido que pueden violar nuestras Normas de la Comunidad, lo que nos permite tomar medidas rápidas y reducir el daño potencial. Estos sistemas tienen en cuenta cosas como patrones o señales de comportamiento para señalar el contenido potencialmente inapropiado.
  • Moderación del contenido: La tecnología de hoy no es tan avanzada como para que podamos confiar solamente en ella para hacer cumplir nuestras políticas. Por ejemplo, el contexto puede ser importante para determinar si cierto contenido, como la sátira, es inapropiado. Como tal, nuestro equipo de cualificados moderadores ayuda a revisar y eliminar el contenido. En algunos casos, este equipo elimina proactivamente el contenido inapropiado en evolución o tendencia, como desafíos peligrosos o desinformación perjudicial. 


Otra forma de moderar el contenido se basa en los informes que recibimos de nuestros usuarios. Tratamos de facilitar a los usuarios la posibilidad de marcar contenidos o cuentas potencialmente inapropiados a través de nuestra función de informes in-app, que permite al usuario elegir de una lista las razones por las que cree que algo podría violar nuestras normas (como la violencia o el daño, el acoso o la incitación al odio). Si nuestros moderadores determinan que hay una violación, el contenido es eliminado.

Seguimos educando a nuestros usuarios sobre las opciones y controles adicionales disponibles para nuestros usuarios compartiendo directamente esa información a través de videos de seguridad y bienestar de la aplicación y en nuestro Centro de Seguridad. En nuestra nueva página web de Transparencia también compartimos más información sobre las medidas que estamos tomando para ayudar a mantener nuestra plataforma segura, detalles sobre las operaciones de nuestra empresa y recursos como nuestras Normas de la Comunidad y los Informes de Transparencia.


Cómo aplicamos nuestras Directrices para la comunidad y los Términos de servicio

En TikTok, fomentamos la expresión creativa, pero también damos prioridad a la protección contra el daño. Tomar medidas con respecto a los contenidos que violan nuestras políticas es una parte fundamental para cumplir con nuestra responsabilidad hacia nuestros usuarios.


En la segunda mitad del año pasado (1 de julio a 31 de diciembre de 2019), eliminamos 49.247.689 vídeos en todo el mundo, lo que supone menos del 1% de todos los vídeos que nuestros usuarios subieron, por violar nuestras Normas de la Comunidad o las Términos del Servicio. Nuestros sistemas captaron y eliminaron proactivamente el 98,2% de esos videos antes de que un usuario los denunciara. Y del total de videos eliminados, el 89.4% fueron retirados antes de que recibieran alguna visita. Nuestro Informe de Transparencia proporciona detalles sobre los mercados con los mayores volúmenes de videos retirados.


A finales del año pasado, comenzamos a desplegar una nueva infraestructura de moderación de contenidos que nos permite ser más transparentes al informar sobre las razones por las que los videos son retirados de nuestra plataforma. En este informe, compartimos una lista desglosada de las categorías de las políticas violadas para los vídeos retirados en el mes de diciembre en relación a esa nueva infraestructura de moderación de contenidos. Ten en cuenta que cuando un vídeo viola nuestras Normas de la Comunidad, se etiqueta con la política o políticas que viola y se retira. Esto significa que el mismo vídeo puede contabilizarse en varias categorías de políticas. Desde entonces, hemos trasladado la mayoría de nuestras lista de revisión de contenidos a nuestro nuevo sistema de moderación de contenidos, y nuestros informes posteriores incluirán datos más detallados para el período completo de cada informe.

Además de eliminar el contenido, seguimos adoptando medidas significativas para promover una plataforma positiva y dar visibilidad a nuestras prácticas. Por ejemplo, este año hemos introducido políticas más sofisticadas; hemos establecido centros mundiales de "Trust and Safety" en Dublín, San Francisco y Singapur; hemos puesto en marcha funciones de seguridad de Modo de sincronización Familiar;  hemos explicado cómo se recomiendan los videos #ForYou; nos hemos unido a la Alianza Global WePROTECT; y hemos anunciado nuestro apoyo a los Principios Voluntarios para contrarrestar la explotación infantil en línea. 


Solicitudes legales de información de los usuarios

Como todas las plataformas de Internet, recibimos solicitudes legales de información de usuarios de agencias gubernamentales de todo el mundo. Toda solicitud de información que recibimos es examinada cuidadosamente para determinar su suficiencia jurídica, por ejemplo, si la entidad solicitante está autorizada a reunir pruebas en relación con una investigación policial o a investigar una emergencia que implique un daño inminente. En el segundo semestre de 2019, recibimos 500 solicitudes de información de 26 países y en nuestro informe se detalla la forma en que respondimos. 


Solicitudes de los gobiernos para la eliminación de contenidos   

De vez en cuando recibimos solicitudes de agencias gubernamentales para eliminar contenido de nuestra plataforma, tales como solicitudes en torno a las leyes locales que prohíben la obscenidad, los discursos de odio, el contenido para adultos y más. Revisamos todo el material de acuerdo con nuestras Normas de la Comunidad, los Términos de Servicio y la ley aplicable y tomamos las medidas apropiadas. Si creemos que un informe no es legalmente válido o no viola nuestros estándares, es posible que no tomemos medidas al respecto contra dicho contenido. Durante la segunda mitad de 2019, recibimos 45 solicitudes de eliminación o restricción de contenido de organismos gubernamentales en 10 países. Nuestro informe incluye más detalles. 


Eliminaciones por infracción de la propiedad intelectual

Nuestras Normas de la Comunidad y Términos del servicio prohíben el contenido que infrinja la propiedad intelectual de terceros. La creatividad de nuestros usuarios es el combustible de TikTok. Nuestra plataforma permite que su auto-expresión brille, y hacemos todo lo posible para protegerla. En la segunda mitad de 2019, evaluamos 1.338 avisos de eliminación de contenido con derechos de autor, y nuestro informe muestra cómo respondimos. 


Mirando hacia el futuro

A medida que nuestra joven compañía continúa creciendo, nos comprometemos a tomar un enfoque responsable para construir nuestra plataforma y moderar el contenido. Trabajamos cada día para ser más transparentes sobre el contenido violento que retiramos y ofrecemos a nuestros usuarios formas significativas de tener más control sobre su experiencia, incluyendo la opción de apelar si nos equivocamos. Seguiremos desarrollando nuestro Informe de Transparencia para dar mayor visibilidad a nuestras prácticas y acciones, y para abordar las opiniones que recibimos de nuestros usuarios y de las partes interesadas externas. 

Además, estamos en camino de abrir nuestros Centros de Transparencia global en Los Ángeles y Washington, D.C. este año. Estos centros ofrecerán a los expertos y a los responsables de la creación de políticas la oportunidad de ver de primera mano cómo nuestros equipos abordan el desafiante y críticamente importante trabajo de moderar el contenido de TikTok.

Nuestro objetivo final es mantener TikTok como un lugar inspirador y alegre para que todos los usuarios puedan crear.