Safety22 sept 2020
TikTok propone una coalición mundial para proteger a los usuarios de los contenidos nocivos
Por Cormac Keenan, del centro de Trust and Safety para la región EMEA; Arjun Narayan Bettadapur Manjunath, del centro de Trust and Safety para la región APAC y Jeff Collins, del centro de Trust and Safety para la región de las Americas
Hoy publicamos nuestro Informe de transparencia global correspondiente al primer semestre del 2020. En el informe se proporciona información sobre la forma en que trabajamos para mantener a TikTok seguro y estimulante para todos. Para rendir cuentas a nuestra comunidad a medida que generamos confianza a través de la transparencia, compartimos información de manera regular sobre el contenido que eliminamos, incluyendo los discursos de odio, la información errónea y otros temas que violan nuestras Normas de la comunidad y los Términos de servicio. Nuestro compromiso para mantener la seguridad de nuestros usuarios abarca un esfuerzo amplio que también incluye funciones como Family Pairing, la cual creamos para brindar a los padres una mejor coordinación con sus hijos adolescentes; recursos y educación para nuestra comunidad, como nuestro Portal Joven o videos educativos sobre seguridad, y asociaciones que creamos en la industria para colaborar y aprender de otros como la Alianza Mundial HYPERLINK "https://newsroom.tiktok.com/en-us/tiktok-joins-weprotect-global-alliance" \t "_blank" WePROTECT.
Las plataformas sociales y de contenido a menudo se ven desafiadas por la publicación y difusión cruzada de contenido dañino, y esto nos afecta a todos: usuarios, equipos y comunidad en general. A medida que el contenido se mueve de una aplicación a otra, las plataformas a veces se quedan con un enfoque de aleatorio cuando reciben contenido inseguro por primera vez. La tecnología puede ayudar a detectar automáticamente y a limitar mucho, pero no todo, y los moderadores humanos y los equipos de colaboración suelen estar al frente de estos problemas.
Cada esfuerzo individual de una plataforma para proteger a sus usuarios sería más efectivo con ayuda de un enfoque formal y colaborativo para la identificación y notificación tempranas entre las empresas.
Dicha colaboración ya ocurre cuando se trata de contenido que la mayoría de la gente considera peligroso o dañino, como el material de abuso sexual infantil (CSAM). Pero hay una necesidad primordial de trabajar juntos para proteger a la gente del contenido gráfico extremadamente violento, incluyendo el suicidio.
Con ese fin, la jefa interina de TikTok, Vanessa Pappas, envió ayer una carta a los jefes de nueve plataformas sociales y de contenido, para proponerles un Memorándum de entendimiento (MOU) que alentaría a las empresas a advertirse mutuamente sobre la presencia de dicho contenido gráfico violento en sus propias plataformas. Al trabajar juntos y crear un banco con una etiqueta de hash para contenido violento y gráfico, podríamos reducir significativamente las posibilidades de que las personas lo encuentren y sufran el daño emocional que genera ver dicho contenido, sin importar la aplicación que utilicen.
No hay nada más importante para nosotros que la seguridad de nuestra comunidad. Traer alegría y conexión a nuestra comunidad global es nuestro objetivo final, y dar prioridad al bienestar de las personas que participan en dicha comunidad es un fin primordial. Creemos que otras plataformas comparten este mismo objetivo. Tenemos el compromiso de trabajar con otras plataformas en la industria, así como con expertos, académicos y organizaciones sin fines de lucro, conforme desarrollamos un marco y un plan para llevar a cabo esta unión. Nuestros usuarios se lo merecen.
+++++++++++++++++++++++++++++++++++++++
La siguiente carta fue enviada a los responsables de nueve plataformas sociales y de contenido.
Recientemente, las plataformas sociales y de contenido fueron desafiadas una vez más por la publicación y difusión cruzada de contenido suicida explícito que nos afectó a todos, así como a nuestros equipos, usuarios y comunidades en general.
Como cada uno de ustedes, trabajamos arduamente para mitigar su proliferación eliminando el contenido original y sus muchas variantes, y evitando que otros lo vean o compartan. Sin embargo, creemos que cada uno de nuestros esfuerzos individuales para proteger a nuestros propios usuarios y a la comunidad colectiva se vería impulsado de manera significativa con la ayuda de un enfoque formal y colaborativo para la identificación y notificación temprana entre los participantes de la industria sobre contenido gráfico extremadamente violento, incluyendo el suicidio.
Con este fin, nos gustaría proponer el desarrollo cooperativo de un Memorándum de entendimiento (MOU), el cual permitirá que nos notifiquemos rápidamente sobre la publicación de dicho contenido.
Por otra parte, estamos llevando a cabo un análisis exhaustivo sobre los eventos relacionados con el reciente intercambio de contenido suicida, pero es claro que la identificación temprana permite que las plataformas respondan con mayor rapidez para suprimir material violento altamente censurable.
Somos conscientes de la necesidad de que cualquier acuerdo que negociemos debe estar claramente definido con respecto a los tipos de contenido que podría capturar, y que debe ser lo suficientemente flexible como para que cada uno de nosotros se mueva rápidamente para notificarnos sobre lo que sería capturado por el MOU. También sabemos que puede haber limitaciones reglamentarias en todas las regiones que ameriten un mayor compromiso y consideración.
Con este fin, nos gustaría convocar una reunión de nuestros respectivos equipos de Trust and Safety para discutir más a fondo dicho mecanismo, el cual creemos que ayudará a todos a mejorar la seguridad de nuestros usuarios.
Esperamos su respuesta positiva y el trabajo conjunto para proteger a nuestros usuarios y a la comunidad en general.
Atentamente,
Vanessa Pappas
Directora de TikTok
Safety22 sept 2020
Latin America