News22 sept. 2020
TikTok propose une coalition internationale pour protéger leurs utilisateurs des contenus dangereux
Par Cormac Keenan, Trust & Safety, EMEA; Arjun Narayan Bettadapur Manjunath, Trust & Safety, APAC; Jeff Collins, Trust & Safety, Americas
Nous avons publié ce matin notre « Rapport de transparence global » pour le premier trimestre 2020.
Ce document détaille les mesures que nous prenons pour que TikTok reste un espace sûr, stimulant et accueillant pour tous les membres de notre communauté.
Nous rendons compte à notre communauté en plaçant la transparence au cœur du lien de confiance que nous construisons avec elle. Nous partageons régulièrement des informations concernant les contenus que nous supprimons de notre plateforme, notamment les discours haineux, la désinformation, ou tout autres sujets qui vont à l'encontre de nos Règles communautaires et de nos Conditions de service.
Pour garantir la sécurité de nos utilisateurs nous avons mis en place de nombreuses initiatives telles que le mode Connexion Famille, créé pour faciliter la coordination entre parents et adolescents ; la création de supports pédagogiques dédiés à notre communauté, comme le portail TikTok pour les jeunes ou nos vidéos de sensibilisation à la thématique de la sécurité en ligne ; l’établissement de partenariats au travers desquels nous collaborons et apprenons auprès d'organisations comme la WePROTECT Global Alliance.
Les plateformes sociales et de contenus sont en permanence confrontées à la publication voire la publication simultanée sur différentes plateformes (cross-posting) de contenus dangereux. Ce problème nous affecte tous, de nos utilisateurs à nos équipes, en passant par notre communauté dans son ensemble. Comme ces contenus transitent d’une application à l’autre, les plateformes se retrouvent parfois face à une situation inédite avec des contenus supprimés et de nouveaux qui apparaissent immédiatement. La technologie nous aide à détecter automatiquement et à restreindre la disponibilité de la plupart d’entre eux, et la modération humaine et les différentes équipes se retrouvent bien souvent en première ligne de ce combat.
Chacune des mesures que les plateformes prennent de leur côté pour assurer la sécurité de leurs utilisateurs gagnerait nettement en efficacité si les acteurs du secteur s’unissaient officiellement en vue d’identifier et de détecter en amont les contenus problématiques.
En pratique, cette collaboration existe déjà pour certains contenus considérés comme dangereux ou nuisible, comme les contenus pédopornographiques. Toutefois, il est tout aussi impératif de travailler de concert pour protéger nos communautés des contenus extrêmement violents ou visuellement explicites, notamment ceux ayant trait au suicide.
Chaque mesure mise en place par une plateforme afin de protéger ses utilisateurs pourrait être plus efficace grâce la mise en place d'une approche collaborative afin d'identifier et de signaler le plus tôt possible entre chaque acteur.
Pour ce faire, notre Directrice par intérim, Vanessa Pappas, a adressé une lettre aux responsables de neuf plateformes sociales ou de contenus dans laquelle elle les invite à établir un Protocole d’accord (Memorandum Of Understanding) qui inciterait les entreprises concernées s’alerter mutuellement de la présence de contenus violents ou visuellement explicites sur leurs plateformes respectives. En travaillant et en créant ensemble une banque de données répertoriant ces contenus, nous pourrions minimiser considérablement le risque de voir nos utilisateurs les visualiser et endurer les souffrances émotionnelles consécutives au visionnage de contenus de ce type et ce, quelle que soit l’application qu’ils utilisent.
Rien n’est plus important à nos yeux que la sécurité de notre communauté. Nous souhaitons les divertir et les connecter les uns les autres où qu'ils se trouvent. Cela implique d’ériger leur bien-être en priorité absolue, et nous sommes persuadés que les autres plateformes partagent cette ambition. Nous nous engageons à travailler avec les différents acteurs du secteur, ainsi qu’avec des experts, universitaires, et organisations à but non lucratif afin d’élaborer un cadre et un plan d’action pour mener à bien ce projet de regroupement.
Nos utilisateurs le méritent.
***
Voici la lettre transmise à 9 responsables de plateformes sociales et de contenus:
Recently, social and content platforms have once again been challenged by the posting and cross-posting of explicit suicide content that has affected all of us – as well as our teams, users, and broader communities.
Like each of you, we worked diligently to mitigate its proliferation by removing the original content and its many variants, and curtailing it from being viewed or shared by others. However, we believe each of our individual efforts to safeguard our own users and the collective community would be boosted significantly through a formal, collaborative approach to early identification and notification amongst industry participants of extremely violent, graphic content, including suicide.
To this end, we would like to propose the cooperative development of a Memorandum of Understanding (MOU) that will allow us to quickly notify one another of such content.
Separately, we are conducting a thorough analysis of the events as they relate to the recent sharing of suicide content, but it's clear that early identification allows platforms to more rapidly respond to suppress highly objectionable, violent material.
We are mindful of the need for any such negotiated arrangement to be clearly defined with respect to the types of content it could capture, and nimble enough to allow us each to move quickly to notify one another of what would be captured by the MOU. We also appreciate there may be regulatory constraints across regions that warrant further engagement and consideration.
To this end, we would like to convene a meeting of our respective Trust and Safety teams to further discuss such a mechanism, which we believe will help us all improve safety for our users.
We look forward to your positive response and working together to help protect our users and the wider community.
Sincerely,
Vanessa Pappas
Head of TikTok
News22 sept. 2020
France