Par Theo Bertram, Director of Government Relations and Public Policy, Europe et Cormac Keenan, Head of Trust and Safety, EMEA


Aujourd'hui, nous publions notre Rapport de Transparence global pour le second semestre 2019 (du 1e juillet au 31 décembre 2019). Ce rapport met en avant des données concernant le volume et la nature des demandes reçues de la part des autorités publiques à travers le monde et la façon dont nous y avons répondu de manière responsable. Afin d'être toujours plus transparent tant dans nos pratiques que dans nos actions de modération, nous avons complété ce rapport pour y inclure des informations concernant notre approche pour renforcer nos règles et pratiques qui permettent de maintenir un environnement sûr et authentique, un lieu d'expression créative. 

Ainsi, nous partageons et pour la première fois, le volume global de vidéos supprimées pour avoir enfreint nos Règles Communautaires et Conditions de Services, avec notamment la liste des 5 marchés avec le plus grand volume de contenu retiré.  


Contexte

Nous avons publié notre premier Rapport de Transparence en décembre dernier, qui couvrait les demandes légales que nous avons reçues et notre réponse à celles-ci au cours du premier semestre 2019. Nous publions ces rapports régulièrement et prévoyons de fournir plus d'informations dans les prochains rapports tout en continuant à investir dans notre plateforme, améliorer nos systèmes de rapports et élaborer de nouvelles politiques, pratiques et partenariats en matière de sécurité.


Notre approche de la sécurité

Partout dans le monde, des dizaines de milliers de vidéos sont téléchargées sur TikTok chaque minute. Ainsi, la responsabilité de préserver la sécurité et le bien-être de nos utilisateurs est d’autant plus grande. En tant que plateforme mondiale, des milliers de personnes présentes sur chacun de nos marchés oeuvrent pour maintenir un environnement sûr et sécurisé pour tous. 

Parmi elles, nos équipes Sécurité et Protection des données de nos hubs de Dublin, San Francisco et Singapour. Notre équipe de sécurité globale est constituée de professionnels expérimentés issus de domaines tels que le produit, le législatif, la conformité, la protection des enfants, le droit, la protection de la vie privée ou bien d'organisations non gouvernementales. 

Ces hubs sont dédiés au renforcement de nos politiques, technologies et stratégies de modération et s'assurent qu'elles viennent en complément de la culture locale et du contexte. Les responsables Sécurité et Protection des données collaborent de façon étroite avec les régulateurs locaux, législateurs, gouvernements, les services de police et judiciaires afin de proposer les plus hauts standards de protection des utilisateurs qui soient. 

Pour renforcer nos Règles Communautaires, nous avons mis en place une combinaison de technologie et de modération de contenu afin d'identifier, supprimer tout contenu ou compte qui irait à l'encontre de nos règles.

  • Technologie : nos systèmes identifient et signalent automatiquement les contenus susceptibles d’enfreindre nos Règles Communautaires, ce qui nous permet d’agir rapidement et de réduire les préjudices potentiels. Ces systèmes prennent en compte des modèles tels que des signes comportementaux qui permettent de signaler un contenu potentiellement violent. 
  • Modération de contenu : Aujourd'hui, la technologie n'est pas suffisamment avancée pour s'appuyer uniquement sur elle afin de renforcer nos règles. Par exemple, le contexte est important lorsqu'il est nécessaire de déterminer si un contenu, comme la satire, va à l'encontre des règles définies. Notre équipe de modérateurs aide à vérifier et à supprimer du contenu. Cette équipe peut également supprimer de façon proactive des contenus et tendances qui iraient à l'encontre de nos règles comme par exemple des challenges dangereux ou de fausses informations qui pourraient générer des situations à risque. 

Les signalements transmis par nos utilisateurs nous permettent aussi de modérer les contenus. Nous nous efforçons de faciliter le signalement de contenus et de comptes susceptibles d'être inappropriés grâce à la fonction de signalement intégrée à l'application. Lors du signalement les utilisateurs sélectionnent la raison pour laquelle ils estiment qu'une vidéo ou un compte est contraire aux Règles Communautaires (par exemple, violence, préjudice, harcèlement, discours haineux). Si nos modérateurs déterminent qu'un contenu n'est pas en accord avec nos règles, il est supprimé.

De plus, nous sensibilisons régulièrement nos utilisateurs aux options de sécurité et de bien-être digital à leur disposition via des formats vidéo diffusés sur l'application et le Centre de sécurité. Dans la partie "Rapport de Transparence" de notre site web, nous partageons également plus d'informations sur les mesures que nous prenons pour assurer la sécurité de notre plateforme, des informations concernant notre entreprise et des ressources telles que nos Règles Communautaires et nos Rapports de Transparence.


Applications de nos règles communautaires et nos conditions d'utilisation

Chez TikTok, nous célébrons l'expression créative, mais notre priorité est également la sécurité des utilisateurs. Prendre des mesures concernant un contenu qui ne respecte pas nos politiques est un élément essentiel pour assumer pleinement notre responsabilité envers nos utilisateurs.

Durant le second semestre 2019 (du 1er juillet au 31 décembre 2019), nous avons retiré 49,247,689 vidéos dans le monde, soit moins de 1 % des vidéos créées par nos utilisateurs. Elles l'ont été pour non-respect de nos Règles Communautaires ou de nos Conditions de Services. Nos systèmes ont détecté et supprimé de manière proactive - avant tout signalement par l'un de nos utilisateurs - 98,2 % de ces vidéos. De plus, 89,4 % de ces vidéos ont été supprimées avant d'être visionnées. Notre Rapport de Transparence fournit des informations sur les marchés avec le plus grand nombre de vidéos supprimées.

Outre la suppression de contenu, nous continuons de prendre des mesures significatives pour promouvoir une plateforme positive et offrir une plus grande visibilité sur nos pratiques. Cette année, nous avons par exemple : 


Demandes légales d'informations concernant les utilisateurs

Comme toutes les plateformes, nous recevons des demandes légales d'informations concernant nos utilisateurs provenant d’autorités publiques. Toute demande d'informations est soigneusement examinée pour déterminer si elle est juridiquement recevable et déterminer, par exemple, si l'entité requérante est autorisée à collecter des preuves dans le cadre d’une enquête des autorités judiciaires ou à enquêter sur une situation d'urgence impliquant un danger imminent. Au cours du second semestre 2019, nous avons reçu 500 demandes d'informations légales de 26 pays. Notre rapport présente comment nous y avons répondu.


Demandes gouvernementales de suppression de contenu

Il nous arrive de recevoir des autorités publiques des demandes de retrait de contenu de notre plateforme comme par exemple concernant des législations locales interdisant les comportements obscènes, les discours haineux, des contenus d'adulte, etc... Nous examinons ces éléments conformément à nos Règles Communautaires, à nos Conditions de Services, ainsi qu'à la législation en vigueur et prenons la décision adaptée. Si nous pensons qu'un signalement n'est pas légalement recevable ou ne va pas à l'encontre de nos standards, nous ne prenons aucune mesure.

Au cours du second semestre 2019, nous avons reçu 45 demandes de retrait ou de restriction de contenu qui provenaient d'entités gouvernementales de 10 pays. Vous trouverez plus d'information dans notre rapport.


Atteinte à la propriété intellectuelle

Nos règles communautaires et nos conditions d'utilisation interdisent le contenu qui porte atteinte à la propriété intellectuelle de tiers. TikTok repose sur la créativité de nos utilisateurs. Notre plateforme leur permet de s'exprimer en toute liberté et faisons tout pour la protéger. Au second semestre 2019, nous avons étudié 1338 avis de retrait de contenu liés à des questions de droits d'auteur. Notre rapport montre comment nous y avons répondu.


Cap sur l’avenir

Alors que notre jeune entreprise continue de se développer, nous nous engageons à adopter une approche responsable pour parfaire notre plateforme et en modérer le contenu. 

Nous nous efforçons chaque jour d’être plus transparents sur le contenu inapproprié que nous supprimons et d’offrir à nos utilisateurs des moyens significatifs pour mieux contrôler leur expérience, y compris la possibilité de faire appel si nous commettons une erreur. Nous continuerons à faire évoluer notre Rapport de Transparence pour offrir une plus grande visibilité sur nos pratiques et nos actions, et pour répondre aux besoins de nos utilisateurs et des parties prenantes externes.

De plus, cette année, nous ouvrirons nos centres dédiés à la transparence à Los Angeles et Washington. Ces centres offriront aux invités, qu'ils soient experts ou législateurs, l'occasion de voir pour la première fois comment nos équipes accomplissent la lourde et cruciale tâche de modération du contenu sur TikTok. 

Notre objectif ultime est de faire en sorte que TikTok reste une plateforme d’expression créative, sûre, positive et inclusive.