Par Julie de Bailliencourt, Global Head of Product Policy, TikTok

TikTok est une plateforme de divertissement, et nous valorisons l'incroyable créativité et authenticité des contenus de nos créateurs. Nos Règles Communautaires indiquent très clairement les comportements et contenus qui ne sont pas autorisés sur notre plateforme. Dès lors qu'un utilisateur enfreint nos règles, nous prenons des mesures à l'encontre de son contenu, et si nécessaire, de son compte afin de garantir la sécurité de TikTok.

La plupart des membres de notre communauté s'efforcent de respecter nos règles, mais il existe une minorité de personnes qui les enfreignent de façon répétée et dont le comportement n'évolue pas. Aujourd'hui, nous annonçons une mise à jour de la façon dont nous faisons appliquer nos Règles Communautaires, pour mieux agir contre les utilisateurs qui enfreignent nos règles de façon répétée. Nous pensons que ces changements nous aideront à être plus efficaces, et à supprimer plus rapidement les comptes nuisibles, tout en favorisant une expérience plus claire et cohérente pour la grande majorité des créateurs qui suivent nos règles.

Pourquoi nous mettons à jour notre politique actuelle

Notre politique actuelle s'appuie sur différents niveaux de restrictions, telles que des interdictions temporaires de publier ou commenter, pour empêcher l'utilisation abusive de nos fonctionnalités tout en sensibilisant les utilisateurs à nos règles afin de limiter les violations futures. Si cette approche a été efficace pour réduire le nombre de contenus inappropriés, de nombreux créateurs ont pu nous partager leur difficulté à bien la comprendre. Nous savons aussi qu'elle peut impacter de façon disproportionnée des créateurs qui enfreignent très rarement, et sans le savoir, l'une de nos Règles Communautaires, et être moins efficace pour dissuader ceux qui le font de manière répétée et volontaire. Ces derniers suivent généralement un même schéma : notre analyse a montré que près de 90 % des contrevenants utilisent la même fonctionnalité, et que plus de 75 % enfreignent la même catégorie de nos règles.

Pour adresser cet enjeu, nous mettons à jour notre politique d'application de nos Règles Communautaires concernant les comptes d'utilisateurs, afin de mieux soutenir notre communauté de créateurs et supprimer les comptes des utilisateurs qui les enfreignent de façon répétée.

Comment fonctionnera notre nouvelle politique

Avec notre nouveau système, si quelqu'un publie un contenu qui enfreint l'une de nos Règles Communautaires, le contenu en question sera supprimé et leur compte recevra une pénalité. Si un compte atteint le seuil maximal de pénalités, soit pour une même fonctionnalité produit (Commentaire, LIVE par exemple), ou catégorie de nos Règles Communautaires ("Intimidation et Harcelement" par exemple), il sera banni définitivement de la plateforme.

Ces seuils peuvent varier en fonction de la dangerosité d'une infraction pour notre communauté : par exemple, il peut y avoir une limite plus stricte pour les violations de nos règles en matière d'idéologies haineuses, que pour le partage de spam. Aussi, nous continuerons à appliquer des suppressions permanentes de comptes dès la première pénalité pour des infractions graves, dont la promotion ou les menaces de violence, l'exploitation sexuelle de mineurs, ou le partage d'actes de violence ou de torture dans le monde réel.

Par précaution, les comptes détenant un nombre important de pénalités sur plusieurs fonctionnalités et Règles Communautaires seront aussi supprimés de façon définitive de la plateforme.

Les pénalités expireront du dossier d'un compte après 90 jours.

Aider les créateurs à comprendre le statut de leur compte

Ces changements doivent permettre de renforcer la transparence sur la façon dont nous appliquons nos Règles Communautaires, et aider les utilisateurs à mieux les respecter. Dans cette perspective, nous développons de nouvelles fonctionnalités sur la page de notre Centre de Sécurité, disponible directement depuis l'application. Il s'agit notamment d'une page sur le "Statut du Compte" où les créateurs pourront voir plus simplement l'état de leur compte, et d'une page "Signalements enregistrés" où ils pourront voir le statut des signalements qu'ils ont pu effectuer.

Ces nouveaux outils s'ajoutent aux notifications que les créateurs reçoivent déjà s'ils enfreignent nos règles, et facilitent leur possibilité de faire appel s'ils estiment que ces pénalités ne sont pas justifiées. Nous allons également commencer à notifier les créateurs s'ils sont sur le point de se faire bannir définitivement de l'application.

Prendre des décisions de modération plus cohérentes et transparentes

Afin de renforcer la transparence de nos pratiques de modération, nous allons également commencer à tester une nouvelle fonctionnalité, dans certains marchés, qui informera les créateurs si leurs vidéos qui ont été marquées comme inéligibles au fil "Pour Toi", les raisons, et l'opportunité de faire appel. 


La mise à jour de notre politique en matière de modération des comptes d'utilisateurs est actuellement en cours de déploiement. Nous préviendrons les membres de notre communauté lorsque ce nouveau système sera disponible, ainsi que des informations complémentaires sur notre Centre d'aide. Nous continuerons de faire évoluer et de partager les progrès obtenus par les processus que nous utilisons pour évaluer les comptes et assurer une application cohérente et nuancée de nos règles de modération.