Par Cormac Keenan, Head of Trust & Safety, TikTok

Chez TikTok, nous pensons que le respect, la bienveillance et la compréhension des autres doivent être le socle de notre communauté. Pour aider nos utilisateurs à développer des liens positifs, dans le respect de nos Règles Communautaires, nous veillons à leur permettre de contrôler autant que possible leurs interactions sur TikTok. Aujourd'hui, nous annonçons de nouvelles initiatives qui viennent renforcer la sécurité de notre communauté et favoriser la bienveillance sur TikTok, ainsi que les derniers résultats de notre Rapport d'application de nos Règles Communautaires.

Favoriser des engagements authentiques sur TikTok

En complément de nos efforts pour supprimer proactivement des contenus abusifs, ou des comportements qui enfreignent nos Règles Communautaires, nous continuons d'explorer de nouvelles façons d'aider notre communauté à mieux contrôler les commentaires. Nous testons une nouvelle solution pour permettre aux utilisateurs d'identifier des commentaires qu'ils jugeraient inappropriés. Ces retours de notre communauté viendront compléter les différents facteurs que nous utilisons déjà pour faire de la section dédiée aux commentaires un espace pertinent et d'engagements authentiques. Pour éviter de créer des tensions entre les membres de notre communauté ou de démoraliser les créateurs, seule la personne qui aura déposé un avis négatif sur un commentaire pourra le voir.

De nouveaux rappels de sécurité pour les créateurs

Pour aider notre communauté à trouver et utiliser facilement nos outils de sécurité, nous expérimentons des rappels avec des indications pour guider les créateurs vers nos solutions de filtres de commentaires et de suppression groupée. Ces rappels seront envoyés aux créateurs dont les vidéos auraient reçu une importante proportion de commentaires négatifs. En parallèle, nous continuerons de supprimer les commentaires qui enfreignent nos Règles Communautaires, et d'encourager les créateurs à signaler les commentaires ou comptes, un par un ou de façon groupée, pour que nous les analysions.

Nous partagerons les résultats de ces tests et si ces fonctionnalités seront entièrement mises en place dans les prochaines semaines. Ces travaux s'ajoutent aux nombreux outils qui sont déjà à la disposition de notre communauté. Par exemple, les utilisateurs peuvent décider de filtrer tous les commentaires pour un examen manuel, ou en fonction de certains mots-clés qu'ils auraient précedemment indiqués. Les créateurs peuvent également décider qui peut commenter leurs contenus, de "Tout le monde", "Amis" (les abonnés qu'ils suivent également) à "Personne". L'option "Tout le monde" n'étant pas disponible aux utilisateurs de moins de 16 ans.

Faire appliquer nos Règles Communautaires

Supprimer les contenus qui enfreignent nos Règles Communautaires est une part importante de notre travail pour protéger notre plateforme. Aujourd'hui, nous publions notre Rapport d'application de nos Règles Communautaires pour le 4ème trimestre 2021 (octobre - décembre). Il témoigne de notre engagement à gagner la confiance de notre communauté en faisant preuve de transparence quant à nos efforts pour faire de TikTok un espace sûr et bienveillant.

Nous avons continué d'enrichir les informations disponibles dans chaque rapport, et depuis début 2021 nous indiquons le volume des contenus supprimés à "zero vue", les comptes supprimés dans le doute qu'ils appartiendraient à des utilisateurs de moins de 13 ans, et les faux engagements. Avec ce nouveau rapport, nous allons désormais apporter de la visibilité sur les contenus supprimés dans plus de marchés, et les améliorations de nos systèmes qui visent à détecter, identifier, et dans certains cas, supprimer des contenus inappropriés. Ces investissement nous ont aidé à améliorer de façon conséquente la rapidité avec laquelle nous identifions et supprimons les violations pour harcèlement et intimidation, et comportements haineux en particulier.

Depuis notre premier rapport de l'année 2021, nous avons progressé sur notre capacité à supprimer des contenus avant qu'ils ne soient visionnés par une seule personne. Par exemple, entre le premier et quatrième trimestre 2021, les suppressions avec zero vue de contenus pour harcèlement et intimidation ont augmenté de 14,7 %, de 10,9 % pour les comportements haineux, 16,2 % pour les contenus violents extremistes, et 7,7 % pour suicide, actes dangeureux et auto-mutilation.

Protéger notre communauté est un engagement du quotidien, et notre rapport témoigne des progrès réalisés pour assurer la sécurité et le bien-être de nos utilisateurs.