Par Cormac Keenan, Head of Trust & Safety, TikTok

Chez TikTok, nous mettons tout en oeuvre pour proposer un environnement sûr et bienveillant pour que chaque membre de notre communauté puisse exprimer sa créativité et se divertir. Pour maintenir un tel environnement, nous prenons les mesures nécessaires pour retirer les contenus qui enfreignent nos Règles Communautaires, et limitons la visibilité de contenus qui pourraient ne pas convenir à une large audience.

Chaque trimestre, nous partageons des mises à jour sur nos progrès afin de nous responsabiliser. Aujourd'hui, nous présentons notre Rapport d'application de nos Règles Communautaires du quatrième trimestre 2022, qui inclut les mises à jour effectuées pour améliorer la précision et l'efficacité de la modération de contenu sur TikTok.

Modérer à grande échelle

Notre objectif est d'identifier et supprimer le plus rapidement possible les contenus qui enfreignent nos Règles Communautaires, un défi de taille au regard de l'ampleur de TikTok. Aussi, nous concentrons nos efforts sur :

  1. Prioriser la suppression rapide des contenus les plus graves, tels que les contenus caractérisant un abus sexuel sur un enfant, et l'extrémisme violent;
  2. Minimiser la visibilité globale des contenus qui enfreignent nos Règles Communautaires;
  3. Assurer l'exactitude, la cohérence et l'équité pour les créateurs.

Pour nous aider à atteindre ces objectifs, nous déployons une combinaison de technologie automatisée et de modérateurs humains qualifiés qui peuvent prendre des décisions contextuelles sur des sujets nuancés tels que la désinformation, le discours haineux et le harcèlement.

Faire évoluer notre approche

Par le passé, nous avons renforcé la modération en élargissant le volume de contenus à analyser, et en nous efforçant d'identifier et traiter le plus grand nombre possible de contenus non conformes. Bien que cela ait généralement permis d'augmenter le nombre de vidéos supprimées, cette méthode ne nous permettait pas d'atteindre nos objectifs de supprimer en priorité les contenus les plus graves, minimiser le nombre de vues dans son ensemble, et garantir des décisions précises et cohérentes.

Au fur et à mesure que notre communauté a continué à se développer et à s'exprimer, notamment par le biais de nouveaux formats comme des vidéos plus longues, des LIVEs et TikTok Now, notre approche de la modération du contenu a également évolué. Nous concentrons de plus en plus nos efforts sur la prévention de préjudices à travers toutes les fonctionnalités tout en construisant une expérience juste et précise pour nos créateurs.

Dans cette perspective, au cours des derniers mois, nous avons commencé à affiner notre approche de la modération afin de supprimer le plus rapidement les contenus les plus graves, minimiser le nombre de vues des contenus non conformes, et être toujours plus précis. Nous avons amélioré les systèmes qui acheminent les contenus pour être analysés afin qu'ils prennent mieux en compte la gravité du préjudice d'une vidéo (en fonction du type d'infraction potentielle), et son éventuelle portée pour déterminer s'il convient de la supprimer, de la soumettre à un examen humain ou d'adopter une autre ligne de conduite.

Nous utilisons plus fréquemment, et de manière plus transparente, des mesures telles que la restriction de fonctionnalités en fonction de l'âge, l'inéligibilité à la recommandation de certains contenus, et notre nouveau système de classification ("Content Levels") afin de réduire les préjudices en limitant les personnes autorisées à créer ou à voir certains contenus.

Enfin, notre technologie proactive réduit le nombre de contenus à examiner, à mesure qu'elle devient plus sophistiquée et capable de détecter des comptes de spam au moment de l'inscription, ou des contenus dupliqués.

Notre Rapport de Transparence pour le 4ème trimestre 2022

L'impact de ces changements est déjà visible dans les données de notre Rapport d'Application de nos Règles Communautaires du quatrième trimestre. Par exemple, le nombre total de suppressions de contenu a diminué, car nous avons rendu inéligibles à la recommandation dans le fil "Pour Toi" davantage de contenus à faible impact plutôt que de les supprimer complètement. Dans le même temps, la proportion des contenus qui ont été correctement supprimés par automatisation a augmenté au fur et à mesure que nos systèmes devenaient plus précis.

Cette fluctuation est conforme à nos prévisions (nous supprimons systématiquement plus ou moins 1 % des contenus publiés pour infraction à nos règles), et s'inscrit dans le cadre d'un effort concerté visant à renforcer la sécurité de notre communauté et à offrir une expérience plus cohérente à nos créateurs.

Il est possible que de telles fluctuations métriques se poursuivent à mesure que nous continuons de faire évoluer nos systèmes au cours de l'année à venir. Par exemple, nous avons apporté d'importantes améliorations cette année, telles que le déploiement d'une toute nouvelle politique de modération des comptes des utilisateurs TikTok, et de nouvelles Règles Communautaires avec de nouvelles catégories qui seront intégrées dans nos futurs rapports. Nous continuons également d'affiner nos processus de modération, notamment en spécialisant davantage d'équipes de modération de contenu autour de domaines d'expertise.

Alors que nous poursuivons nos efforts pour proposer un espace d'expression créative sûr, inclusif et authentique pour notre communauté mondiale, nous sommes impatients de vous faire part de l'évolution de nos efforts pour prévenir les préjudices.