Par Cormac Keenan, Head of Trust and Safety, TikTok
Cet article présente le quotidien de nos équipes de sécurité, et fait partie d'une série qui revient sur nos fondamentaux en matière de sécurité.
Chez TikTok, des milliers de collaborateurs s'attachent à faire de notre plateforme un espace sûr pour que notre communauté découvre du contenu divertissant et partage sa créativité. L'équipe Trust and Safety chez TikTok effectue diverses missions pour protéger notre communauté. Alors que nous poursuivons nos efforts en matière de sécurité, nous voulons être transparents sur notre démarche, que nous vous présentons ici.
Élaborer et mettre à jour nos Règles Communautaires
Nos Règles Communautaires définissent un code de conduite commun pour TikTok, elles offrent une meilleure compréhension des comportements qui sont acceptés et ceux qui ne le sont pas pour aider au maintien d'un espace bienveillant. Nos experts Policy sont responsables d'évaluer en permanence ces règles afin de s'assurer que nous puissions à la fois encourager l'expression créative et éviter tous méfaits sur la plateforme.
Ces experts sont très souvent spécialisés sur des thématiques précises - certains grâce à leur expérience au sein de l'industrie technologique, d'autres étant issus de la société civile ou du gouvernement. Leur rôle leur demande de traiter de problématiques complexes et difficiles - par exemple, quelles sont les limites à établir sur le contenu traitant de troubles alimentaires. Grâce à nos travaux avec des experts externes, nous savons que le contenu lié aux troubles alimentaires peut être dangereux, or celui qui traite de la guérison peut réellement avoir un impact positif. Il est donc important que nous prenions en compte ces nuances au fur et à mesure que nous ajustons nos Règles Communautaires.
Détecter de potentiels méfaits et faire appliquer nos règles
Les équipes Product & Process développent nos stratégies et techniques pour que nous puissions détecter de façon plus efficace de potentiels méfaits et faire appliquer nos Règles Communautaires partout dans le monde. Un exemple très concret : l'utilisation de la technologie du "hackage" pour créer un identifiant digital unique d'une image ou d'une vidéo. Conformément aux normes du secteur, cette technologie nous permet de cibler un contenu connu comme inapproprié et de le supprimer plus facilement à plus large échelle. Par exemple, si un contenu est supprimé pour avoir enfreint nos règles sur la protection contre le partage d'images qui exploitent sexuellement les enfants, un identifiant unique nous aiderait à identifier et effacer du contenu similaire, et prévenir de futurs téléchargements.
Comme expliqué dans notre dernier Rapport de Transparence, plus de 80 % des vidéos ayant enfreints nos Règles Communautaires ont été supprimées avant d'avoir été visionnées ne serait-ce qu'une seule fois. Et nous nous engageons à renforcer notre efficacité dans ce domaine. Alors que la technologie nous aide à supprimer des violations évidentes de nos règles, une importante partie de la modération de contenu implique une analyse humaine. Peu importe le jour ou l'heure, si un contenu est signalé, nos équipes sont disponibles et prêtes à agir. Grâce à cette couche additionnelle d'analyse humaine, nous pouvons aussi améliorer nos systèmes d'apprentissage automatique car nos modérateurs font des retours à la technologie. Une démarche qui nous permet de mieux identifier les tendances émergentes sur notre plateforme et d'améliorer nos futures capacités de détection.
Un autre rôle essentiel de notre équipe est d'identifier et d'analyser le contenu pour améliorer en permanence la précision de nos processus de modération. Par exemple, si une vidéo devient populaire, elle peut être vérifiée à nouveau par nos systèmes pour réduire la probabilité que du contenu inapproprié reste sur TikTok. En complément, nous examinons nos décisions de modération pour comprendre comment un contenu inapproprié n'a pas tout de suite été reperé, et pour identifier les tendances émergentes sur notre plateforme qui enfreignent nos règles. Nous pourrions par exemple apprendre que nous devons renforcer nos technologies qui détectent automatiquement certains types de contenus inappropriés. Ou encore, que nous devrions organiser de nouvelles formations ciblées pour nos équipes de modération pour renforcer leur compréhension de certaines règles et nuances. Avec toujours un même objectif : améliorer la prise decision lors du processus d'analyse.
Veiller au bien-être des collaborateurs
Proposer et maintenir un espace sûr et bienveillant pour notre communauté est la principale préoccupation de notre équipe. Parfois, cela implique aussi que nos modérateurs soient amenés à visionner du contenu potentiellement sensibles, et nous nous devons de leur apporter le soutien nécessaire. Nous en sommes pleinement conscients, et nous veillons attentivement à la santé, sécurité et bien-être de nos collaborateurs. Nous mettons à leur disposition des programmes de bien-être, dont des formations et un accompagnement professionnel. En complément, nous organisons régulièrement des études pour comprendre comment améliorer nos politiques internes. Notre ambition est d'être pionnier en la matière en développant les structures de soutien les plus efficaces et ambitieuses pour nos collaborateurs.