Par Cormac Keenan, Head of Trust and Safety


TikTok permet aux utilisateurs de partager leur créativité, leurs expériences et leur passion, tout en divertissant notre communauté. Pour que notre plateforme reste sûre et authentique pour tous, nous supprimons les contenus qui ne respectent pas nos règles. Nous nous efforçons d'être transparents sur ces suppressions avec les créateurs et par le biais de nos rapports sur l'application des Règles Communautaires. Notre nouveau rapport publié aujourd'hui, couvre la période d'avril à juin 2022. Il rend compte des améliorations dans notre lutte contre la désinformation, et nous souhaitons partager un aperçu du travail mené pour réaliser ces progrès.

La désinformation n'est pas un problème nouveau, mais Internet offre une nouvelle voie à un vieux défi. Nous sommes conscients de l'impact que peut avoir la désinformation en érodant la confiance dans la santé publique, les processus électoraux, les faits et la science. Nous nous engageons à faire partie de la solution et nous traitons cela avec le plus grand sérieux. Nous adoptons une approche à plusieurs volets pour l'empêcher de se répandre, tout en valorisant des informations fiables et en investissant dans l'éducation à la culture numérique afin d'anticiper cette problématique, à grande échelle.


Nos règles

Nos règles relatives à l'intégrité visent à promouvoir une expérience authentique et sûre. La section dédiée à la désinformation indique très clairement que nous interdisons tout contenu susceptible d'induire notre communauté en erreur sur des sujets relatifs à la vie civique, à la santé publique ou à la sécurité. Ainsi, nous interdisons la désinformation médicale concernant les vaccins ou le COVID-19, ou les fausses informations sur le processus de vote. Ces règles peuvent s'appliquer à un large éventail de contenus, et c'est volontaire : ces contenus changent constamment, souvent en fonction de ce qui se passe dans le monde.

Outre la suppression des contenus inexacts qui nuisent à notre communauté, nous supprimons également les comptes qui cherchent à induire les utilisateurs en erreur ou à utiliser TikTok pour influencer l'opinion publique de manière trompeuse. Ces activités vont de la création de faux comptes à des efforts plus complexes visant à saper la confiance du public. Ces acteurs ne cessent de faire évoluer leurs tactiques, et nous cherchons continuellement à renforcer nos règles, à mesure que nous détectons de nouvelles catégories de contenus et de comportements trompeurs.


Faire appliquer nos règles

Chez TikTok, nous utilisons une combinaison de technologie et de milliers de professionnels de la sécurité pour faire appliquer nos Règles Communautaires. Afin d'y parvenir efficacement à grande échelle, nous continuons d'investir dans les technologies de signalement et de modération. Nous recourons à la modération automatisée lorsque nos systèmes sont convaincus qu'un contenu enfreint nos règles, afin de pouvoir le supprimer rapidement.

Cependant, la désinformation est un problème à part. Le contexte et la vérification des faits sont essentiels à l'application cohérente et précise de nos règles de lutte contre la désinformation. Ainsi, bien que nous utilisions des modèles d'apprentissage automatique pour aider à détecter les fausses informations potentielles, notre approche consiste aujourd'hui à faire évaluer, confirmer, et le cas échéant supprimer les infractions à nos règles par notre équipe de modération. Nous travaillons avec des modérateurs spécialisés, qui ont reçu une formation approfondie, et ont une expertise et des outils renforcés pour agir sur la désinformation. Cela comprend un accès direct à nos partenaires de vérification des faits qui aident à évaluer l'exactitude du contenu.

Nous comptons plus d'une douzaine de partenaires de vérification des faits dans le monde qui examinent le contenu dans plus de 30 langues. Tous nos partenaires de vérification des faits sont accrédités par l'International Fact-Checking Network en tant que signataires vérifiés du code de principes de l'International Fact-Checking Network. Par précaution, tout contenu en cours de vérification, ou qui n'a pas pu être corroboré, est inéligible au fil "Pour Toi". Si la vérification confirme que le contenu est inexact, nous pouvons supprimer la vidéo de notre plateforme ou la rendre inéligible au fil "Pour Toi".


Afin d'améliorer continuellement la détection et la suppression de fausses informations, nous avons réalisé d'importants investissements cette année, dont notamment :

  • un investissement continu dans les modèles d'apprentissage automatique et une capacité accrue d'itération sur ces modèles, compte tenu de l'évolution rapide de la désinformation;
  • une amélioration de la détection des sons et des visuels trompeurs connus, pour réduire le nombre de contenus modifiés;
  • une base de données de faits déjà vérifiés pour aider les modérateurs à prendre des décisions rapides et précises;
  • un programme de détection proactive en partenariat avec nos vérificateurs de faits qui signalent les nouvelles allégations qu'ils voient sur Internet. Cela nous permet d'identifier ces dernières sur notre plateforme et de supprimer les contenus qui ne respecteraient pas nos règles en la matière. Depuis le lancement de ce programme au trimestre dernier, nous avons identifié 33 nouvelles allégations de désinformation, ce qui a entraîné le retrait de 58 000 vidéos de la plateforme.

L'ensemble de ces investissements a permis d'améliorer immédiatement la détection et la suppression proactive de fausses informations, et de nos règles d'intégrité. Les violations de nos règles en matière d'intégrité et d'authenticité représentent moins de 1 % de l'ensemble des suppressions de vidéos, et parmi les vidéos concernées, 28 % ont enfreint nos règles en matière de désinformation préjudiciable.


Travailler collectivement

Nous sommes convaincus que collaborer avec des experts est essentiel pour relever ce défi. Nous travaillons régulièrement avec nos Comités consultatifs de sécurité, des chercheurs, des organisations de la société civile et des experts en éducation aux médias et à l'information (EMI). Ces collaborations contribuent non seulement à renforcer nos règles et notre connaissance générale des tendances et des problèmes, mais elles nous permettent également de faire émerger les voix fiables au sein de notre application. Ainsi, pour protéger l'intégrité des élections en France par exemple, nous avons créé un espace dédié assurant un accès à des informations fiables et vérifiées sur le processus de vote issues du Gouvernement français, le Conseil constitutionnel et Génération Numérique. Pour soutenir les enjeux de santé publique, les utilisateurs peuvent trouver des informations sur le COVID-19, diffusées par l'Organisation mondiale de la santé et accessibles via des hashtags et des vidéos labellisées.

Nous continuerons de progresser sur les moyens à adopter pour relever ce défi, et nous avons conscience que notre travail sur le sujet ne sera jamais terminé. Pour en savoir plus sur nos efforts pour protéger notre plateforme, visitez notre Centre de transparence.