Par Cormac Keenan, Head of Trust and Safety
La communauté TikTok est diverse et transcende les générations, des adolescents aux grands-parents. Nous développons notre application en prenant en compte ces différentes audiences, en restreignant par exemple certaines fonctionnalités en fonction de l'âge, en proposant à nos utilisateurs des outils pour maîtriser leur contenu, ou en accompagnant les familles avec le mode Connexion Famille. Aujourd'hui, nous annonçons de nouvelles fonctionnalités pour aider les utilisateurs à adapter leurs préférences de visionnage de contenu et leur permettre de continuer à bénéficier d'une expérience sûre et divertissante sur TikTok.
Un nouvel outil pour personnaliser le contenu proposé
L'expérience TikTok est unique, notamment car les utilisateurs ont la possibilité de découvrir de nouveaux centres d'intérêt, créateurs et idées. Aussi, nous développons notre système de recommandation de vidéos "Pour toi" avec pour priorité la sécurité de nos utilisateurs. Certains contenus proposés pourraient provenir d'un créateur avec lequel un utilisateur préfère ne pas engager ou être associé à un centre d'intérêt qu'il ne partage pas. C'est pourquoi, certaines catégories de contenu peuvent être inéligibles au fil "Pour Toi", et les utilisateurs disposent de la fonctionnalité "Pas intéressé" pour ignorer de futures vidéos similaires.
Pour renforcer les possibilités de personnalisation de l'expérience de visionnage de nos utilisateurs, nous introduisons un nouvel outil pour filtrer automatiquement des vidéos en fonction de mots-clés ou hashtags qu'ils ne souhaitent pas voir dans leur fil "Pour Toi" ou d'abonnements - que ce soit parce qu'ils viennent de terminer des travaux et qu'ils ne souhaitent plus voir de tutoriels ou qu'ils veulent voir de moins en moins de recettes car leur goût évolue. Cette fonctionnalité sera disponible pour tous dans les prochaines semaines.
Nos actions pour diversifier nos recommandations
Nous souhaitons jouer un rôle positif dans la vie de nos utilisateurs, et nous nous engageons à proposer un environnement bienveillant où ils se sentent libres de s'exprimer sur une grande diversité de sujets, tout en les protégeant contre de potentiels contenus sensibles. L'année dernière, nous avons commencé à tester de nouvelles façons d'éviter les recommandations en série de contenus similaires sur des thèmes qui, s'ils peuvent convenir sur une vidéo isolée, peuvent potentiellement être problématiques s'ils sont visionnés de façon répétée (ex. exercices physiques intenses; régimes; contenus tristes). Nous avons également testé des façons de reconnaître si notre système peut, par inadvertence, recommander un choix moins large de contenus à un utilisateur.
Grâce à nos tests et itérations aux États-Unis, nous avons renforcé l'expérience de visionnage de nos utilisateurs qui voient désormais moins de vidéos d'affilée sur ces sujets. Au regard de l'important niveau de nuances de ces projets, nous poursuivons nos travaux d'itération. En effet, certains thèmes peuvent comporter à la fois des contenus tristes et encourageants, comme ceux liés à la guérison de troubles alimentaires. Nous formons aussi nos systèmes à intégrer de nouvelles langues afin d'étendre ces tests à de nouveaux marchés dans les prochains mois. Nous voulons que le fil "Pour Toi" de chacun de nos utilisateurs présente une grande diversité de contenus, créateurs et sujets qu'ils apprécient.
Introduction de "Content Levels" pour mieux protéger l'expérience de visionnage
Que les utilisateurs viennent sur TikTok à la recherche d'inspiration culinaire, pour rire après une longue journée de travail, ou découvrir de nouveaux centres d'intérêts sur leur fil "Pour Toi", nous travaillons en permanence à créer une expérience sûre et divertissante. En ce sens, nos Règles Communautaires sont essentielles car elles déterminent les contenus qui sont et ne sont pas acceptés sur notre plateforme. Malgré ces règles, nous comprenons que certains utilisateurs souhaitent éviter certaines catégories de contenus en fonction de leurs préférences personnelles. Ou, que pour les adolescents de notre communauté, certains contenus peuvent traiter de thèmes trop complexes ou destinés à un public plus adulte.
Aussi, nous travaillons à créer un nouveau système de classification de contenu en fonction du niveau de maturité des thèmes. Des systèmes similaires sont utilisés par l'industrie du film, à la télévision ou pour les jeux vidéos, et nous nous appuyons sur ces exemples tout en sachant que nous devons développer une approche unique à TikTok.
Dans les prochaines semaines, nous commencerons à déployer une première version pour éviter que des contenus sur des thèmes jugés pour adultes ne soient pas visionnés par des utilisateurs de moins de 18 ans. Quand nous identifions une vidéo traitant de thèmes complexes ou destinés à un public plus mature, telle qu'une scène fictive trop effrayante ou intense pour de jeunes audiences, un score de maturité lui sera attribuée pour éviter que les utilisateurs de moins de 18 ans ne la visionnent.
La sécurité des jeunes est au coeur de nos priorités, et dans les prochains mois nous déploierons de nouvelles fonctionnalités pour proposer des options de filtres plus précises à toute notre communauté pour qu'ils puissent découvrir plus de contenus qu'ils aiment.
Construire une plateforme adaptée aux besoins de notre communauté globale
Alors que nous continuons de développer et renforcer nos systèmes, nous sommes ravis de pouvoir contribuer aux défis qui s'offrent à toute notre industrie en matière de systèmes de recommandation. Nous reconnaissons aussi que ce que nous essayons d'accomplir est complexe et que nous pourrons commettre des erreurs. Notre seule priorité reste de créer un espace sûr et bienveillant pour tous, et nous continuerons d'être attentifs aux retours de notre communauté et de consulter des experts indépendants, dont notre Comité consultatif européen de sécurité.