di Cormac Keenan, Head of Trust and Safety

La varietà della community TikTok trascende le generazioni e spazia dagli adolescenti ai nonni, abbracciando tutte le età. È tenendo presenti questi pubblici così diversi che sviluppiamo la piattaforma, limitando le funzioni in base all’età e dando ai membri della community il controllo sui contenuti, oltre a supportare le famiglie con strumenti di controllo famigliare. E oggi annunciamo nuove funzioni e tecnologie che aiuteranno gli utenti a personalizzare le preferenze di visualizzazione, continuando a vivere su TikTok un’esperienza sicura e divertente.

Un nuovo strumento per personalizzare i contenuti

Tra gli aspetti che rendono unica l’esperienza su TikTok spicca la possibilità di scoprire nuovi interessi, creator e idee. Abbiamo strutturato il nostro sistema di suggerimenti avendo la sicurezza come primo obiettivo, poiché alcuni contenuti nella sezione Per Te possono provenire da un creator con cui preferite non interagire, o riferirsi a un interesse che non condividete. Per esempio, determinate categorie di contenuti possono essere già escluse dai suggerimenti mentre potete utilizzare la funzione “Non mi interessa” per saltare automaticamente in futuro video simili a quello che state guardando.

Per offrire modalità ancora più efficaci di personalizzare l'esperienza di visualizzazione, stiamo rilasciando gradualmente uno strumento per filtrare automaticamente dalle sezioni Per Te e Seguiti i video contenenti termini o hashtag che non si desidera vedere. Se avete appena finito di risistemare casa, e non volete vedere altri tutorial di fai da te, o se state pensando di passare alle alternative vegetali e non avete più voglia di vedere ricette con carne o latticini, vi potrà aiutare questa funzione che sarà disponibile per tutti gli utenti nelle prossime settimane.


Un aggiornamento sul nostro impegno a diversificare i suggerimenti

Il nostro obiettivo è quello di avere un impatto positivo nelle vite delle persone che utilizzano la nostra app. Ecco perché ci impegniamo a favorire lo sviluppo di un ambiente in cui tutti possono esprimersi su una varietà di argomenti, proteggendo allo stesso tempo gli utenti da esperienze visive che potrebbero essere di disturbo o provocatorie. A questo scopo, l’anno scorso abbiamo iniziato a testare modalità per prevenire i suggerimenti di una serie di contenuti simili su argomenti che non hanno impatti negativi, se visti una sola volta, ma diventano potenzialmente problematici se visualizzati più volte, ad esempio tematiche relative a diete, fitness estremo, tristezza e altri argomenti correlati al benessere. Stiamo anche testando dei modi per riconoscere se il nostro sistema può inavvertitamente consigliare una gamma più ristretta di contenuti a uno spettatore.

Grazie ai risultati alle serie di test svolti negli Stati Uniti, abbiamo migliorato l’esperienza di visualizzazione e ora vedrete meno video su questi argomenti in una stessa sessione – stiamo ancora lavorando su questo aspetto date le diverse sfumature che un argomento può avere. Per esempio, alcuni tipi di contenuti possono trattare di un argomento triste ma incoraggiante allo stesso tempo, come le storie di guarigione dai disordini alimentari. Stiamo inoltre testando i nostri sistemi a supportare nuove lingue, in modo da ampliare i test ad altri mercati nei prossimi mesi. Il nostro obiettivo è che la sezione Per Te di ciascuno di voi presenti un’ampiezza di contenuti, creator e argomenti che possiate sempre apprezzare.

Content Levels, un ulteriore contributo alla salvaguardia dell’esperienza di visualizzazione

Chi viene su TikTok può cercare ispirazione per una ricetta, vuole farsi un po’ di risate dopo una lunga giornata di lavoro, o scoprire nuovi interessi grazie ai Per Te: in ogni caso, noi creiamo costantemente un’esperienza di visualizzazione sicura e piacevole. Le Linee Guida della Community sono un elemento centrale di questa attività, perché stabiliscono gli standard di ciò che è o non è consentito sulla piattaforma. Nell'ambito di queste politiche rigorose, comprendiamo che le persone possano voler evitare alcune categorie di contenuti in base alle loro preferenze personali. Inoltre, per i membri adolescenti della nostra community, alcuni contenuti possono contenere temi maturi o complessi che possono riflettere esperienze personali o eventi del mondo reale che sono destinati a un pubblico più adulto.

Ecco perché stiamo lavorando alla realizzazione di un nuovo sistema per organizzare i contenuti sulla base della maturità dei temi. Sistemi simili saranno familiari a molti di voi perché vengono già utilizzati nel cinema, la televisione e i videogiochi. Ci stiamo lavorando tenendo presenti questi esempi e, allo stesso tempo, sapendo che dobbiamo sviluppare un approccio unico per TikTok.

Nelle prossime settimane cominceremo a introdurre una prima versione che contribuirà a evitare che contenuti con tematiche chiaramente mature vengano presentati a pubblici minori di 18 anni. Quando rileviamo un video con contenuti maturi o complessi, ad esempio scene di finzione troppo spaventose o intense per un pubblico più giovane, al video verrà assegnato un punteggio di maturità che aiuta a prevenire la visione da parte di utenti minori di 18 anni. Ci stiamo concentrando innanzitutto su ulteriori salvaguardie per gli adolescenti e, nei prossimi mesi, prevediamo di aggiungere nuove funzionalità di filtro dei contenuti per tutta la nostra community, in modo che tutti possano visuallizare sempre più contenuti che amano.


Una crescita che risponde alle esigenze della nostra community globale

Speriamo che il nostro lavoro di sviluppo aiuti l’intero settore ad affrontare le sfide che da tempo gli si presentano in termini di proposte per pubblici variegati e sistemi di suggerimento. Allo stesso tempo, ci rendiamo conto che si tratta di un obiettivo complesso da raggiungere e che possono essere commessi degli errori. Durante il processo, il nostro obiettivo principale rimane creare l’esperienza più sicura e piacevole possibile per la nostra community e per questo continueremo ad ascoltare le osservazioni della nostra community e a consultare esperti indipendenti, compreso il nostro European Safety Advisory Council.