TikTok è una piattaforma di intrattenimento animata dalla creatività e dalla passione che i creator mettono nell’esprimere se stessi con contenuti autentici. Le Linee Guida della Community stabiliscono e spiegano i comportamenti e contenuti non consentiti in piattaforma. In caso di violazione delle nostre policy, interveniamo sui contenuti e, nei casi previsti, anche sugli account per garantire la sicurezza della piattaforma.

La maggior parte dei membri della community si impegna a rispettare le policy, ma esiste una ristretta minoranza che commette violazioni ripetute senza correggere i propri comportamenti. Per questo motivo, abbiamo deciso di introdurre un aggiornamento nell’applicazione delle regole che disciplinano gli account che ci consente di agire in modo più efficace contro chi viola ripetutamente le nostre regole. Siamo certi che queste modifiche ci aiuteranno a rimuovere in modo più efficiente e rapido i profili ritenuti pericolosi e, al tempo stesso, a promuovere un quadro più chiaro e coerente per la vasta maggioranza di creator che seguono le nostre politiche.

Perché stiamo aggiornando l’attuale sistema di applicazione delle policy

L'attuale sistema per l’applicazione delle policy si basa su diversi tipi di restrizioni - come la sospensione temporanea della possibilità di pubblicare o commentare - per prevenire gli abusi di queste funzionalità ed educare gli utenti sulle policy al fine di ridurre le violazioni future. Sebbene questo approccio si sia rivelato efficace nel ridurre i contenuti dannosi, potrebbe risultare non sempre chiaro per i creator. Ci rendiamo anche conto che può penalizzare eccessivamente quei creator che violano le policy involontariamente e in rari casi, mentre può risultare meno efficace come deterrente contro chi le viola ripetutamente. In particolare questi ultimi, tendono a seguire uno schema: secondo le nostre analisi, quasi il 90% lo fa utilizzando sempre la stessa funzionalità e oltre il 75% viola in maniera ripetuta la stessa categoria di policy. Per affrontare in modo più efficace questo problema, stiamo quindi introducendo un nuovo sistema per applicare le regole agli account con l’obiettivo di supportare la nostra community ed eliminare i “recidivi” dalla piattaforma.

Così il nuovo sistema diventerà più efficiente

Con il nuovo sistema, ogni volta che un utente pubblicherà un contenuto che viola una delle norme delle Linee Guida della Community, l’infrazione verrà registrata sul suo account nel momento in cui il contenuto verrà rimosso. Se un account raggiunge il limite di infrazioni stabilito per una determinata funzionalità (come i commenti o le LIVE) o policy (ad esempio in caso di bullismo o molestie), l’account verrà rimosso in maniera permanente. Le soglie variano secondo il potenziale danno che la rispettiva violazione può causare ai membri della community: per esempio, il limite può essere più restrittivo per le violazioni della politica contro la promozione di ideologie d’odio rispetto alla condivisione di spam poco pericolosi. Per le violazioni più gravi, comprese quelle per chi promuove o minaccia la violenza, mostra o favorisce materiali relativi ad abusi su minori (CSAM), o mostra violenze o torture reali, continueremo a rimuovere definitivamente il profilo già alla prima infrazione. Come ulteriore salvaguardia, verranno rimossi definitivamente anche gli account che accumulano un numero elevato di infrazioni complessive in diverse policy e funzioni. Le infrazioni verranno cancellate dal profilo dopo 90 giorni.

Aiutiamo i creator a capire lo stato del loro account

Queste modifiche intendono favorire una maggiore trasparenza su tutte le nostre decisioni relative all’applicazione delle regole e aiutare la community a comprendere meglio come possono attenersi alle nostre Linee Guida. Come ulteriore supporto ai creator, nelle prossime settimane introdurremo anche nuove funzioni nel Centro Sicurezza che metteremo a loro disposizione nell’app. Tra queste una pagina sullo “stato dell’account” in cui i creator possono visualizzare con facilità la situazione del loro profilo, e una pagina “registro delle segnalazioni” dove possono verificare lo stato delle loro segnalazioni su altri contenuti o account. Questi nuovi strumenti integrano le notifiche che i creator ricevono già quando violano le policy e rafforzano la possibilità di ricorrere contro l’applicazione delle penalizzazioni e farle rimuovere se il ricorso viene accolto. Inizieremo inoltre a inviare una notifica ai creator quando si stanno avvicinando alla soglia limite che porta alla rimozione permanente dell’account.

Decisioni per una moderazione coerente e trasparente

Come ulteriore passo verso una maggiore trasparenza delle nostre pratiche di moderazione rispetto ai contenuti, stiamo iniziando a testare in alcuni mercati una nuova funzione che fornirà ai creator le informazioni riguardanti i loro video identificati come non adatti a essere suggeriti nella sezione "Per Te", spiegando i motivi e dando loro la possibilità di appellarsi contro l’esclusione.

L’aggiornamento è attualmente in fase di implementazione a livello globale. I membri della community riceveranno una notifica quando il sistema sarà disponibile anche per loro. L’evoluzione prosegue, e noi continueremo a condividere i progressi delle procedure che utilizziamo per valutare gli account e assicurare decisioni accurate e proporzionate sul rispetto di tutti i tipi di regole per gli account nella nostra piattaforma.