di Theo Bertram, Director of Government Relations and Public Policy, Europe e Cormac Keenan, Head of Trust and Safety, EMEA

Pubblichiamo oggi il nostro Rapporto sulla Trasparenza relativo alla seconda metà del 2019 (1° luglio– 31 dicembre 2019). Questo report analizza l’entità e la natura delle richieste che riceviamo dalle autorità di tutto il mondo e il nostro approccio responsabile alle risposte. Per incrementare la trasparenza sulle nostre pratiche e azioni di moderazione dei contenuti, abbiamo ampliato il report includendo informazioni su come applichiamo le policy e pratiche che mantengono TikTok un luogo sicuro e autentico, dove esprimere la propria creatività. Questo significa che comunichiamo per la prima volta anche il numero di video rimossi a livello globale per violazione delle nostre Linee Guida della Community o dei Termini di Servizio, compresi i 5 paesi con la maggiore quantità di video rimossi.

Background

Lo scorso dicembre abbiamo pubblicato il nostro primo Transparency Report, che conteneva le richieste legali ricevute durante la prima metà del 2019 e la relativa risposta. Stiamo pubblicando questi report a cadenza regolare e prevediamo di fornire ancora più informazioni in quelli a venire: l’investimento nella nostra infrastruttura è in aumento, miglioriamo i nostri sistemi di rendicontazione e sviluppiamo nuove policy, pratiche e collaborazioni mirate alla sicurezza.

Il nostro approccio alla sicurezza 

In tutto il mondo, ogni minuto vengono caricate su TikTok decine di migliaia di video. Ogni video comporta per noi una crescente responsabilità per proteggere la sicurezza e il benessere digitale dei nostri utenti. In qualità di piattaforma globale possiamo contare su migliaia di persone, nei paesi in cui TikTok è presente, che lavorano per mantenere la piattaforma un luogo sicuro e protetto per tutti. 

Tra queste, i nostri professionisti che operano presso i Trust & Safety hub di Dublino, San Francisco e Singapore. Del nostro team globale dedicato alla sicurezza fanno parte esperti del settore con una formazione che spazia da prodotto a policy, compliance, sicurezza dei minori, diritto, privacy e ONG. Questi centri sono focalizzati al rafforzamento delle policy, delle tecnologie e delle strategie di moderazione, per assicurare che ci sia integrazione con il contesto e la cultura locali. I nostri responsabili che operano nei centri Trust & Safety collaborano a stretto contatto con le autorità locali, i decisori politici, i governi e le forze dell'ordine con l'intento di assicurare il più alto standard di sicurezza possibile per gli utenti.

Con l’obiettivo di rafforzare le nostre Linee Guida della Community, per individuare e rimuovere i contenuti e gli account che non soddisfano i nostri standard, utilizziamo una combinazione di tecnologia e moderazione umana. 

  • Tecnologia: I nostri sistemi contrassegnano automaticamente i contenuti che potrebbero violare le Linee Guida e questo ci consente di intervenire rapidamente per minimizzare le possibili conseguenze. Per contrassegnare i contenuti che rappresentano una potenziale violazione, questi sistemi prendono in considerazione aspetti quali schemi o segnali comportamentali.
  • Moderazione di contenuti: a oggi la tecnologia non è ancora così avanzata da permetterci di fare affidamento solo su questa per l’applicazione delle nostre policy. Il contesto può essere importante per determinare se un contenuto, ad esempio satirico, rappresenta effettivamente una violazione. Il nostro team di moderatori, appositamente formati, contribuisce a revisionare e rimuovere i contenuti. In alcuni casi, il team rimuove in modo proattivo contenuti in evoluzione o di tendenza che rappresentano potenziali violazioni, come le challenge pericolose o la disinformazione che può causare danni. Un altro modo di moderare i contenuti si basa sulle segnalazioni ricevute dai nostri utenti. Cerchiamo di rendere semplice segnalare i contenuti o gli account potenzialmente inappropriati attraverso l’apposita funzione inclusa nell’app, che consente a un utente di selezionare da una lista la ragione per cui ritiene che il contenuto violi le Linee Guida (come violenza o offesa, molestie, o discorsi di incitamento all’odio). I moderatori valutano il contenuto segnalato e verificano se effettivamente viola le Linee Guida o i Termini di Servizio e, in questo caso, lo rimuovono.

Continuiamo, inoltre, a informare i nostri utenti sulle opzioni e i controlli aggiuntivi a loro disposizione, attraverso i video sulla sicurezza e sul benessere digitale presentati nell’app e nel nostro Centro Sicurezza.

Come applichiamo le Linee Guida della Community e i Termini di Servizio

In TikTok, incoraggiamo le espressioni di creatività ma diamo anche priorità alla protezione da potenziali danni. Intervenire sui contenuti che violano le nostre policy è un aspetto essenziale della nostra responsabilità verso gli utenti.

Nel secondo semestre dello scorso anno (1°luglio – 31 dicembre 2019), a livello globale abbiamo rimosso per violazione delle Linee Guida o dei Termini di Servizio 49.247.689 video, meno dell’1% di quelli caricati dai nostri utenti. I nostri sistemi hanno intercettato e rimosso in modo proattivo il 98,2% dei video prima che venissero segnalati da un utente, l’89,4% dei quali prima che fossero visualizzati anche una sola volta. Il Transparency Report fornisce inoltre dettagli sui paesi con il maggior numero di video rimossi.

Alla fine dell’anno scorso abbiamo iniziato a implementare una nuova infrastruttura di moderazione dei contenuti che ci consente maggiore trasparenza nel segnalare le ragioni per cui i video vengono rimossi dalla nostra piattaforma. Nel report presentiamo i dati suddivisi per categoria di violazione relativi ai video rimossi con la nuova infrastruttura nel mese di dicembre. Da notare che un video rimosso perché viola le Linee Guida della Community può venire contrassegnato per più policy e quindi essere conteggiato in più categorie. Da dicembre abbiamo trasferito la maggior parte delle nostre code di revisione dei contenuti al nuovo sistema di moderazione: i prossimi report includeranno dati ancora più dettagliati, tanto su contenuti quanto sugli account, per l’intero periodo coperto da ciascun report.

Oltre a rimuovere i contenuti, continuiamo a intraprendere azioni significative per promuovere un ambiente positivo sulla piattaforma e dare visibilità alle nostre pratiche. Per esempio, negli ultimi sei mesi abbiamo: introdotto policy più evolute, aperto i nuovi Trust & Safety Hub a Dublino, San Francesco e Singapore, lanciato le funzionalità di sicurezza del Collegamento Famigliare, presentato i nuovi Transparency Center globali a Los Angeles e Washington, spiegato in che modo i video vengono suggeriti nella pagina #PerTe; aderito alla WePROTECT Global Alliance; e annunciato il nostro supporto ai Principi Volontari contro lo sfruttamento dei minori online dell’alleanza internazionale Five Eyes. 

Richieste legali di informazioni su un utente

Come tutte le piattaforme Internet, riceviamo richieste legali di fornire informazioni su un utente da parte delle autorità governative di tutto il mondo. Le basi legali di tutte le richieste che riceviamo vengono esaminate attentamente, verificando, ad esempio, se l’autorità richiedente è autorizzata a raccogliere prove nell’ambito di un’indagine di pubblica sicurezza o a investigare un’emergenza che può comportare un pericolo imminente. Nella seconda metà del 2019 abbiamo ricevuto 500 richieste legali di informazioni da 26 Paesi, e il report fornisce i dettagli delle nostre risposte. 

Richieste di rimozione dei contenuti da parte dei governi   

Di tanto in tanto riceviamo richieste di rimuovere contenuti dalla piattaforma da parte di agenzie governative, ad esempio richieste basate su leggi locali che proibiscono rappresentazioni oscene, discorsi d’odio, contenuti per adulti e altro. Esaminiamo tutto il materiale in conformità con le Linee Guida della Community, i Termini di Servizio e le leggi applicabili e intraprendiamo le azioni appropriate. Se riteniamo che una segnalazione non sia legalmente valida o che il contenuto segnalato non violi i nostri standard, potrebbe non essere intrapresa alcuna azione. Durante la seconda metà del 2019, abbiamo ricevuto 45 richieste di rimuovere o limitare contenuti da parte di 10 enti governativi in 10 Paesi. Maggiori dettagli si possono trovare nel report.

Rimozioni per violazione della proprietà intellettuale

Le Linee Guida della Community e i Termini di Servizio vietano i contenuti che violano la proprietà intellettuale di terzi. La creatività dei nostri utenti è l’anima di TikTok. La nostra piattaforma permettere di esprimere se stessi al meglio, e noi facciamo il massimo per proteggere questa opportunità. Nella seconda metà del 2019, abbiamo valutato 1.338 richieste di rimozione di contenuti per violazione di diritti d’autore e il report mostra come abbiamo replicato. 

Guardiamo avanti

La nostra azienda continua a crescere e questo ci impegna ad adottare un approccio ancora più responsabile nella realizzazione della piattaforma e la moderazione dei suoi contenuti. Lavoriamo quotidianamente per essere più trasparenti sui contenuti rimossi per violazioni e offriamo ai nostri utenti modi efficaci per avere un maggiore controllo sulla loro esperienza, compreso come fare ricorso per una rimozione che ritengono non giustificata. Continueremo a migliorare il nostro Transparency Report per fornire maggiore visibilità sulle pratiche, azioni e per dare risposta ai feedback che riceviamo dai nostri utenti e dagli stakeholder esterni. 

Il nostro obiettivo ultimo è mantenere TikTok un luogo che ispiri allegria, dove tutti possono essere creativi.