TikTok si schiera contro ogni forma di terrorismo. Siamo provati dagli attacchi terroristici della settimana scorsa in Israele e siamo anche profondamente addolorati dall’intensificarsi della crisi umanitaria a Gaza. Il nostro pensiero va a tutti coloro che sono stati colpiti.

Abbiamo mobilitato immediatamente ingenti risorse materiali e di personale per preservare la sicurezza della community e l’integrità della piattaforma. Siamo impegnati per garantire trasparenza mentre lavoriamo per fornire uno spazio sicuro e protetto per la nostra community globale. Siamo attenti a sostenere la libera espressione, mantenendo il nostro impegno per i diritti umani e proteggendo la nostra piattaforma durante la guerra tra Israele e Hamas.

Facciamo rispettare le Linee Guida della Community

Nell’ambito del processo di crisis management, tra le nostre principali azioni per proteggere la community:

  • Il lancio di una cabina di regia che riunisce i membri chiave del nostro team globale di sicurezza, forte di 40 mila professionisti, rappresentando una varietà di competenze e prospettive regionali, in modo da essere in grado di prendere rapidamente provvedimenti per rispondere a questa crisi in rapida evoluzione.
  • Evolviamo in tempo reale i nostri sistemi di rilevamento automatico proattivo man mano che identifichiamo nuove minacce: questo ci consente di rilevare automaticamente e rimuovere contenuti espliciti e violenti, prima ancora che i nostri moderatori o i membri della community vi siano esposti.
  • Aggiungiamo ulteriori moderatori che parlano arabo ed ebraico per esaminare i contenuti legati a questi eventi. Nell’ottica della continua attenzione anche per il benessere dei moderatori in prima linea, stiamo mettendo a disposizione altre risorse per affrontare questo periodo complesso.
  • Continuiamo ad applicare le nostre policy contro la violenza, l’odio e la disinformazione dannosa, adottando provvedimenti per rimuovere contenuti e account che violano le regole. Ad esempio, rimuoviamo i contenuti che sostengono gli attacchi o deridono le vittime colpite dalla violenza. Se vengono pubblicati contenuti che raffigurano una persona presa in ostaggio, faremo tutto il possibile per proteggere la loro dignità e rimuovere i contenuti che violano le nostre regole. Non tolleriamo tentativi di incitare alla violenza o diffondere ideologie d’odio. Applichiamo una politica di tolleranza zero per i contenuti che elogiano organizzazioni e individui violenti e che incitano all’odio, che non sono ammessi sulla nostra piattaforma. Blocchiamo anche gli hashtag che promuovono la violenza o che violano in qualsiasi altro modo le nostre regole in merito.
  • Aggiungiamo schermate di consenso (opt-in) per contenuti che potrebbero risultare scioccanti o espliciti, al fine di evitare che vengano visualizzati inavvertitamente, mentre continuiamo a fare eccezioni per alcuni contenuti di interesse pubblico. Sappiamo infatti che alcuni contenuti che teoricamente violerebbero le nostre regole possano rivestire tale interesse e consentiamo che rimangano sulla piattaforma a scopo documentario, educativo o di confutazione.
  • Parziali modifiche temporanee alle policy che regolano le funzionalità di TikTok, con l’obiettivo di prevenirne in modo proattivo l’uso per comportamenti d’odio o violenti nella regione interessata. Come esempio di misura temporanea, stiamo introducendo restrizioni aggiuntive all’accesso alle LIVE, in considerazione della situazione di accentuato rischio per la sicurezza in relazione alla situazione degli ostaggi.
  • Collaboriamo con le forze dell’ordine a livello globale, in conformità con le nostre Linee Guida per i Rapporti con le Forze dell’Ordine, ispirate da norme legali e dal rispetto dei diritti umani. Siamo profondamente consapevoli dei rischi specifici e imminenti per la vita umana legati al rapimento degli ostaggi e stiamo collaborando con le forze dell’ordine per garantire la sicurezza delle vittime nel rispetto delle nostre procedure di emergenza.
  • Coinvolgiamo esperti di tutto il settore e della società civile, quali Tech Against Terrorism e i nostri Advisory Councils, per garantire ulteriore sicurezza e protezione alla nostra piattaforma in questi momenti difficili.

Dal brutale attacco del 7 ottobre, abbiamo continuato a operare con grande attenzione per rimuovere i contenuti che violano le nostre linee guida. Ad oggi, nella regione colpita abbiamo rimosso oltre 500 mila video e chiuso 8 mila trasmissioni in diretta per violazione delle nostre Linee Guida.

Preveniamo la diffusione di contenuti fuorvianti

Durante periodi di crisi, la disinformazione può peggiorare la situazione. Ecco perché ci impegniamo a individuare e rimuovere la disinformazione dannosa. Rimuoviamo anche media sintetici che siano stati modificati, tagliati o combinati in modo da poter trarre in inganno la community sugli eventi reali.

Per aiutarci a far rispettare queste politiche in modo accurato, collaboriamo con organizzazioni di fact-checking accreditate dall’IFCN che coprono oltre 50 lingue, tra cui l’arabo e l’ebraico. La valutazione preventiva consente ai nostri moderatori di applicare con precisione le nostre politiche sulla disinformazione. Nel rispetto del principio di precauzione, durante il fact-checking viene impedito l’accesso a un video sottoposto a verifica dalla pagina Per Te. Se la verifica dei fatti non porta a un risultato chiaro, etichettiamo il contenuto come non verificato, non lo inseriamo nei Per Te e chiediamo di ripensarci prima di condividerlo.

Continuiamo a ricercare in modo proattivo segnali di comportamenti ingannevoli sulla nostra piattaforma, compreso il monitoraggio di comportamenti che potrebbero indicare attività volte a influenzare in modo nascosto che vengono interrotte e comportano la cancellazione dei profili identificati come parte della rete di influenza.

A breve introdurremo promemoria nella funzione di ricerca per determinate parole chiave in ebraico, arabo e inglese, per incoraggiare la nostra community a essere consapevole della possibile disinformazione e consultare fonti autorevoli, oltre che per ricordare le risorse per il benessere presenti nell’app, in caso di necessità.

Diamo forma alla tua esperienza su TikTok

Disponiamo di un'ampia gamma di controlli e funzionalità esistenti che incoraggiamo tutti nella nostra comunità a prendere in considerazione mentre personalizzano l'esperienza TikTok che meglio si adatta alle loro preferenze. Tra queste:

  • Controlli dei Per Te: basta digitare ‘Non mi interessa' su contenuti che si vogliono vedere di meno o scegliere ‘Aggiorna’ se si desidera riavviare il feed. Quando attivata, la Modalità Limitata contribuisce a limitare la comparsa di contenuti che potrebbero non essere appropriati per un pubblico generale e filtra i contenuti con etichette di avvertimento.
  • Controlli sui commenti: è possibile decidere chi può commentare i propri video, filtrare i commenti per parole chiave o rivederli prima della pubblicazione. È anche possibile bloccare, cancellare o segnalare più commenti insieme. Viene inoltre proposto un messaggio che invita a riconsiderare un commento potenzialmente scortese prima di pubblicarlo.
  • Controllo del tempo online: offriamo una serie di strumenti che aiutano a personalizzare e controllare il tempo trascorso sull’app, come strumenti per impostare un limite di tempo sullo schermo, promemoria per fare una pausa o disconnettersi prima di dormire, e molto altro.
  • Collegamento famigliare: con la funzione Collegamento Famigliare, genitori e tutori possono collegare il loro account TikTok all’account del minorenne per attivare una serie di impostazioni per i contenuti. Ad esempio, possono scegliere di disattivare la ricerca, attivare la Modalità Limitata e personalizzare le impostazioni del tempo sullo schermo.
  • Segnalazioni: chiunque può segnalare contenuti su TikTok, inclusi commenti, account e trasmissioni in diretta. Basta tenere premuto su un video, toccare ‘segnala’ e selezionare una motivazione, come la disinformazione.

Forniamo alla nostra community anche risorse utili su diverse questioni, tra cui come riconoscere l’odio e segnalarlo, e come condividere in modo sicuro storie sulla propria salute mentale e accedere a risorse di aiuto in caso di bisogno.

Il nostro impegno per il futuro è continuare ad adattare le nostre misure di protezione per salvaguardare la nostra community.

Aggiornamento al 5 novembre

Come milioni di membri della nostra community, siamo sconcertati dall'aumento dell'islamofobia e dell'antisemitismo a livello globale. Ideologie che incitano all'odio non sono mai state consentite sulla nostra piattaforma. Continuiamo ad adottare misure importanti per proteggere la nostra comunity globale e a contribuire attivamente per prevenire la diffusione dell’odio.

Dal 7 ottobre abbiamo rimosso più di 925 mila video, nella regione interessata dal conflitto, per violazione delle nostre policy su violenza, discorsi d’odio, disinformazione e terrorismo, compresi i contenuti che promuovono Hamas. Nello stesso periodo, su TikTok abbiamo rimosso a livello globale milioni di contenuti.


Mentre la guerra continua, i nostri team stanno monitorando attentamente le tendenze dei contenuti in evoluzione e collaborano con partner e società di intelligence per rimanere al passo con i temi emergenti e i potenziali rischi. Abbiamo già visto cambiamenti nel tipo di contenuto violativo che stiamo rimuovendo, con l'iniziale aumento di contenuti violenti e grafici seguito da un aumento di contenuti che promuovono il terrorismo e, più recentemente, un aumento di disinformazione, teorie del complotto e diffusione di ideologie d’odio, tra cui l'islamofobia e l'antisemitismo.

Abbiamo anche visto picchi di false interazioni relativi al conflitto e, di conseguenza, abbiamo rimosso più di 24 milioni di account falsi in tutto il mondo dall'inizio della guerra. Abbiamo anche rimosso più di mezzo milione di commenti di bot su contenuti sotto hashtag correlati al conflitto.

Restiamo flessibili nel considerare ed implementare cambiamenti sia alle nostre policy che alle strategie di applicazione. Una parte fondamentale di questo è lavorare con esperti esterni, ad esempio coinvolgendo decine di organizzazioni che rappresentano le comunità ebraiche e musulmane per aiutare a garantire che le nostre azioni contro l'antisemitismo e l'islamofobia siano efficaci. Abbiamo anche aggiornato le linee guida della nostra funzione LIVE per evitare il più possibile che le persone utilizzino le funzionalità di monetizzazione per sfruttare la tragedia in corso per il proprio guadagno personale.

Aggiornamento al 23 novembre 

Mentre il conflitto è ancora in corso, continuiamo a essere focalizzati sull'applicazione delle nostre regole contro l'odio, la disinformazione dannosa e altri contenuti violativi. Dal 7 ottobre al 17 novembre, abbiamo rimosso più di 1.164.000 video nella regione del conflitto per aver violato le nostre regole, inclusi contenuti che promuovono Hamas, discorsi d'odio, terrorismo e disinformazione. A livello globale, abbiamo rimosso milioni di contenuti nello stesso periodo:


Continuiamo ad agire rapidamente contro un aumento dell'engagement e degli account falsi. Nel mese precedente all'inizio del conflitto, abbiamo rimosso 21 milioni di account falsi a livello globale, rispetto ai 35 milioni di account falsi rimossi nel mese successivo all'inizio della guerra - un aumento del 67%. In quel mese, abbiamo anche rimosso 933k commenti di bot pubblicati su contenuti contrassegnati con hashtag legati al conflitto.

Ci rendiamo conto che questo è un momento difficile per molte persone della nostra community. Ecco perché continuiamo a cercare opportunità per ascoltare direttamente dai creator la loro esperienza su TikTok e per parlare con gruppi della community e altri esperti, mentre i nostri team stanno valutando ulteriori cambiamenti e strumenti, come la nostra nuova risorsa del Safety Center su come accedere al supporto durante eventi tragici.

Aggiornamento al 7 dicembre

Sappiamo che per molti questo è un periodo difficile, spaventoso e polarizzante, non solo in tutto il mondo ma anche su TikTok. Mentre continuiamo a concentrarci sulla sicurezza della nostra community, stiamo lanciando una serie di iniziative incentrate sull’hashtag #swipeouthate. Tra queste, un’iniziativa di servizio pubblico che sarà implementata sulla nostra piattaforma per incoraggiare le persone a stare uniti contro i comportamenti d’odio.

  • Abbiamo costituito una nuova task force contro l'odio e la discriminazione all'interno del nostro team Trust & Safety, che sta sviluppando un piano di forte impatto per intensificare ulteriormente il contrasto ai comportamenti d’odio, in risposta al recente incremento, con particolare attenzione all’antisemitismo e all’islamofobia. Nell’ambito di questo sforzo, stiamo investendo maggiori risorse nell’identificare in modo proattivo le nuove tendenze emergenti, prima che diventino visibili, e stiamo potenziando e approfondendo la formazione per i moderatori in collaborazione con esperti, per affrontare i pregiudizi impliciti e gli aspetti più specifici di ciascuna ideologia d’odio.
  • Mentre rafforziamo la moderazione dei contenuti, stiamo anche introducendo modalità che permettano ai creator di gestire le proprie esperienze.Stiamo introducendo gradualmente la modalità Comment Care, che amplia la serie di controlli sui commenti con nuove opzioni per filtrare quelli non amichevoli o indesiderati. Quando è attivata, questa modalità filtra i commenti valutati come simili a quelli segnalati o eliminati in precedenza dal creator, oppure inappropriati, offensivi o contenenti oscenità. Vogliamo assicurarci che su TikTok ogni creator sia consapevole degli strumenti a sua disposizione. Stiamo iniziando a segnalarli ai nuovi creator, dopo che hanno pubblicato il loro primo video, e a ricordarli ai creatori già affermati che devono ancora utilizzarli. Inoltre, nel caso di creator che potrebbero trovarsi di fronte a un aumento di commenti indesiderati o non amichevoli, li stiamo invitando ad attivare la modalità Comment Care e a utilizzare una nuova funzione che stiamo introducendo che filtra i commenti che non provengono né da follower né da account seguiti dal creator. I dati preliminari mostrano che i creator che utilizzano questi filtri registrano una diminuzione del 30% nei commenti segnalati.
  • Sappiamo che affrontare le questioni legate all’odio significa ascoltare più direttamente i gruppi più colpiti. Per garantire che i prodotti che stiamo sviluppando rispondano nei modi previsti ai bisogni della nostra community, stiamo sviluppando un programma di co-design e beta test per i creator, in modo che possano darci le loro osservazioni e commenti sulle funzionalità e testarle per assicurarci che i nostri prodotti soddisfino le loro esigenze. Per il prossimo anno stiamo inoltre ampliando le community di creator gestite includendo comunità ebraiche, interconfessionali e LGBTQ, oltre alle comunità di sviluppatori (API community).

Infine, continuiamo a lavorare in modo molto attivo per far rispettare le nostre policy contro l’incitamento all’odio, la disinformazione e altre violazioni. Dal 7 ottobre al 30 novembre, nei territori del conflitto abbiamo rimosso più di 1,3 milioni di video per violazioni delle nostre Linee Guida della Community, compresi contenuti che promuovevano Hamas, discorsi d’odio, terrorismo e disinformazione. A livello globale, nello stesso periodo abbiamo rimosso decine di milioni di contenuti, come dettagliato nel grafico sottostante, e abbiamo impedito a più di 1 milione di account di adolescenti di visualizzare video contenenti violenza o contenuti espliciti.


NOTA: i dati si riferiscono alle rimozioni a livello globale per alcune policy selezionate. Non tutti i contenuti rimossi a livello globale sono relativi al conflitto.

Aggiornamento al 6 aprile

Mentre ci avviciniamo al sesto mese dell'inizio della guerra tra Israele e Hamas, forniamo un ulteriore aggiornamento sul nostro lavoro per mantenere la sicurezza della nostra community e l'integrità della nostra piattaforma. Nei sei mesi trascorsi dal 7 ottobre 2023*, abbiamo rimosso più di 3,1 milioni di video e sospeso oltre 140.000 dirette streaming in Israele e Palestina per violazione delle nostre Linee Guida della Community, inclusi contenuti che promuovono Hamas, discorsi d'odio, estremismo violento e disinformazione. A livello globale, nello stesso periodo di tempo, abbiamo rimosso decine di milioni di contenuti, come dettagliato nella tabella di seguito.



Continuiamo contrastare con determinazione anche i comportamenti ingannevoli. Nei sei mesi trascorsi dall'inizio della guerra, abbiamo rimosso più di 320 milioni di account falsi a livello globale, insieme ai loro contenuti.

Come già affermato quando la guerra è iniziata, di fronte a questi nuovi rischi in continua evoluzione abbiamo immediatamente mobilitato risorse che potessero aiutarci sia a migliorare la nostra rilevazione automatizzata proattiva sia a rafforzare i nostri addetti alla moderazione. Grazie ai miglioramenti apportati ai modelli di moderazione automatica nel momento in cui è iniziata la guerra, abbiamo visto un aumento immediato del 234% dei commenti violativi rimossi in Israele e Palestina da questa tecnologia.

Come parte dei nostri continui programmi di formazione rivolti ai nostri addetti alla moderazione, a livello globale abbiamo implementato un focus sui bias impliciti e degli aggiornamenti specifici riguardo alla nostra policy relativa ai discorsi e comportamenti di odio, focalizzata sull'antisemitismo e l'islamofobia. Questo ha portato a un aumento del 13% nell'accuratezza dei moderatori in Nord America nel far rispettare le nostre rigorose regole contro i discorsi e i comportamenti d'odio.

Questi sforzi ci aiutano a garantire l'offerta di un'esperienza TikTok sicura, inclusiva e accogliente nei confronti della nostra community.

*I dati riguardano il periodo compreso tra il 7 ottobre 2023 e il 31 marzo 2024.