di Cormac Keenan, Head of Trust and Safety

Oggi annunciamo alcuni aggiornamenti alle nostre Linee Guida della Community che supportano ulteriormente il benessere della community e l’integrità della piattaforma. La trasparenza verso la nostra community è importante per noi: questi aggiornamenti chiariscono e ampliano i tipi di comportamenti e contenuti che rimuoveremo dalla piattaforma o che non potranno essere suggeriti nel feed Per Te. Rafforziamo regolarmente le nostre protezioni in modo che su TikTok le persone possano continuare a creare, connettersi, e apprezzare a lungo l’intrattenimento generato dalla community.

Come costruiamo una piattaforma di intrattenimento sicura

In TikTok, riteniamo che tutti dovrebbero potersi esprimere in modo creativo, divertendosi in un ambiente sicuro e accogliente. Le nostre Linee Guida della Community sostengono questo impegno stabilendo un insieme di norme che aiutano gli utenti a comprendere quali tipi di contenuti creare sulla piattaforma e quali segnalare come inappropriati. Le nostre policy sono progettate per favorire un’esperienza che metta in primo piano sicurezza, inclusione e autenticità, tenendo conto dei trend emergenti o delle minacce osservate non solo sulla piattaforma, ma anche su Internet in generale. Ascoltiamo, inoltre, i commenti e le osservazioni degli utenti, del nostro Safety Advisory Council europeo e di altri esperti in aree quali la sicurezza fisica e digitale, la moderazione dei contenuti, la salute e benessere, lo sviluppo degli adolescenti.

Tra i principali aggiornamenti che annunciamo oggi, e che implementeremo nelle prossime settimane, si segnalano:

  • Consolidamento della nostra policy sulle azioni e le challenge pericolose. Continuiamo ad attuare l’approccio severo già annunciato per contribuire a prevenire la diffusione sulla nostra piattaforma di tali contenuti, comprese le bufale su autolesionismo e suicidio. Questi ultimi si trovavano in precedenza all’interno delle policy sul suicidio e l’autolesionismo, ma vengono ora messi in evidenza con più dettagli in una categoria di policy separata, in modo che sia ancora più semplice per la nostra community familiarizzare con queste linee guida. Nell’ambito del nostro costante lavoro per aiutare la community a comprendere le sfide e restare al sicuro mentre si diverte, abbiamo lanciato insieme ai nostri creator nuovi video - qui quelli realizzati da @kiro_ebra, @fabianamanager e @marcoilgiallino - che invitano la nostra community a seguire quattro passaggi utili quando valutano i contenuti online: fermati, pensa, decidi e agisci. La nostra community può scoprire questi e altri video seguendo #SicuriSuTikTok.
  • Approccio più ampio ai disordini alimentari. Anche se rimuoviamo già i contenuti che promuovono i disordini alimentari, ora cominceremo a rimuovere anche la promozione di regimi alimentari non corretti. Dopo esserci consultati con esperti di disordini alimentari, ricercatori e medici, introduciamo questo cambiamento perché ci rendiamo conto che si può essere alle prese con diete e comportamenti di alimentazione poco sani anche senza avere un disordine alimentare diagnosticato. Il nostro obiettivo è tenere conto di più sintomi, come l’esercizio eccessivo o i digiuni saltuari, che spesso rappresentano segnali poco riconosciuti di un potenziale problema. Si tratta di un’area caratterizzata da moltissime sfumature, difficile da interpretare in modo coerente, e stiamo lavorando per formare i nostri team a prestare attenzione a una gamma più ampia di contenuti.
  • Chiarimenti sui tipi di ideologie d’odio proibite sulla piattaforma. Tra queste, il deadnaming, il misgendering o la misoginia, oltre ai contenuti che supportano o promuovono le terapie di conversione. Anche se queste ideologie sono proibite da lungo tempo su TikTok, ci è stato suggerito dai creator e da organizzazioni della società civile che è importante citarle esplicitamente nelle nostre Linee Guida della Community.
  • Ampliamento della policy che protegge la sicurezza, integrità, disponibilità e affidabilità della piattaforma. L’ampliamento include il divieto di accesso non autorizzato a TikTok, ai suoi contenuti, account, sistemi o dati, e all'utilizzo di TikTok per attuare attività criminali. Oltre a educare la nostra community su come individuare, evitare e segnalare le attività sospette, pquest’anno apriremo centri investigativi di monitoraggio e risposta all’avanguardia a Washington, Dublino e Singapore. L’attività dei Fusion Center di TikTok consente un continuo monitoraggio e raccolta di informazioni seguendo i fusi orari, mentre continuiamo a collaborare con i maggiori esperti del settore per testare e migliorare le nostre difese.

Inoltre, la nostra community può trovare ulteriori informazioni sulle categorie di contenuti che non possono essere suggerite nei Per Te. Anche se la possibilità di scoprire nuove idee, creator e interessi fa parte di ciò che rende unica la nostra piattaforma, i contenuti nel feed Per Te di un utente possono provenire da un creator che non si conosce o riguardare un un tema sconosciuto. Ecco perché quando ci imbattiamo in contenuti che possono non essere appropriati per un pubblico più ampio – dagli adolescenti ai nonni – facciamo del nostro meglio per rimuoverli dal motore dei suggerimenti.

Nelle prossime settimane, aprendo l'app ogni membro della nostra community riceverà un messaggio che lo inviterà a leggere le Linee Guida aggiornate.

Responsabili verso la community

La forza di una policy sta nella capacità di farla rispettare. Le nostre Linee Guida della Community si applicano a tutti gli utenti e i contenuti su TikTok e noi ci impegniamo a essere coerenti ed equi nella loro applicazione. Per individuare e rimuovere le violazioni alle Linee Guida della Community utilizziamo una combinazione di tecnologia e persone; inoltre, continueremo ad addestrare i sistemi automatizzati e formare i team di sicurezza per difendere le nostre policy.

Per rendere conto delle nostre azioni alla community, ONG e altri stakeholder, pubblichiamo con cadenza trimestrale i Rapporti sull’Applicazione delle Linee Guida della Community. Il report più recente, pubblicato oggi (link), evidenzia che nel terzo trimestre del 2021 sono stati rimossi oltre 91 milioni di video in violazione, che rappresentano circa l’1% di tutti i video caricati. Di questi, il 95% è stato rimosso prima ancora di venire segnalato da un utente, l’88% prima di ricevere alcuna visualizzazione e il 93% entro 24 ore dalla pubblicazione. Continuiamo ad ampliare il sistema che rileva e rimuove determinate categorie di violazioni non appena vengono caricate, come le nudità di adulti e gli atti sessuali, la sicurezza dei minori, le attività illegali e i beni regolamentati. Grazie a questo, il volume delle rimozioni automatiche è aumentato, migliorando la sicurezza complessiva della piattaforma e consentendo ai nostri team di dedicare più tempo alla revisione di contenuti ambigui o da contestualizzare, come i discorsi d’odio, il bullismo e molestie e la disinformazione.

Abbiamo compiuto significativi passi avanti per migliorare le nostre policy e farle rispettare, intervenendo su efficacia, rapidità e coerenza, anche se ci rendiamo conto che quando si tratta della sicurezza delle persone non esiste mai un traguardo definitivo. Per questo continuiamo a farci muovere dalla passione nell’aiutare tutti i nostri utenti a vivere un’esperienza positiva e di valore su TikTok.