di Cormac Keenan, Trust & Safety, EMEA; Arjun Narayan Bettadapur Manjunath, Trust & Safety, APAC; Jeff Collins, Trust & Safety, Americas

Proprio questa mattina abbiamo presentato il nostro Rapporto sulla Trasparenza globale relativo ai primi sei mesi del 2020, che approfondisce le modalità con cui manteniamo TikTok sicuro e motivante per tutti.  Per costruire una relazione di fiducia con la nostra community in modo trasparente, con questi report rendiamo pubbliche periodicamente le informazioni sui contenuti che rimuoviamo, compresi i discorsi d’odio, la disinformazione e altre tematiche che violano le Linee Guida della Community e i Termini di Servizio. Ma il raggio d’azione del nostro impegno è molto più ampio: da funzioni come il Collegamento Famigliare, pensata per offrire ai genitori un migliore coordinamento con i figli adolescenti, a risorse e materiali di apprendimento per la community, attraverso iniziative come il Portale TikTok per i Giovani o la serie di video educativi sulla sicurezza “You’re in Control”, fino alle partnership con altri attori del settore per collaborare e condividere conoscenze, come l’organizzazione internazionale WePROTECT Global Alliance

I social media e le piattaforme di contenuti devono confrontarsi costantemente con la pubblicazione e ripubblicazione di contenuti pericolosi. Una questione che ci riguarda tutti: utenti, operatori del settore e colletività in generale. Oggi i contenuti si spostano da un’app all’altra con facilità e spesso, quando rilevano per la prima volta un contenuto pericoloso, le piattaforme si ritrovano a inseguirlo mentre scompare e riappare in punti diversi. La tecnologia può contribuire a rilevarne e limitarne molti automaticamente, ma non tutti: i moderatori umani e i team di supporto restano in prima linea. 

Per questo gli sforzi di salvaguardare gli utenti che ogni piattaforma adesso compie singolarmente diventerebbero più efficaci se si formalizzasse un approccio collaborativo, condividendo tempestivamente tra le aziende le rilevazioni e le segnalazioni. 

Una simile collaborazione esiste già quando si tratta di contenuti sulla cui pericolosità concordano tutti, come i materiali relativi ad abusi sessuali sui minori (CSAM, Child Sexual Abuse Material). Adesso, però, sta diventando critica anche l’esigenza di collaborare per proteggere le persone da contenuti particolarmente violenti o espliciti, tra i quali quelli che istigano al suicidio. 

A tal fine, ieri Vanessa Pappas Interim Head TikTok, ha inviato una lettera ai responsabili di nove piattaforme social e di contenuti per proporre un Memorandum of Understanding (MoU) che incoraggi le aziende ad allertarsi a vicenda nel caso dovessero riscontrare immagini o contenuti violenti di questo tipo sulle proprie piattaforme. Lavorando insieme a una banca di codici capaci di identificarli, potremmo ridurre in modo significativo le possibilità che gli utenti si imbattano in questo tipo di contenuti e siano esposti ai danni emotivi che la loro visione può causare – indipendentemente dall’app che utilizzano. 

Niente è più importante per noi della sicurezza della nostra community. Il nostro fine ultimo è portare allegria e aiutare gli utenti della nostra community globale a interagire tra loro. Per raggiungere questo obiettivo è della massima importanza dare priorità al benessere delle persone: un obiettivo che crediamo condividano anche altre piattaforme. Siamo impegnati a collaborare con le altre aziende del settore, così come con gli esperti, gli accademici e le organizzazioni non-profit per sviluppare un quadro di riferimento e un progetto per creare un gruppo che se ne occupi. I nostri utenti se lo meritano. 

+++++++++++++++++++++++++++++++++++++++

La seguente lettera è stata inviata ai responsabili di nove piattaforme social e di contenuti.

Di recente i social media e le piattaforme di contenuti sono state di nuovo messe alla prova dalla pubblicazione e ripubblicazione di contenuti espliciti relativi al suicidio, che ci hanno colpito tutti: come operatori del settore, come utenti e come collettività. 

Come ciascuno di voi, abbiamo lavorato con grande attenzione per ridurne la diffusione, rimuovendo il contenuto originale e le sue molte varianti e impedendo che venisse visualizzato e condiviso da altri. Riteniamo però che gli sforzi delle singole piattaforme di salvaguardare non solo ciascuna i propri utenti, ma anche la collettività, riceverebbero una spinta importante dall’adozione formale di un approccio collaborativo, condividendo tra le aziende del settore le rilevazioni e segnalazioni di contenuti particolarmente violenti o espliciti, compresi quelli relativi al suicidio. 

A questo fine, desideriamo proporre di collaborare alla definizione di un Memorandum of Understanding (MoU) che ci consenta di segnalarci reciprocamente in modo tempestivo questo tipo di contenuti. 

In separata sede, stiamo conducendo un’analisi approfondita degli eventi relativi alla recente condivisione di un contenuto attinente al suicidio, ma è chiaro che individuarli per tempo consentirebbe alle piattaforme di rispondere in modo più rapido per rimuovere materiali violenti o altamente discutibili.

Abbiamo ben presente il fatto che è necessario definire chiaramente quali tipi di contenuti un simile accordo dovrebbe coprire, e non solo che dovrà renderci più veloci nel segnalarci l’un l’altro i contenuti che coprirà. Ci rendiamo anche conto che possono esistere limitazioni normative in alcune aree del mondo, che richiedono ulteriore studio e impegno.

A questo fine, desideriamo convocare un incontro tra i nostri rispettivi Trust and Safety Team per discutere ulteriormente questo meccanismo che, crediamo, ci aiuterà a migliorare la sicurezza dei nostri utenti. 

Restiamo in attesa di una vostra risposta positiva per collaborare insieme alla protezione dei nostri utenti e di tutta la collettività.

Cordiali saluti

Vanessa Pappas

Head of TikTok