di Cormac Keenan, Head of Trust and Safety, TikTok
Questo articolo fa parte di una serie dedicata ai principi fondamentali della sicurezza che approfondiscono diversi aspetti del lavoro svolto “dietro le quinte” dai Safety Team di TikTok.
In TikTok, migliaia di persone sono costantemente al lavoro per aiutare la nostra community a esplorare contenuti divertenti e condividere la propria creatività sulla piattaforma in modo sempre più sicuro. In particolare, il team Trust and Safety si focalizza su una serie di specifici obiettivi di sicurezza. Il nostro impegno verso la sicurezza è un percorso continuo sul quale vogliamo essere aperti e trasparenti. In questo articolo vi raccontiamo alcuni aspetti di questo lavoro.
Come creiamo e aggiorniamo le Linee Guida della Community
Le nostre Linee Guida della Community definiscono una serie di norme e un codice di condotta comuni e, per continuare a mantenere uno spazio accogliente sulla piattaforma, dettagliano ciò che è o non è consentito. I nostri esperti di policy hanno la responsabilità di valutare e rivedere costantemente queste Linee Guida con l'obiettivo di bilanciare l’espressione creativa con la necessità di proteggere la community da potenziali pericoli.
Spesso si tratta di specialisti in materia: alcuni hanno esperienza nel settore della tecnologia, altri provengono dalla società civile o dalle istituzioni. Nei loro ruoli devono confrontarsi con tematiche spesso complesse e impegnative: ad esempio, valutare fino a che punto limitare i contenuti relativi ai disturbi alimentari. Grazie alle nostre collaborazioni con esperti esterni, sappiamo che i contenuti dedicati ai disturbi del comportamento alimentare possono essere dannosi mentre – cosa ancora più importante – quelli che si concentrano sulla guarigione possono avere un impatto positivo sulle persone. Quando aggiorniamo le nostre policy è importante continuare a riflettere su sfumature come queste.
Come individuiamo potenziali pericoli e come applichiamo le nostre policy
I team di prodotto e processo si concentrano sulla progettazione di strategie e tecniche per individuare in modo più efficiente i potenziali pericoli, applicando le Linee guida su larga scala. Un esempio? L’utilizzo della tecnologia di hashing per creare un identificatore digitale univoco per un’immagine o un video. Questa tecnologia, in linea con gli standard di settore, ci consente di contrassegnare come violazione un contenuto riconosciuto come dannoso, rimuovendolo più facilmente da tutta la piattaforma. Se, ad esempio, un contenuto viene rimosso per violazione delle norme contro la condivisione di immagini sullo sfruttamento sessuale di minori, l’identificatore aiuta a trovare e rimuovere i contenuti correlati e a impedire che vengano pubblicati di nuovo.
Come spieghiamo nel nostro ultimo Rapporto Trasparenza, oltre l’80% dei video in violazione è stato rimosso prima di ricevere anche una sola visualizzazione. E noi ci impegniamo a essere sempre più efficaci in quest’ambito. Anche se la tecnologia ci aiuta a rimuovere le violazioni più evidenti, infatti, una parte importante della moderazione dei contenuti richiede la revisione umana. Quando viene segnalato un contenuto c’è sempre un team pronto a intervenire a qualsiasi ora. Grazie a questo ulteriore livello di revisione con moderatori umani riusciamo anche a migliorare i nostri sistemi di machine learning: i moderatori, infatti, forniscono a loro volta informazioni alla tecnologia, aiutandola a individuare con tempestività le tendenze emergenti nei contenuti e a perfezionare le nostre capacità di rilevamento.
Un altro compito essenziale del nostro team è analizzare i contenuti per migliorare continuamente l’accuratezza dei processi di moderazione. Per esempio, se un video sta diventando popolare potrebbe essere riesaminato dai nostri sistemi per ridurre la possibilità che si diffondano su TikTok contenuti non consentiti. Analizziamo, inoltre, le decisioni di moderazione per capire perché una violazione non sia stata rilevata nella fase precedente o per individuare tendenze comuni nelle infrazioni sulla piattaforma. Ad esempio, potremmo scoprire che dobbiamo lavorare di più per sviluppare una tecnologia che rilevi automaticamente alcuni tipi di potenziali violazioni, oppure che dobbiamo offrire ai nostri team di moderazione ulteriori sessioni mirate di formazione per orientarli a una migliore comprensione di determinate policy e sfumature, con l’obiettivo di migliorare il corretto processo decisionale durante il processo di revisione.
Siamo attenti anche al benessere dei dipendenti
L'obiettivo più importante del nostro team è garantire un’esperienza sicura per la nostra community. A volte questo significa anche richiedere ai nostri moderatori di rivedere direttamente contenuti potenzialmente dannosi e siamo consapevoli che per un’attività come questa è essenziale fornire il giusto supporto. Salute, sicurezza e benessere delle nostre persone sono una priorità e per questo offriamo ai nostri team programmi per il benessere che includono formazione, risorse pratiche e consulenza professionale. Conduciamo, inoltre, regolari attività di analisi per capire come continuare a migliorare, con l’obiettivo di diventare i leader del nostro settore e offrire ai dipendenti le strutture di supporto più avanzate ed efficaci.
Il nostro viaggio per fare di TikTok un luogo sempre più sicuro, sempre ricco di allegria e creatività continua. E non vediamo l’ora di raccontarvi di più sul lavoro dei nostri Trust & Safety Team.