• Oltre 175 milioni di persone in tutta Europa visitano TikTok ogni mese
  • Stiamo collaborando con le ONG di tutta Europa per introdurre nell’app un’integrazione che metta in contatto chi segnala contenuti potenzialmente dannosi o angoscianti direttamente con un supporto e con risorse per la salute mentale
  • Stiamo compiendo progressi significativi con Project Clover: è in corso la migrazione dei dati nel nostro data center in Norvegia e la società indipendente di cybersecurity NCC Group ora monitora i nostri controlli e l’accesso ai dati degli utenti europei

  • Oggi annunciamo per la prima volta che sono ormai oltre 175 milioni le persone che in tutta Europa visitano TikTok ogni mese* per scoprire contenuti, trovare una community, imparare qualcosa di nuovo o semplicemente intrattenersi.

    Mantenere la sicurezza della nostra community è la nostra priorità: entro la fine del 2024 avremo investito quasi 2 miliardi di euro a livello globale in questi sforzi, solo nel corso di quest’anno. In occasione del nostro European Safety Forum, tenutosi questa settimana nel nuovo Dublin Transparency & Accountability Centre, abbiamo ospitato rappresentati dei media ed esperti esterni. Abbiamo annunciato che stiamo introducendo nuovi aggiornamenti sui nostri prodotti, collaborando con esperti esterni e impegnandoci in un dialogo intersettoriale per rafforzare ulteriormente la sicurezza della nostra community e la protezione dei suoi dati.


    Collaboriamo con il settore e la società civile per creare consenso sulla verifica dell’età

    Gli utenti devono avere almeno 13 anni per usare TikTok e noi facciamo rispettare in modo proattivo questo limite con diversi metodi, tra i quali:

    • Un sistema neutrale di verifica dell’età: non suggeriamo o indirizziamo verso un’età ‘giusta’
    • Imponiamo restrizioni riguardo la creazione di un altro account con una data di nascita diversa se l’utente non supera la verifica dell’età
    • Utilizziamo la tecnologia per individuare gli account che sospettiamo di appartenere a minori di 13 anni e per inviarli alla moderazione per una revisione
    • Formiamo moderatori specializzati nella revisione di account che sospettiamo non abbiano l'età consentita

    Ogni mese rimuoviamo a livello globale circa 6 milioni di account per i quali riteniamo che non sia stato rispettato il nostro requisito di età minima.

    La verifica dell’età resta una delle aree di policy più complesse con cui continuano a confrontarsi le piattaforme online, i legislatori e le autorità di regolamentazione. All’inizio di quest’anno, abbiamo collaborato con WeProtect Global Alliance, Centre for Information Policy Leadership, Praesidio Safeguarding e altri operatori del settore per lanciare una nuova iniziativa volta a riunire, tra gli altri, piattaforme online, autorità di regolamentazione, legislatori, organizzazioni per la tutela della privacy e dei diritti dell’infanzia, per discutere di approcci alla verifica dell’età applicabili in tutto il settore, che contribuiscano a rendere il mondo online più sicuro per i giovani, rispettando al contempo i loro diritti fondamentali.

    Allo stesso tempo, stiamo studiando in che modo la nuova tecnologia di machine learning possa potenziare i nostri sforzi per impedire ai minori di 13 anni di accedere alla nostra piattaforma. Questa tecnologia ci aiuterà a individuare gli account che potrebbero appartenere a persone di età inferiore ai 13 anni, in modo che un moderatore specificamente formato possa esaminarli e rimuovere quelli che ritiene non soddisfino la nostra età minima. Come oggi, l’utente potrà fare ricorso se ritiene che abbiamo commesso un errore.

    Modifiche agli effetti in risposta al feedback dei ragazzi

    Collaboriamo regolarmente con esperti esterni per individuare come migliorare ulteriormente la nostra community.

    A tal fine, di recente abbiamo commissionato una ricerca multi-mercato** con l’organizzazione non-profit britannica Internet Matters, che esamina il ruolo delle piattaforme online nel plasmare l’identità e le relazioni degli adolescenti. Pubblicato oggi, il rapporto finale Unfiltered: The Role of Authenticity, Belonging and Connection afferma che giovani e genitori intravedono un vantaggio nell’essere autentici online, riconoscono l’impatto positivo del senso di appartenenza e di connessione online, e ritengono che queste caratteristiche possano esercitare un’influenza positiva sul benessere generale dei giovani.

    Il report ha inoltre individuato nuovi spunti di riflessione sull’uso degli effetti da parte degli adolescenti e sull’impatto che tale uso genera sulla loro autopercezione. È emersa anche una chiara distinzione tra gli effetti pensati per essere ovvi e divertenti (ad esempio, gli effetti con le orecchie degli animali) e gli effetti pensati per alterare il proprio aspetto. In particolare, gli adolescenti e i genitori hanno espresso preoccupazioni riguardo agli effetti relativi all'apparenza, tra le quali il fatto che chi guarda il contenuto potrebbe non rendersi conto che è stato alterato.

    In risposta a questi approfondimenti, introdurremo nelle prossime settimane le seguenti modifiche agli effetti:

    • Effetti limitati in base all’età: limitazioni all’uso di alcuni effetti estetici per gli adolescenti minori di 18 anni
    • Più informazione: maggiori informazioni sul modo in cui un effetto potrebbe cambiare l’aspetto dell’utente se applicato. Queste ultime si aggiungono al fatto che già comunichiamo in modo proattivo agli utenti quando sono stati utilizzati sui contenuti determinati effetti
    • Guida per i creator: aggiornamento delle nostre risorse rivolte a chi sviluppa effetti per TikTok Effects House, per migliorare la consapevolezza e la comprensione di alcuni degli esiti indesiderati che possono comportare determinati effetti

    Promuovendo una cultura dell’autenticità, il rispetto e il supporto, possiamo creare un mondo digitale in cui ognuno si senta libero di essere se stesso.

    Ampliamento delle risorse della helpline in-app

    Da tempo forniamo in modo proattivo alla nostra community risorse provenienti da fonti attendibili quando gli utenti ricercano determinati argomenti. Ad esempio, se si ricerca “autolesionismo”, la ricerca viene bloccata e l’utente viene reindirizzato a una ONG locale, oppure se cerca “olocausto”, gli vengono forniti risultati e vengono indirizzati a risorse educative del Congresso ebraico mondiale e dell’UNESCO.

    Nelle prossime settimane, in 13 Paesi europei faremo un ulteriore passo, mettendo in contatto le persone che segnalano contenuti in-app relativi a suicidio, autolesionismo, odio e molestie con helpline locali che forniscono un supporto esperto. In questo modo, mentre noi esaminiamo i contenuti e li rimuoviamo se violano le nostre Linee Guida della Community, la nostra community può cercare aiuto immediato se ne ha bisogno. Questi partner, tra i quali Spun Out in Irlanda, Nummergegen Kummer in Germania e Bris in Svezia, offrono diverse forme di assistenza come counselling, consigli, supporto psicologico gratuito e altri servizi essenziali dei quali possono beneficiare le persone che ricercano questi argomenti.

    Questo sviluppo più ampio fa seguito al successo di un’iniziativa pilota in Francia lo scorso anno, in collaborazione con la ONG locale E-enfance. L’intervento è stato riconosciuto come buona pratica dal Ministro dell’Istruzione francese e inserito come raccomandazione per tutte le piattaforme nel Piano interministeriale per la lotta al cyberbullismo pubblicato da poco.

    I risultati del nostro investimento da 12 miliardi di euro per la sicurezza dei dati

    Stiamo proseguendo nell’implementazione di Project Clover, il nostro programma di sicurezza dei dati leader nel settore, che fornisce un’ulteriore protezione ai nostri utenti europei, compresa la supervisione indipendente di terza parte di NCC Group, società esperta in cybersecurity.

    Di recente abbiamo raggiunto due importanti traguardi nell’implementazione: in primo luogo, è ora operativo il nostro data center europeo in Norvegia ed è iniziata la migrazione dei dati degli utenti europei di TikTok. Questo significa che la nostra enclave europea dedicata, dove ora sono archiviati di default i dati degli utenti europei, da oggi è ospitata su server negli Stati Uniti, in Irlanda e anche in Norvegia.

    In secondo luogo, NCC Group ha avviato un monitoraggio continuo sugli ambienti dei gateway di sicurezza. Si tratta di barriere di sicurezza aggiuntive che controllano l’accesso ai dati nella nostra enclave europea e sono progettate per applicare protocolli tecnici che consentono l’accesso a determinati tipi di dati solo ai dipendenti autorizzati.

    Dagli artisti alle aziende, dai creator agli utenti di tutti i giorni, TikTok è diventato parte della cultura e del tessuto della vita quotidiana in Europa. Ci stiamo impegnando per stabilire nuovi standard di sicurezza per garantire che TikTok resti una piattaforma che unisca le persone, le intrattenga e le informi, e che crei opportunità per la nostra community europea per molti anni a venire.

    * Questo numero si riferisce ai nostri destinatari attivi mensili e la metodologia utilizzata per calcolarlo è la stessa applicata per il calcolo del MAR nell'ambito dei nostri obblighi di rendicontazione DSA. I Paesi interessati da questa cifra sono 32: Austria, Belgio, Bulgaria, Croazia, Cipro, Danimarca, Estonia, Finlandia, Francia, Germania, Grecia, Irlanda, Islanda, Italia, Lettonia, Liechtenstein, Lituania, Lussemburgo, Malta, Norvegia, Paesi Bassi, Polonia, Portogallo, Regno Unito, Repubblica Ceca, Romania, Slovacchia, Slovenia, Spagna, Svezia, Svizzera e Ungheria.

    ** Mercati europei inclusi nella ricerca: Germania, Paesi Bassi, Svezia e Regno Unito.