• Más de 175 millones de personas en toda Europa visitan TikTok cada mes.
  • Nos asociamos con ONGs de toda Europa para implementar una integración en la aplicación que conecta a las personas que reportan contenido potencialmente dañino o que pueda generarles angustia directamente con recursos y apoyo para la salud mental.
  • Estamos logrando un progreso significativo en el Proyecto Clover, con la migración de datos en curso a nuestro centro de datos de Noruega, y la empresa independiente de ciberseguridad NCC Group supervisa nuestros controles y el acceso a los datos de los usuarios europeos.
  • Hoy anunciamos por primera vez que más de 175 millones de personas en toda Europa visitan TikTok cada mes* para descubrir contenido, encontrar una comunidad, aprender algo nuevo o simplemente entretenerse.

    Mantener la seguridad de nuestra comunidad es nuestra prioridad y, para finales de 2024, habremos invertido cerca de 2.000 millones de euros a nivel mundial en estos esfuerzos solo este año. En nuestro Foro Europeo de Seguridad, celebrado en nuestro recién inaugurado Centro de Transparencia y Responsabilidad de Dublín, anunciamos cómo estamos implementando nuevas actualizaciones de productos, asociándonos con expertos externos y participando en un diálogo intersectorial para fortalecer aún más la seguridad de nuestra comunidad y sus datos.

    Asociándonos con la industria y la sociedad civil para generar consenso sobre la verificación de la edad

    Las personas deben tener 13 años o más para usar TikTok y aplicamos esto de forma proactiva mediante métodos que incluyen:

    • Tener una barrera de edad neutral; no insinuamos ni empujamos hacia la edad "correcta".
    • Imponer restricciones a la capacidad de las personas para crear otra cuenta con una fecha de nacimiento diferente si no superan nuestra verificación de edad.
    • Utilizar tecnología para detectar cuentas que sospechamos que pertenecen a menores de 13 años y enviarlas a moderación para su revisión.
    • Capacitar a moderadores especializados para revisar las cuentas sospechosas de menores de edad.

    Cada mes, eliminamos alrededor de 6 millones de cuentas en todo el mundo porque creemos que no se ha cumplido nuestro requisito de edad mínima.

    La verificación de la edad sigue siendo una de las áreas de políticas más complejas con las que siguen lidiando las plataformas, los responsables de desarrollar las políticas y los reguladores. A principios de este año, nos asociamos con WeProtect Global Alliance, Centre for Information Policy Leadership, Praesidio Safeguarding y compañeros de la industria para lanzar una nueva iniciativa destinada a reunir a plataformas en línea, reguladores, responsables de desarrollar las políticas, organizaciones de privacidad y derechos del niño, entre otros, para discutir enfoques de toda la industria para la verificación de la edad que ayuden a hacer que el mundo en línea sea más seguro para los jóvenes y al mismo tiempo respeten sus derechos fundamentales.

    Al mismo tiempo, estamos explorando cómo la nueva tecnología de aprendizaje automático puede mejorar nuestros esfuerzos para evitar que las personas menores de 13 años estén en nuestra plataforma. Esta tecnología ayudará a detectar cuentas que puedan pertenecer a menores de 13 años para que un moderador especialmente capacitado pueda revisar la cuenta y eliminarla si cree que alguien no cumple con nuestra edad mínima. Al igual que hoy, las personas podrán apelar si creen que hemos cometido un error.

    Introducimos cambios en los efectos, en respuesta a los comentarios de los adolescentes

    Nos asociamos regularmente con expertos externos para identificar cómo podemos realizar mejoras adicionales para nuestra comunidad.

    Con este fin, recientemente encargamos una investigación en varios mercados** con la organización sin fines de lucro del Reino Unido Internet Matters que examina el papel de las plataformas en línea en la configuración de la identidad y las relaciones de los adolescentes. El informe final, "Sin filtro: el papel de la autenticidad, la pertenencia y la conexión", publicado hoy, concluía que los jóvenes y los padres veían beneficios en ser auténticos en línea y reconocían el impacto positivo de la pertenencia y la conexión en línea. Ellos creen que estos rasgos podrían tener una influencia útil en el bienestar general de los jóvenes.

    El informe también identificó nuevas perspectivas sobre el uso de los efectos por parte de los adolescentes y el impacto que esto tiene en su sentido de sí mismos. Se estableció una clara distinción entre los efectos diseñados para ser obvios y divertidos (por ejemplo, los efectos de orejas de animales) y los efectos diseñados para alterar su apariencia. Específicamente, los adolescentes y los padres expresaron su preocupación por los efectos de "apariencia", incluyendo que quienes ven el contenido podrían no darse cuenta de que se trata de una imagen que ha sido alterada.

    En respuesta a estas ideas, estamos implementando los siguientes cambios en los efectos en las próximas semanas:

    • Efectos con restricción de edad: restringir el uso de algunos efectos de apariencia para adolescentes menores de 18 años.
    • Más información: proporcionaremos más información sobre cómo un efecto podría cambiar su apariencia si se aplica. Esto se suma a que ya informamos proactivamente a los usuarios cuando se han utilizado ciertos efectos en el contenido.
    • Orientación para creadores: actualizando nuestros recursos para las personas que desarrollan efectos en la aplicación TikTok Effects House para mejorar la conciencia y la comprensión de algunos de los resultados no deseados que ciertos efectos pueden plantear.

    Al fomentar una cultura de autenticidad, respeto y apoyo, podemos crear un mundo digital donde todos se sientan empoderados para ser ellos mismos.

    Ampliamos los recursos de la línea de ayuda en la aplicación

    Durante mucho tiempo, hemos proporcionado proactivamente a nuestra comunidad recursos de fuentes confiables cuando buscan ciertos temas. Por ejemplo, si alguien busca "autolesión", la búsqueda se bloqueará y se le redirigirá a una ONG local, o si busca "holocausto", se le mostrarán resultados y se le dirigirá a recursos educativos del Congreso Judío Mundial y la UNESCO.

    En las próximas semanas, en 13 países europeos, iremos más allá al conectar a las personas con líneas de ayuda locales que brindan apoyo experto cuando reportan contenido en la aplicación por suicidio, autolesión, odio y acoso. Esto significa que mientras revisamos el contenido y lo eliminamos, si viola nuestras Normas de la Comunidad, nuestra comunidad puede buscar ayuda en el momento si la necesita. Estos socios, incluida la Fundación ANAR en España, Spun Out en Irlanda, Nummergegen Kummer en Alemania y Bris en Suecia, ofrecen asistencia como asesoramiento, consejos, apoyo psicológico gratuito y otros servicios esenciales de los que pueden beneficiarse las personas que buscan estos temas.

    Este despliegue más amplio sigue a una prueba piloto exitosa de la iniciativa en Francia el año pasado, en asociación con la ONG local, E-enfance. La intervención fue reconocida por el ministro de Educación de Francia como una mejor práctica e incluida como recomendación para todas las plataformas en el Plan Interministerial para Combatir el Ciberacoso publicado recientemente.

    Cumplimiento de nuestra inversión de 12.000 millones de euros en seguridad de datos

    Continuamos con la implementación del Proyecto Clover, nuestro programa de seguridad de datos líder en la industria, que proporciona protección adicional para nuestros usuarios europeos, incluida la supervisión independiente de terceros por parte de expertos en ciberseguridad, NCC Group.

    Recientemente hemos alcanzado dos hitos importantes en la implementación: en primer lugar, nuestro centro de datos europeo en Noruega ya está operativo y ha comenzado la migración de los datos de los usuarios europeos de TikTok. Esto significa que nuestro enclave europeo, donde los datos de los usuarios europeos ahora se almacenan de forma predeterminada, ahora se aloja en servidores en los EE. UU., Irlanda y Noruega.

    En segundo lugar, NCC Group ha comenzado la supervisión continua de los entornos de pasarela de seguridad. Estas son barreras de seguridad adicionales que controlan el acceso a los datos en nuestro enclave europeo y están diseñadas para aplicar protocolos técnicos que solo permiten el acceso de empleados aprobados a ciertos tipos de datos.

    Desde artistas hasta empresas, creadores y usuarios cotidianos, TikTok se ha convertido en parte de la cultura y el tejido de la vida cotidiana en Europa. Nos esforzamos por establecer nuevos estándares en seguridad para garantizar que TikTok siga siendo una plataforma que une a las personas, entretiene, informa y crea oportunidades para nuestra comunidad europea durante muchos años más.

    *Este número se refiere a nuestros destinatarios activos mensuales y la metodología utilizada para calcular esta cifra es la misma que la metodología aplicada para nuestra cifra de cálculo de MAR bajo nuestras obligaciones de información de la DSA. Hay 32 países incluidos en esta cifra: Alemania, Austria, Bélgica, Bulgaria, Chipre, Croacia, Dinamarca, Eslovaquia, Eslovenia, España, Estonia, Finlandia, Francia, Grecia, Hungría, Irlanda, Islandia, Italia, Letonia, Liechtenstein, Lituania, Luxemburgo, Malta, Noruega, Países Bajos, Polonia, Portugal, Reino Unido, República Checa, Rumanía, Suecia y Suiza.

    ** Mercados europeos incluidos en la investigación: Alemania, Países Bajos, Suecia y Reino Unido.