Сегодня мы опубликовали глобальный Отчет о прозрачности деятельности за второе полугодие 2019 года (период с 1 июля по 31 декабря 2019 года). Этот отчет дает представление об объеме и характере запросов, которые мы получаем от правоохранительных органов по всему миру, и о том, как мы ответственно реагируем на них. Для повышения прозрачности наших методов и действий по модерации контента мы расширили этот отчет. Мы включили в него информацию о нашем подходе к обеспечению соблюдения наших политик и практик, которые делают TikTok безопасной и надежной средой для творческого самовыражения. Мы впервые публикуем данные о количестве видео, удаленных за нарушение Принципов нашего сообщества или Пользовательского соглашения, включая данные о пяти рынках с наибольшим количеством удаленных видео.

Общие сведения

В декабре 2019 года мы опубликовали первый Отчет о прозрачности деятельности, который описывал официальные запросы, которые мы получили, и наши ответы на них в течение первого полугодия 2019 года. Мы регулярно публикуем такие отчеты и планируем раскрывать больше информации в наших будущих отчетах, так как мы продолжаем инвестировать в нашу инфраструктуру, совершенствовать наши системы отчетности и разрабатывать новые политики, практики и партнерства в области безопасности.

Наш подход к безопасности

Во всем мире десятки тысяч видео загружаются в TikTok каждую минуту. С каждым загруженным видео мы несем все большую ответственность за обеспечение безопасности и благополучия наших пользователей. Мы являемся глобальной платформой, и тысячи людей на всех рынках присутствия TikTok работают, чтобы поддерживать безопасную и надежную среду приложения для каждого пользователя.

В наших командах по обеспечению безопасности, функционирующих по всему миру, работают опытные профессионалы, хорошо знающие наш продукт, политику компании, стандарты нормативно-правового соответствия, требования по обеспечению безопасности несовершеннолетних, законодательство и политики конфиденциальности, а также знакомые с работой неправительственных организаций. Работа этих команд направлена на развитие политики компании, ее технологий и стратегий модерации, чтобы эти компоненты существовали в гармонии с местным культурным контекстом. Наши ведущие специалисты тесно сотрудничают с региональными правительствами, органами исполнительной и законодательной власти, правоохранительными органами с целью продвижения высочайших стандартов безопасности пользователей.

Для обеспечения соблюдения Принципов сообщества мы используем сочетание технической и контентной модерации, чтобы идентифицировать учетные записи, не соответствующих нашим стандартам.

  • Техническая модерация: Наши системы автоматически отмечают определенные виды контента, которые нарушают наши Правила сообщества, что позволяет нам предпринимать оперативные меры и снизить уровень потенциального вреда. Эти системы распознают определенные алгоритмы или поведенческие сигналы для идентификации потенциально вредоносного контента.
  • Контентная модерация: Современные технологии недостаточно развиты, чтобы мы целиком полагались только на них. При идентификации нарушений в определенных видах контента, таких как сатира, важен контекст. Поэтому наша команда обученных модераторов просматривает и удаляет такой контент. В некоторых случаях команда превентивно удаляет набирающий популярность контент, такой как опасные челленджи или дезинформация. Еще один способ модерации контента основан на жалобах, которые мы получаем от наших пользователей. Мы стараемся облегчить пользователям возможность сообщить нам о потенциально недопустимом контенте или аккаунтах с помощью специальной функции составления жалобы в приложении. Она позволяет пользователю выбрать из списка конкретную причину, по которой он считает, что произошло нарушение наших правил (например, насилие или причинение вреда, притеснения, ненавистнические высказывания). Если наши модераторы идентифицируют нарушение, контент удаляется.

Мы продолжаем информировать наших пользователей о дополнительных доступных опциях и элементах управления, напрямую предоставляя им эту информацию в приложении в формате видеоматериалов об обеспечении безопасности и благополучия, а также в нашем Центре безопасности. На нашей новой веб-странице, посвященной Прозрачности, мы также предоставляем дополнительную информацию о мерах, которые мы предпринимаем для обеспечения безопасности нашей платформы, о деятельности нашей компании и о наших информационных ресурсах, таких как Правила сообщества и Отчеты о прозрачности деятельности.

Как мы обеспечиваем соблюдение Правил сообщества и Пользовательского соглашения

TikTok ценит творческое самовыражение, но защита от вредоносного контента также является для нас приоритетом. Принятие мер по борьбе с контентом, нарушающим наши правила, является важной частью выполнения наших обязательств перед пользователями.

Во второй половине прошлого года (с 1 июля по 31 декабря 2019 года) мы удалили 49 247 689 видео по всему миру за нарушение Правил сообщества или Пользовательского соглашения, что составляет менее 1% от всех видео, загруженных нашими пользователями. Наши системы активно перехватили и удалили 98,2% этих видео, прежде чем пользователи сообщили о них. Из общего количества удаленных видео 89,4% были удалены, прежде чем они были кем-либо просмотрены. Наш Отчет о прозрачности содержит подробную информацию о рынках с наибольшим количеством удаленных видео.

В конце прошлого года мы запустили новую систему модерации контента, которая позволяет более открыто отчитываться о причинах удаления видео с нашей платформы. В этом отчете представлен список нарушений по категориям для видео, удаленных в декабре, в рамках новой системы модерации контента. Когда видеоролик нарушает наши Принципы сообщества, он помечается как нарушающий наши политики и удаляется. Одно и то же видео может учитываться в нескольких категориях наших политик. Большинство контента в очереди на анализ уже переведено в нашу новую систему модерации, поэтому наши последующие отчеты будут включать более подробные данные за полный период времени каждого отчета.

Помимо удаления неприемлемого контента, мы продолжаем предпринимать значимые шаги по продвижению позитивного контента на платформе и повышению прозрачности нашей работы. Например, в этом году мы ввели более сложные политики, запустили функцию “Семейные настройки”, объяснили, как работают алгоритмы ленты рекомендаций.

Официальные запросы на информацию о пользователях

Как и все интернет-платформы, мы получаем официальные запросы на предоставление информации о пользователях от правительственных учреждений по всему миру. Любой запрос информации, который мы получаем, тщательно проверяется на предмет законности, чтобы определить, например, уполномочен ли запрашивающий орган собирать доказательства в связи с расследованием в правоохранительных органах или расследовать чрезвычайную ситуацию, связанную с неизбежным ущербом. Во второй половине 2019 года мы получили 500 официальных запросов на информацию из 26 стран, и в нашем отчете подробно описывается, как мы отреагировали.

Правительственные запросы на удаление контента

Время от времени мы получаем запросы от государственных учреждений на удаление контента на нашей платформе, например, запросы в отношении местных законов, запрещающих непристойность, разжигание ненависти, контент для взрослых и многое другое. Мы рассматриваем все материалы в соответствии с нашими Принципами сообщества, Пользовательским соглашением и применимым законодательством и предпринимаем соответствующие действия. Если мы считаем, что отчет не является юридически действительным или не нарушает наши стандарты, мы не предпринимаем никаких действий. В течение второй половины 2019 года мы получили 45 запросов на удаление или ограничение контента от государственных органов в 10 странах. Наш отчет включает в себя более подробную информацию.

Удаление по инициативе компании за нарушение авторских прав

Наши Принципы сообщества и Пользовательское соглашение запрещают содержание, нарушающее права интеллектуальной собственности третьих лиц. Творчество наших пользователей - главное в TikTok. Наша платформа помогает пользователям творчески выражать себя, и мы делаем все возможное, чтобы защитить эту возможность. Во второй половине 2019 года мы оценили 1338 уведомлений о нарушении авторских прав, и в нашем отчете показано, как мы отреагировали.

Перспективы на будущее

Поскольку наша молодая компания продолжает расти, мы стремимся ответственно подходить к формированию нашей платформы и модерированию контента. Мы работаем каждый день над тем, чтобы лучше анализировать нарушения перед удалением контента и предлагать нашим пользователям более эффективные способы контроля над опытом использования приложения, включая возможность обжалования, если мы что-то не так делаем. Мы продолжим совершенствовать наш Отчет о прозрачности деятельности, чтобы обеспечить более четкое представление о нашей практике и действиях, а также учесть отзывы, которые мы слышим от наших пользователей и других заинтересованных сторон.

Кроме того, мы планируем открыть в этом году наши международные Центры прозрачности в Лос-Анджелесе и Вашингтоне, округ Колумбия. Эти центры предоставят приглашенным экспертам и должностным лицам возможность лично убедиться, как наши команды осуществляют сложную и критически важную работу по модерированию контента на TikTok.

Наша конечная цель - сделать TikTok вдохновляющим местом, приносящим радость для каждого.