By Theo Bertram, Director of Government Relations and Public Policy, Europe and Cormac Keenan, Head of Trust and Safety, EMEA

Heute haben wir unseren globalen Transparenzbericht für die zweite Hälfte des Jahres 2019 (1. Juli - 31. Dezember 2019) veröffentlicht. Dieser Bericht gibt einen Einblick in den Umfang und die Art der Anfragen, die wir von Strafverfolgungsbehörden auf der ganzen Welt erhalten und zeigt, wie wir verantwortungsbewusst darauf reagieren. Wir erklären außerdem unseren Ansatz zur Durchsetzung unserer Richtlinien, mit denen wir TikTok zu einem sicheren und authentischen Ort für unsere Nutzer*innen machen wollen. Um die Transparenz in Bezug auf unsere Moderation von Inhalten zu erhöhen, veröffentlichen wir zum ersten Mal die Anzahl der Videos, die wegen Verstoßes gegen unsere Community-Richtlinien oder Nutzungsbedingungen entfernt wurden. Wir informieren außerdem über die fünf Märkte mit der größten Anzahl an entfernten Videos.

Hintergrund

Im vergangenen Dezember haben wir unseren ersten Transparenzbericht veröffentlicht, der die bei uns eingegangenen rechtlichen Anfragen und unsere Antworten darauf für die erste Hälfte des Jahres 2019 enthielt. Wir veröffentlichen diese Berichte regelmäßig und planen, in künftigen Berichten noch mehr Informationen zu liefern, da wir weiterhin in unsere Infrastruktur investieren. Wir verbessern unsere Berichterstattungssysteme und entwickeln neue Sicherheitsrichtlinien, -praktiken und -partnerschaften.

Unser Ansatz zur Sicherheit  

Auf der ganzen Welt werden jede Minute Zehntausende Videos auf TikTok hochgeladen. Mit jedem Video wächst auch unsere Verantwortung, die Sicherheit und das Wohlergehen unserer Nutzer*innen zu schützen.

In allen Märkten, in denen TikTok vertreten ist, arbeiten tausende Menschen tagtäglich daran, ein sicheres und geschütztes App-Umfeld aufrechtzuerhalten.

Dazu gehören unsere Trust & Safety-Hubs in Dublin, San Francisco und Singapur. Unsere globalen Sicherheitsteams setzen sich aus erfahrenen Branchenexperten aus den Bereichen Produkt, Policy, Compliance, Sicherheit Minderjähriger, Recht, Datenschutz sowie NGOs zusammen. Diese spezialisierten Hubs konzentrieren sich auf die Stärkung von Richtlinien, Technologien und Moderationsstrategien und stellen sicher, dass diese sowohl die lokale Kultur als auch den lokalen Kontext in ihre Arbeit mit einbeziehen. Unsere Trust & Safety-Kollegen arbeiten eng mit regionalen Regulierungsbehörden, politischen Entscheidungsträgern, Regierungen und Strafverfolgungsbehörden zusammen, um den höchstmöglichen Sicherheitsstandard für unsere Nutzer*innen zu gewährleisten. 

Um unsere Gemeinschaftsrichtlinien durchzusetzen, setzen wir eine Kombination aus Technologie und Inhaltsmoderation ein, um Inhalte und Konten, die nicht unseren Standards entsprechen, zu identifizieren und zu entfernen. 

- Technologie: Unsere Systeme kennzeichnen automatisch Inhalte, die gegen unsere Gemeinschaftsrichtlinien verstoßen könnten. So können wir schnell handeln, um potenziellen Schaden zu reduzieren. Diese Systeme berücksichtigen beispielsweise Muster oder Verhaltenssignale, um Inhalte zu kennzeichnen.

- Inhaltliche Moderation: Die Technologie ist heute noch nicht so fortgeschritten, dass wir uns bei der Durchsetzung unserer Politik allein auf sie verlassen können. In bestimmten Fällen, beispielsweise bei Satire, kann der Kontext wichtig sein, um zu bestimmen, ob ein Verstoß vorliegt. Daher hilft unser Team von geschulten Moderator*innen bei der Überprüfung und Entfernung von Inhalten. In einigen Fällen entfernt dieses Team proaktiv Inhalte, die einen Verstoß darstellen, wie z.B. sich entwickelnde gefährliche Challenges oder schädliche Fehlinformationen. 

Eine andere Art, Inhalte zu moderieren, basiert auf Meldungen, die wir von unseren Nutzer*innen erhalten. Wir möchten es unseren Nutzer*innen erleichtern, potenziell unangemessenen Inhalt oder Konten mithilfe unserer in der App integrierten Berichtsfunktion zu melden. Nutzer*innen können aus einer Liste von Gründen auswählen, warum ihrer Meinung nach ein Video oder ein Konto gegen unsere Richtlinien verstößt (wie zum Beispiel durch das Darstellen von Gewalt oder Verletzungen, Belästigung oder Hassrede).

Die Moderator*innen bewerten dann den gemeldeten Inhalt, um festzustellen, ob er gegen die TikTok Gemeinschaftsrichtlinien oder die Nutzungsbedingungen verstößt. Wenn das der Fall ist, wird der Inhalt entfernt.

Wir informieren unsere Nutzer*innen laufend über ihre Kontrollmöglichkeiten, beispielsweise mit unseren in der App integrierten Videos zu Sicherheit und Wohlergehen ("Digital Wellbeing"). Wir informieren außerdem über unsere Sicherheitsmaßnahnmen und -optionen in unserem Sicherheitszentrum.

Wie wir unsere Gemeinschaftsrichtlinien und Nutzungsbedingungen durchgesetzt haben

Bei TikTok feiern wir die Kreativität unserer Nutzer*innen, aber wir geben vor allem dem Schutz vor Schaden den Vorrang. Das Ergreifen von Maßnahmen bei Inhalten, die gegen unsere Richtlinien verstoßen, ist ein entscheidender Teil dessen, wie wir unsere Verantwortung gegenüber unserer Community wahrnehmen.

In der zweiten Hälfte des letzten Jahres 2019 (1. Juli - 31. Dezember) haben wir weltweit 49.247.689 Videos entfernt, weil sie gegen unsere Gemeinschaftsrichtlinien oder Nutzungsbedingungen verstoßen haben. Das sind weniger als 1% aller von unseren Nutzer*innen hochgeladenen Videos. Unsere Systeme fanden proaktiv 98,2% dieser Videos und entfernten sie, bevor eine Nutzerin oder ein Nutzer sie meldete. Von allen insgesamt entfernten Videos wurden 89,4% gelöscht, bevor sie überhaupt angesehen wurden. Unser Transparenzbericht enthält Einzelheiten zu den Märkten mit der größten Anzahl an entfernten Videos.

Ende vergangenen Jahres haben wir mit der Einführung einer neuen Infrastruktur zur Moderation von Inhalten begonnen, die es uns ermöglicht, die Gründe für die Entfernung von Videos transparenter zu machen. Für den Monat Dezember 2019 stellen wir in diesem Bericht eine Aufschlüsselung der Richtlinienkategorien zur Verfügung, aus denen Videos entfernt wurden. Ein Video, das gegen unsere Gemeinschaftsrichtlinien verstößt, wird mit der oder den Richtlinien, gegen die es verstößt, gekennzeichnet und entfernt. Das bedeutet, dass dasselbe Video in mehreren Richtlinienkategorien gezählt werden kann. Inzwischen haben wir den Großteil unserer noch durchzuführenden Inhaltsüberprüfungen auf unser neues System umgestellt. Unsere nachfolgenden Berichte werden dann über den gesamten Zeitraum jedes Berichts detailliertere Daten, sowohl für den Inhalt als auch für die Konten, enthalten.

Neben der Entfernung von Inhalten unternehmen wir weiterhin wichtige Schritte, um ein positives Erlebnis auf unserer Plattform zu fördern und unsere Praktiken sichtbar zu machen. So haben wir beispielsweise in den vergangenen sechs Monaten ausgefeiltere Gemeinschaftsrichtlinien eingeführt; in Dublin, San Francisco und Singapur Trust & Safety Hubs aufgebaut; weitere Sicherheitsfunktionen für Familien eingeführt; und erklärt, wie Videos für die Für-Dich Seite empfohlen werden. Wir sind außerdem der globalen WePROTECT-Alliance beigetreten und haben unsere Unterstützung für die freiwilligen Grundsätze zur Bekämpfung von Kinderausbeutung Online angekündigt

Rechtliche Anfragen für Benutzerinformationen

Wie alle Internetplattformen erhalten wir rechtliche Anfragen nach Nutzerinformationen von Regierungen aus aller Welt. Jede Informationsanfrage, die bei uns eingeht, wird sorgfältig auf ihre rechtliche Zulänglichkeit geprüft, um beispielsweise festzustellen, ob die ersuchende Stelle befugt ist, im Zusammenhang mit einer Strafverfolgungsuntersuchung Beweise zu sammeln oder einen Notfall mit drohendem Schaden zu untersuchen. In der zweiten Jahreshälfte 2019 erhielten wir 500 rechtliche Auskunftsersuche aus 26 Ländern. In unserem Bericht erfahren Sie, wie wir darauf reagiert haben. 

Regierungsanfragen zur Entfernung von Inhalten   

Gelegentlich erhalten wir Anfragen von Regierungsbehörden, um Inhalt auf unserer Plattform zu entfernen, wie z.B. Forderungen, die mit lokalen Gesetzen zusammenhängen, die Obszönität, Hassreden oder Inhalte für Erwachsene verbieten. Wir prüfen diese Inhalte im Sinne unserer Gemeinschaftsrichtlinien, unserer Nutzungsbedingungen sowie dem geltenden Recht und ergreifen entsprechende Maßnahmen. Wenn wir der Meinung sind, dass eine Anfrage nicht rechtsgültig ist oder der betroffene Inhalt nicht gegen unsere Richtlinien verstößt, dürfen wir nicht gegen den Inhalt vorgehen. In der zweiten Hälfte des Jahres 2019 erhielten wir 45 Anträge auf Entfernung oder Einschränkung von Inhalten von Regierungsstellen in 10 Ländern. Mehr Details finden Sie in unserem Bericht.

Entfernung aufgrund von Urheberrechtsverletzungen

Unsere Gemeinschaftsrichtlinien und Nutzungsbedingungen verbieten Inhalte, die gegen den Schutz des geistigen Eigentums Dritter verstoßen. Unsere Plattform ermöglicht es den Nutzer*innen, ihre Kreativität auszudrücken, und wir bemühen uns, sie in diesem Selbstausdruck zu schützen. In der zweiten Hälfte des Jahres 2019 haben wir 1.338 Hinweise auf urheberrechtlich geschützte Inhalte ausgewertet, und unser Bericht zeigt, wie wir reagiert haben.

Blick in die Zukunft

Während wir als junges Unternehmen weiter wachsen, verpflichten wir uns, beim weiteren Ausbau unserer Plattform und bei der Moderation von Inhalten einen verantwortungsvollen Ansatz zu verfolgen. Wir arbeiten jeden Tag daran, transparenter über Inhalte zu informieren, die wir entfernen, und unseren Nutzer*innen sinnvolle Möglichkeiten zur Kontrolle Ihrer App-Erfahrung zu bieten.

Wir werden unseren Transparenzbericht weiterentwickeln, um unsere Praktiken und Maßnahmen noch transparenter zu machen und um auf das Feedback einzugehen, das wir von unseren Nutzer*innen und externen Interessengruppen erhalten. 

Unser wichtigstes Ziel ist es, Menschen zu inspirieren und zu bereichern, indem wir ihnen eine kreative Heimat geben und ihnen ein authentisches, unterhaltsames und positives Erlebnis bieten.