Aktualisierung vom 6. April um 19:00 Uhr MESZ

Ein halbes Jahr nach Beginn des Krieges zwischen Israel und der Hamas geben wir ein weiteres Update zu unserer Arbeit, um die Sicherheit unserer Community und die Integrität unserer Plattform zu gewährleisten.

In den sechs Monaten seit dem 7. Oktober 2023* haben wir in Israel und Palästina mehr als 3,1 Millionen Videos entfernt und mehr als 140.000 Livestreams gesperrt, weil sie gegen unsere Community-Richtlinien verstoßen haben. Darunter waren Inhalte, die für die Hamas warben, Hassreden, gewalttätiger Extremismus und Fehlinformationen. Weltweit haben wir im selben Zeitraum mehrere Millionen Inhalte entfernt, wie die folgende Tabelle zeigt.

Wir gehen auch weiterhin konsequent gegen betrügerisches Verhalten vor. In den vergangenen sechs Monaten seit Beginn des Krieges haben wir weltweit mehr als 320 Millionen gefälschte Konten und deren Inhalte entfernt.

Wie zu Beginn des Krieges angekündigt, haben wir sofort Ressourcen mobilisiert, um sowohl unsere automatischen und proaktiven Früherkennungssysteme zu verbessern als auch unsere Moderationsteams zu verstärken, damit wir diesen neuen und sich entwickelnden Risiken begegnen können. Dank der Optimierung unserer maschinellen Moderationsmodelle, die wir zu Beginn des Krieges vorgenommen haben, konnten wir in Israel und Palästina einen sofortigen Anstieg von 234 Prozent der durch diese Technologie entfernten Kommentare verzeichnen, die gegen die Community-Richtlinien verstoßen haben.

Im Rahmen regelmäßiger Schulungsprogramme für unsere Moderationsteams haben wir weltweit Trainings durchgeführt, die sich zum einen mit Voreingenommenheit auseinandersetzen und zum anderen als Auffrischung für unsere Richtlinien gegen Hassrede, mit Schwerpunkt auf Antisemitismus und Islamophobie, dienen. Diese Maßnahmen helfen uns sicherzustellen, dass wir unserer Community eine sichere, inklusive und einladende Nutzungserfahrungen bieten.

*Die Daten beziehen sich auf den Zeitraum vom 7. Oktober 2023 bis zum 31. März 2024.

Aktualisierung vom 12. Januar 2024

Seit unserem letzten Update Anfang Dezember 2023 haben wir weitere Fortschritte bei unserer Arbeit zur Bekämpfung von Hass auf TikTok gemacht und unsere Plattform geschützt, während der Krieg weitergeht:

  • Wir haben unsere #SwipeOutHate-Kampagne in den USA gestartet, mit der wir unsere Community ermutigen, gemeinsam gegen Hass vorzugehen, indem sie entsprechende Inhalte per App melden. Die Videos zur Kampagne wurden bereits millionenfach aufgerufen. In Europa wurde der Hashtag in den vergangenen drei Jahren nach seiner Einführung von unserer Community bereits mehr als 250 Millionen Mal aufgerufen.
  • Der Kommentarschutz-Modus, eine neue Möglichkeit des Kommentarfilters, der seit Ende vergangenen Jahres getestet wird, ist jetzt für alle in den USA, Israel und Palästina verfügbar, während wir die Funktion weiterhin weltweit testen.
  • Unsere Bemühungen, zusätzliche Partner in unseren Community-Partner-Kanal einzubinden, der die In-App-Meldefunktion erweitert, haben wir verstärkt. Der Community-Partner-Kanal bietet vertrauenswürdigen Mitgliedern und Organisationen weltweit, einschließlich solcher in Konfliktregionen, eine direkte Möglichkeit, uns Inhalte zur Überprüfung zu melden. Seit Dezember haben wir acht neue Organisationen aufgenommen, die Communities repräsentieren, die vom Krieg betroffen sind. Diese Organisationen stammen unter anderem aus Australien, Mexiko und Dänemark.

Wir setzen unsere Community-Richtlinien weiterhin gewissenhaft und konsequent durch. Seit Beginn des Krieges bis zum Ende des vergangenen Jahres haben wir mehr als 1,5 Millionen Videos entfernt und mehr als 46.000 Livestreams in Israel und Palästina gesperrt, weil sie gegen unsere Community-Richtlinien verstoßen haben, darunter Inhalte, die die Hamas, Hassrede, Terrorismus und Fehlinformationen fördern. Weltweit haben wir im gleichen Zeitraum mehrere Millionen Inhalte entfernt, wie in der nachstehenden Tabelle dargestellt, und mehr als 1,5 Millionen Videos mit gewalttätigen oder expliziten Inhalten für Teenager-Konten gesperrt.

Wir sind auch weiterhin wachsam gegenüber betrügerischen Verhaltensweisen. Vom 7. Oktober bis zum Ende des letzten Jahres haben wir weltweit mehr als 169 Millionen gefälschte Konten gelöscht, und wir haben etwa 1,2 Millionen Bot-Kommentare zu Inhalten entfernt, die mit Hashtags im Zusammenhang mit dem Konflikt versehen waren.

Aktualisierung am 7. Dezember um 21:45 Uhr MEZ

Wir wissen, dass dies eine schwierige, beängstigende und polarisierende Zeit für viele Menschen auf der ganzen Welt und auf TikTok ist. Da wir uns weiterhin auf die Sicherheit unserer Community konzentrieren, starten wir eine Reihe von Initiativen, um Hass auf TikTok zu unterbinden. Dazu gehört eine öffentliche Initiative auf unserer Plattform, die Menschen dazu ermutigt, gemeinsam gegen hasserfülltes Verhalten anzugehen.

  • Wir haben innerhalb unseres Trust-&-Safety-Teams eine neue Task Force zur Bekämpfung von Hass und Diskriminierung eingerichtet, die einen rigiden Plan entwickelt, um als Reaktion auf den jüngsten Anstieg hasserfüllten Verhaltens noch härter durchzugreifen, wobei der Schwerpunkt auf Antisemitismus und Islamophobie liegt. Als Teil dieser Bemühungen investieren wir mehr Ressourcen, um neue und aufkommende Trends proaktiv zu erkennen, bevor sie wahrgenommen werden. Außerdem verstärken und vertiefen wir die Schulungen für Moderator*innen in Zusammenarbeit mit Expert*innen, um implizite Voreingenommenheit und die besonderen Aspekte von Hassideologien zu berücksichtigen.
  • Während wir die Moderation unserer Inhalte verstärken, fügen wir auch Möglichkeiten hinzu, die es den Creator*innen ermöglichen, ihr Erlebnis zu gestalten.
    • Wir beginnen in einigen Regionen mit der Einführung des Kommentarschutz-Modus, der unser Angebot an Kommentarkontrollen um neue Optionen zum Filtern unfreundlicher oder unerwünschter Kommentare erweitert. Wenn der Kommentarschutz-Modus aktiviert ist, werden Kommentare gefiltert, von denen wir glauben, dass sie denen ähneln, die Creator*innen zuvor gemeldet oder gelöscht haben, oder die unangemessen oder beleidigend sind oder Schimpfwörter enthalten.
    • Wir möchten sicherstellen, dass jede*r Creator*in auf TikTok weiß, welche Tools zur Verfügung stehen. Wir starten damit, neue Creator*innen nach dem Posten ihres ersten Videos zu informieren und erfahrene Creator*innen, die diese Tools noch nicht genutzt haben, daran zu erinnern. Wir beginnen zudem damit, Creator*innen, die einen Anstieg an unwillkommenen oder unfreundlichen Kommentaren erleben, zu ermuntern, den Kommentarschutz-Modus zu aktivieren und eine neue Funktion zu nutzen, die wir gerade einführen, um Kommentare von Konten zu filtern, die nicht in der Follower*innen-Liste der Creator*innen sind. Erste Daten haben gezeigt, dass Creator*innen, die diese Filter verwenden, einen Rückgang entsprechender Kommentare um 30 Prozent verzeichnen können.
  • Wir wissen, dass wir am meisten in der Auseinandersetzung mit dem Thema Hass lernen, indem wir uns dazu direkt mit den betroffenen Gruppen austauschen. Um sicherzustellen, dass die Produkte, die wir entwickeln, unserer Community wie beabsichtigt helfen, entwickeln wir ein Co-Design- und Produkt-Beta-Testprogramm, bei dem Creator*innen ihre Meinung zu unseren Funktionen äußern und sie testen können, um sicherzustellen, dass unsere Produkte ihren Bedürfnissen entsprechen. Außerdem erweitern wir im nächsten Jahr den Kreis unserer betreuten Creator*innen um weitere jüdische und andere interreligiöse Communitys sowie auf asiatisch-pazifischer Inselbewohner und LGBTQI+.

Darüber hinaus arbeiten wir weiterhin mit Nachdruck an der Durchsetzung unserer Richtlinien zu Hassrede, Fehlinformationen und anderen Themen. Vom 7. Oktober bis zum 30. November haben wir mehr als 1,3 Millionen Videos in der Konfliktregion entfernt, weil sie gegen unsere Community-Richtlinien verstoßen haben, darunter Inhalte, die die Hamas, Hassrede, Terrorismus und Fehlinformationen befürworten. Weltweit haben wir im gleichen Zeitraum mehrere Millionen Inhalte entfernt, wie in der nachstehenden Tabelle dargestellt, und über eine Million Videos mit gewalttätigen oder grafischen Inhalten für Konten von Teenagern gesperrt.


Aktualisierung am 23. November 2023 um 16:00 Uhr MEZ

Während der Konflikt andauert, konzentrieren wir uns weiterhin auf die Durchsetzung unserer Richtlinien gegen Hass, schädliche Fehlinformationen und andere Inhalte, die gegen unsere Richtlinien verstoßen. Vom 7. Oktober bis zum 17. November haben wir mehr als 1.164.000 Videos in der Konfliktregion entfernt, weil sie gegen unsere Richtlinien verstoßen haben, darunter Inhalte, die die Hamas unterstützen, Hassrede, Terrorismus und Fehlinformationen. Weltweit haben wir im gleichen Zeitraum Millionen von Inhalten entfernt:

Wir ergreifen weiterhin schnelle Maßnahmen gegen die Zunahme von gefälschten Interaktionen und Konten. Im Monat vor Beginn des Konflikts haben wir weltweit 21 Millionen gefälschte Konten entfernt, im Monat nach Kriegsbeginn waren es bereits 35 Millionen - ein Anstieg um 67 Prozent. In eben diesem Monat haben wir auch 933.000 Bot-Kommentare zu Inhalten entfernt, die mit Hashtags im Zusammenhang mit dem Konflikt versehen waren.

Wir sind uns bewusst, dass dies eine herausfordernde Zeit für viele in unserer Community ist. Deshalb suchen wir auch weiterhin nach Möglichkeiten, direkt von Creator*innen über ihre Erfahrungen auf TikTok zu hören und mit Community-Gruppen und anderen Expert*innen zu sprechen. Währenddessen arbeiten unsere Teams unermüdlich an zusätzlichen Änderungen und Tools, wie z. B. unserem neuen Angebot im Sicherheitszentrum, das darüber informiert, wie man bei tragischen Ereignissen Unterstützung erhält.

Aktualisierung am 5. November 2023 um 16 Uhr MEZ

Genauso wie Millionen Menschen in unserer Community sind auch wir entsetzt über den gemeldeten Anstieg von Islamophobie und Antisemitismus in der Welt. Hasserfüllte Ideologien sind auf unserer Plattform nicht erlaubt und waren es auch nie. Wir ergreifen kontinuierlich wichtige Maßnahmen zum Schutz unserer Community und tragen unseren Teil dazu bei, die Verbreitung von Hass zu verhindern.

Seit dem 7. Oktober haben wir mehr als 925.000 Videos in der Konfliktregion entfernt, weil sie gegen unsere Richtlinien in Bezug auf Gewalt, Hassrede, Fehlinformationen und Terrorismus verstoßen, darunter auch Inhalte, die die Hamas unterstützen. Im gleichen Zeitraum haben wir auf TikTok weltweit Millionen von Inhalten entfernt.

Während der Krieg andauert, beobachten unsere Teams aufmerksam die sich entwickelnden Inhaltstrends und arbeiten mit Partner*innen und Informationsdiensten zusammen, um aufkommenden Themen und potenziellen Risiken einen Schritt voraus zu sein. Wir haben bereits Veränderungen in der Art der verstoßenden Inhalte festgestellt, die wir entfernen. Auf den anfänglichen Anstieg schockierender und expliziter Inhalte, folgte ein Anstieg von Inhalten, die Terrorismus fördern. In jüngster Zeit verzeichnen wir eine Zunahme von Fehlinformationen, Verschwörungstheorien und der Verbreitung von hasserfüllten Ideologien, einschließlich Islamophobie und Antisemitismus.

Wir haben im Zuge des Konflikts auch einen sprunghaften Anstieg von gefälschten Interaktionen festgestellt und dementsprechend seit Beginn des Krieges weltweit mehr als 24 Millionen gefälschte Konten entfernt. Darüber hinaus haben wir auch mehr als eine halbe Million Bot-Kommentare zu Inhalten unter Hashtags mit Bezug zum Konflikt entfernt.

Wir bleiben wachsam, wenn es darum geht, Änderungen an unseren Richtlinien und Durchsetzungsstrategien zu erwägen und umzusetzen. Ein wichtiger Teil davon ist die Zusammenarbeit mit externen Expert*innen. So arbeiten wir beispielsweise mit Dutzenden Organisationen zusammen, die jüdische und muslimische Gemeinschaften vertreten, um sicherzustellen, dass unsere Maßnahmen gegen Antisemitismus und Islamophobie wirksam sind. Wir haben auch unsere Richtlinien für die LIVE Funktion aktualisiert, um zu verhindern, dass Personen die Monetarisierungsfunktionen missbrauchen, um die aktuelle Tragödie für persönlichen Profit auszunutzen.

Aktualisierung am 25. Oktober 2023 um 20 Uhr MEZ

Wir konzentrieren uns weiterhin auf die schnelle und konsequente Durchsetzung unserer Richtlinien zum Schutz der TikTok Community. Seit dem 7. Oktober haben wir über 775.000 Videos entfernt und über 14.000 Livestreams beendet, die Gewalt, Terrorismus, Hassreden, Fehlinformationen und andere Verstöße gegen unsere Community-Richtlinien in der betroffenen Region fördern.

Ausgangspost - 16. Oktober 2023

TikTok ist gegen jegliche Form des Terrorismus. Wir sind schockiert und entsetzt über die schrecklichen Terroranschläge, die die israelische Bevölkerung in der vergangenen Woche getroffen haben. Darüber hinaus sind wir zutiefst betrübt über die sich verschärfende humanitäre Krise im Gazastreifen. Unser Mitgefühl gilt allen, die von dieser Situation betroffen sind.

Wir haben sofort umfangreiche Ressourcen und Mitarbeiter*innen mobilisiert, um die Sicherheit unserer Community und die Integrität unserer Plattform zu wahren. Wir verpflichten uns zu Transparenz, während wir daran arbeiten, einen sicheren Raum für unsere globale Community zu schaffen. Wir konzentrieren uns weiterhin darauf, die freie Meinungsäußerung zu fördern, unserer Verpflichtung gegenüber den Menschenrechten nachzukommen und unsere Plattform während der Auseinandersetzungen zwischen Israel und der Hamas zu schützen.

Einhaltung der TikTok Community-Richtlinien

Im Zuge eines umfassenden Krisenmanagements verfolgen wir das Ziel, unsere Community zu schützen. Folgende Maßnahmen spielen hierfür eine entscheidende Rolle:

  • Einrichtung einer Leitstelle, in der die wichtigsten Mitglieder unseres 40.000-köpfigen globalen Sicherheitsteams mit unterschiedlichen Fachkenntnissen und regionalen Perspektiven zusammenkommen, damit wir flexibel auf diesen sich rasch entwickelnden Konflikt reagieren können.
  • Wir entwickeln unsere automatischen und proaktiven Früherkennungssysteme in Echtzeit weiter, sobald wir neue Bedrohungen identifizieren. So können wir automatisch Inhalte erkennen und entfernen, die gegen unsere Richtlinien verstoßen, ohne dass Moderator*innen und die Community diesen Inhalten ausgesetzt sind.
  • Wir stellen mehr Moderator*innen ein, die Arabisch und Hebräisch sprechen, um Inhalte im Zusammenhang mit diesen Ereignissen zu überprüfen. Da wir uns weiterhin auf die Unterstützung der Moderator*innen verlassen, werden wir in dieser Zeit zusätzliche Ressourcen für das Wohlergehen der Moderator*innen bereitstellen.
  • Wir setzen unsere Richtlinien gegen Gewalt, Hass und gefährliche Fehlinformationen weiterhin durch, mit denen wir Inhalte und Konten, die gegen diese Richtlinien verstoßen, umgehend entfernen. So entfernen wir beispielsweise Inhalte, die Anschläge befürworten oder die Opfer der Anschläge verhöhnen. Wenn Inhalte gepostet werden, die eine mögliche Geisel zeigen, werden wir alles in unserer Macht Stehende tun, um ihre Würde zu schützen und Inhalte zu entfernen, die gegen unsere Richtlinien verstoßen. Wir dulden keine Aufrufe zur Gewalt oder zur Verbreitung hasserfüllter Ideologien. Wir verfolgen eine Null-Toleranz-Politik für Inhalte, die gewalttätige und hasserfüllte Organisationen oder Personen preisen. Wir blockieren außerdem Hashtags, die Gewalt befürworten oder anderweitig gegen unsere Regeln verstoßen.
  • Integration von Opt-in-Bildschirmen für Inhalte, die auf Nutzer*innen schockierend wirken können, um zu verhindern, dass Menschen diese ungewollt sehen. Wir sind uns bewusst, dass bestimmte Inhalte, die sonst gegen unsere Richtlinien verstoßen würden, im öffentlichen Interesse liegen - diesen gestatten wir zu Dokumentations-, Bildungs- und Counter-Speech-Zwecken auf der Plattform zu verbleiben.
  • Vorübergehende Anpassungen der Richtlinien für bestimmte Funktionen, um proaktiv zu verhindern, dass diese für hasserfülltes oder gewalttätiges Verhalten missbraucht werden. Angesichts des erhöhten Sicherheitsrisikos, das im Zusammenhang mit den jüngsten Geiselnahmen steht, haben wir zum Beispiel unsere LIVE-Funktion vorübergehend eingeschränkt.
  • Wir arbeiten weltweit mit den Strafverfolgungsbehörden zusammen und berufen uns dabei auf unsere Richtlinien zur Strafverfolgung, die auf rechtlichen Standards beruhen. Wir sind uns der besonderen und unmittelbaren Gefahr von Geiselnahmen für das menschliche Leben bewusst und arbeiten mit den Behörden zusammen, um die Sicherheit der Opfer gemäß unserer Notfallvorkehrungen zu garantieren.
  • Zusammenarbeit mit Expert*innen aus der Branche und der Zivilgesellschaft, etwa mit Tech Against Terrorism und unseren Beiräten, um unsere Plattform in diesen schwierigen Zeiten noch besser zu schützen.

Seit den brutalen Anschlägen am 7. Oktober haben wir unermüdlich daran gearbeitet, Inhalte zu entfernen, die gegen unsere Richtlinien verstoßen. Bis heute haben wir über 500.000 Videos entfernt und 8.000 Livestreams in der betroffenen Region beendet, weil sie gegen unsere Richtlinien verstoßen haben.

Die Verbreitung irreführender Inhalte unterbinden

In Krisenzeiten können Fehlinformationen die Situation verschärfen. Deshalb arbeiten wir daran, gefährliche Fehlinformationen zu identifizieren und zu entfernen. Wir entfernen außerdem künstlich hergestellte Medieninhalte, die so bearbeitet, zusammengefügt oder kombiniert wurden, dass die Community in die Irre geführt werden könnte.

Um diese Richtlinien so konsequent wie möglich durchsetzen zu können, arbeiten wir mit IFCN-akkreditierten Faktenprüfungs-Organisationen zusammen, die über 50 Sprachen beherrschen, darunter Arabisch und Hebräisch. Die Faktenprüfer*innen bewerten die Inhalte, damit unsere Moderator*innen unsere Richtlinien für Fehlinformationen genau anwenden können. Während ein Video einer Faktenprüfung unterzogen wird, sperren wir es aus Gründen der Vorsicht für den „Für dich"-Feed. Wenn die Überprüfung der Fakten nicht schlüssig ist, kennzeichnen wir den Inhalt als ungeprüft, löschen ihn aus dem „Für dich"-Feed und fordern die Nutzer*innen auf, sich noch einmal Gedanken zu machen, bevor sie den Inhalt teilen.

Wir suchen weiterhin proaktiv nach Hinweisen für betrügerisches Verhalten auf unserer Plattform. Hierzu zählt auch die Überwachung von Verhaltensweisen, die auf verdeckte Einflussnahme hindeuten und die zu einer Sperre des Inhalts und des dazugehörigen Kontos führen würden.

In Kürze werden wir die Suchfunktion um Warnhinweise für bestimmte Schlüsselwörter auf Hebräisch, Arabisch und Englisch ergänzen. So wollen wir unsere Community dazu ermutigen, sich potenzieller Fehlinformationen bewusst zu werden, verlässliche Quellen zu konsultieren und sie an unsere In-App-Wellbeing-Ressourcen erinnern, falls sie diese benötigen.

Das eigene Erlebnis auf TikTok gestalten

Wir bieten eine breite Palette an Funktionen, mit denen unsere Nutzer*innen ihr ganz persönliches Erlebnis auf der Plattform gestalten können. Hierzu zählen:

  • Kontrolle des „Für dich"-Feeds: Nutzer*innen können bei Inhalten, die sie nicht sehen möchten, auf „Nicht interessiert“ oder „Aktualisieren“ klicken, wenn sie den Algorithmus ihres Feeds neu einstellen möchten. Im eingeschränkten Modus werden Inhalte, die für ein breites Publikum nicht geeignet sind, entfernt oder mit Warnhinweisen versehen.
  • Kontrolle über die Kommentarspalte: Die Nutzer*innen können selbst festlegen, wer ihre Videos kommentieren darf. Sie können Schlüsselwörter aus den Kommentaren herausfiltern oder Kommentare überprüfen, bevor diese veröffentlicht werden. Sie können außerdem Kommentare blockieren, löschen und in großen Mengen melden. Wir fordern die Nutzer*innen auf, das Posten unfreundlicher Kommentare zu überdenken.
  • Kontrolle der Bildschirmzeit: Wir bieten eine Reihe von Tools an, die den Nutzer*innen helfen, ihre Bildschirmzeit zu regulieren, etwa indem sie ein Limit für die Bildschirmzeit einrichten oder sich daran erinnern lassen, regelmäßig Pausen einzulegen oder sich vor dem Schlafengehen abzumelden.
  • Kinder und Jugendliche schützen: Im begleiteten Modus können Eltern und Erziehungsberechtigte ihr TikTok Konto mit den Konten ihrer Kinder verknüpfen, um eine Reihe von Inhaltseinstellungen zu aktivieren. Sie können zum Beispiel die Suchfunktion deaktivieren, den eingeschränkten Modus aktivieren und die Bildschirmzeiteinstellungen anpassen.
  • Melden von Inhalten: Alle Nutzer*innen können Inhalte auf TikTok melden, darunter Kommentare, Konten und Livestreams. Hierfür müssen sie lange auf ein Video tippen, auf „Melden" klicken und einen Grund auswählen, wie z. B. Fehlinformationen.

Wir stellen unserer Community außerdem hilfreiche Ressourcen zu einer Reihe von Themen zur Verfügung, etwa zur Frage, wie man Hass erkennt und meldet oder wie man sich sicher über mentale Gesundheit austauschen und bei Bedarf Hilfe in Anspruch nehmen kann.

Wir werden unsere Sicherheitsvorkehrungen weiterhin optimieren, um unsere Community noch besser zu schützen.



Über TikTok
TikTok ist die führende Plattform für mobile Kurzvideos. Unsere Mission ist es, Menschen zu inspirieren und zu bereichern, indem wir ihnen ein kreatives Zuhause geben und ihnen ein authentisches, unterhaltsames und positives Erlebnis bieten. TikTok hat seine globalen Hauptsitze in Los Angeles sowie Singapur und weltweit Büros unter anderem in New York, London, Dublin, Paris, Berlin, Dubai, Jakarta, Seoul und Tokio. www.tiktok.com.

Pressekontakt TikTok
Kommunikationsteam für Deutschland, Österreich und die Schweiz
dachcomms@tiktok.com


Pressestelle TikTok D-A-CH
FAKTOR 3 AG
Kattunbleiche 35 | 22041 Hamburg
tiktok@faktor3.de