Author: Cormac Keenan, Head of Trust and Safety, TikTok

Dieser Artikel ist Teil der Serie zu TikToks Sicherheitsgrundsätzen, die einen Blick hinter die Kulissen der Arbeit unserer Sicherheitsteams ermöglicht.

Tausende Menschen arbeiten bei TikTok daran, unsere Plattform sicher zu machen, damit unsere Community ihrer Kreativität freien Lauf lassen und beste Unterhaltung genießen kann. Das „Trust and Safety Team“ bei TikTok setzt vielfältige Maßnahmen zum Schutz der Community um. Auf unserem Weg zu mehr Sicherheit wollen wir offen und transparent sein. Aus diesem Grund möchten wir hier Einblicke in unsere Arbeit geben.

Community-Richtlinien festlegen und weiterentwickeln

Unsere Community-Richtlinien definieren die Regeln und den Verhaltenskodex für TikTok: Sie geben Orientierung, was erlaubt ist und was nicht, damit TikTok ein einladender Ort bleibt. Unsere Expert*innen sind dafür zuständig, diese Richtlinien ständig zu überprüfen und abzuwägen, wie wir kreative Freiheiten schaffen und dabei potenzielle Schäden vermeiden können.

Die Menschen in unseren Sicherheitsteams sind Fachleute auf unterschiedlichsten Gebieten – einige haben ihre Expertise in der Arbeit für Technologieunternehmen gewonnen, andere sind aus zivilgesellschaftlichen Organisationen oder von Regierungen und Behörden zu uns gekommen. Zu ihren Aufgaben gehört es, sich mit komplexen und anspruchsvollen Fragestellungen auseinanderzusetzen – zum Beispiel, wo wir die Grenzen bei Inhalten zum Thema Essstörungen ziehen sollten. Aus unserer Arbeit mit externen Expert*innen wissen wir nicht nur, dass Inhalte mit Bezug zu Essstörungen schädliche Folgen haben können, sondern auch, dass Inhalte mit dem Fokus auf die Genesung eine positive Wirkung entfalten können. Bei der Verfeinerung unserer Richtlinien ist es uns wichtig, genau solche Nuancen zu berücksichtigen.

Gefahren erkennen und Regeln durchsetzen

In den Produkt- und Prozessteams liegt der Fokus auf der Entwicklung von Strategien und Techniken, um Gefahren effizienter zu erkennen und unsere Community-Richtlinien in skalierbarem Maßstab durchzusetzen. Ein Beispiel ist die Nutzung der "Hashing"-Technologie um ein eindeutiges, digitales Identifikationsmerkmal eines Bildes oder Videos zu erstellen. Dies ist in der Branche Standard, um identifizierte schädliche Inhalte als Regelverstöße zu markieren und sie leichter in großem Umfang löschen zu können. Die Technik kommt beispielsweise dann zum Einsatz, wenn Inhalte entfernt werden, die unsere Richtlinien gegen die Verbreitung von Bildern sexueller Ausbeutung von Kindern verletzen. Die Identifikationsmerkmale helfen dabei, sämtliche dieser Inhalte zu finden, zu löschen und das erneute Hochladen zu blockieren.

Wie wir in unserem jüngsten Transparenzbericht erläutert haben, wurden mehr als 80 Prozent der unzulässigen Videos entfernt, bevor sie auch nur ein einziges Mal angesehen wurden. Wir arbeiten daran, unsere Effektivität in diesem Bereich weiter auszubauen. Während Technologie dabei helfen kann, eindeutig unzulässige Inhalte zu entfernen, bleibt die menschliche Überprüfung eine wichtige Säule bei der Moderation von Inhalten. Unsere Teams stehen bereit und handeln, wenn kritische Inhalte gemeldet werden – egal, zu welcher Uhrzeit. Durch die zusätzliche Ebene der menschlichen Überprüfung können wir zugleich unsere maschinellen Schutzsysteme weiter verfeinern. Die Moderator*innen geben der Technologie Feedback und helfen so, aufkommende Trends zu erfassen und unsere künftigen Erkennungsfähigkeiten zu verbessern.

Eine weitere zentrale Aufgabe unseres Teams besteht darin, Inhalte zu identifizieren und zu analysieren, um unsere Prozesse für die Moderation von Inhalten kontinuierlich zu verbessern. So kann zum Beispiel ein Video von unseren Systemen erneut überprüft werden, sobald es häufiger angesehen wird. So kann das Risiko verringert werden, dass sich regelwidrige Inhalte auf TikTok verbreiten. Darüber hinaus analysieren wir auch Entscheidungen zur Inhaltsmoderation um zu verstehen, warum unzulässige Inhalte möglicherweise nicht in einem früheren Stadium erkannt wurden, und um Trends bei potenziell schädlichen Inhalten auf unserer Plattform wahrzunehmen. Auf diese Weise könnten wir zum Beispiel herausfinden, dass wir aktuell einen größeren Fokus auf die Entwicklung von Technologien zur automatisierten Erkennung potenzieller Verstöße legen sollten. In anderen Fällen lernen wir eventuell, dass zusätzliche Schulungen für unsere Moderationsteams erforderlich sind, um ein besseres Verständnis bestimmter Richtlinien herzustellen und die Entscheidungsfindung bei der Überprüfung von Inhalten zu verbessern.

Das Wohlbefinden der Mitarbeiter*innen im Fokus

Ein sicheres Nutzungserlebnis für unsere Community zu schaffen ist die wichtigste Aufgabe unseres Teams. Manchmal bedeutet das, dass unsere Moderator*innen potenziell schädliche Inhalte überprüfen müssen. Deshalb ist es unerlässlich, ihnen die richtige Unterstützung zu geben. Wir sind uns dessen bewusst und achten auf die Gesundheit, die Sicherheit und das Wohlbefinden unserer Mitarbeiter*innen. Wir bieten unseren Teams beispielsweise Zugang zu Gesundheitsprogrammen wie Schulungen oder professioneller Beratung. Darüber hinaus führen wir regelmäßige Analysen durch um zu verstehen, wie wir uns weiter verbessern können. Wir wollen in unserer Branche Maßstäbe setzen, indem wir die ambitioniertesten und wirksamsten Unterstützungsprogramme für unsere Mitarbeiter*innen anbieten.

Über TikTok

TikTok ist die führende Plattform für mobile Kurzvideos. Unsere Mission ist es, Menschen zu inspirieren und zu bereichern, indem wir ihnen eine kreative Heimat geben und ihnen ein authentisches, unterhaltsames und positives Erlebnis bieten. TikTok hat weltweit Büros in Los Angeles, New York, London, Paris, Berlin, Dubai, Mumbai, Singapur, Jakarta, Seoul, und Tokio. www.tiktok.com


TikTok

Andrea Rungg

TikTok, Senior Director of Communications TikTok Deutschland, Österreich, Schweiz, Niederlande

andrea.rungg@tiktok.com


FAKTOR 3 AG

Pressestelle TikTok D-A-CH

Kattunbleiche 35 | 22041 Hamburg

tiktok@faktor3.de