Von Cormac Keenan, Trust & Safety, EMEA; Arjun Narayan Bettadapur Manjunath, Trust & Safety, APAC; Jeff Collins, Trust & Safety, Americas

Heute haben wir unseren Globalen Transparenzbericht für die ersten sechs Monate des Jahres 2020 veröffentlicht. Der Bericht zeigt, wie wir TikTok zu einem sicheren und positiven Ort machen. Wir möchten gegenüber unserer Community Transparenz zeigen und veröffentlichen deswegen regelmäßig, welche Inhalte wir von unserer Plattform entfernen. Dazu gehören Hassrede, irreführende Informationen und andere Themen, die gegen unsere Community-Richtlinien und Nutzungsbedingungen verstoßen. In unserem Bestreben, die Sicherheit unserer Nutzer*innen zu gewährleisten, haben wir darüber hinaus weitere Maßnahmen umgesetzt: Der Begleitete Modus ermöglicht es Eltern, die In-App Erfahrung ihrer Teenager gemeinsam zu gestalten. Mit dem Portal für Jugendliche und der Videoreihe “TikTok Tipps” stellen wir unserer Community umfangreiche Informationen zum Thema Sicherheit im Internet zur Verfügung. Zudem engagieren wir uns in Partnerschaften wie der WePROTECT Global Alliance, in der wir gemeinsam mit anderen Unternehmen daran arbeiten, branchenweite Herausforderungen zu lösen.

Sozialen Medien und Plattformen werden fortlaufend dadurch gefordert, dass schädliche Inhalte hochgeladen und zwischen verschiedenen Plattform geteilt werden (“Cross-Posting”). Diese Herausforderung betrifft uns alle – unsere Nutzer*innen, unsere Teams und die Gemeinschaft auf unseren Plattformen. 

Unsichere Inhalte wandern oft von einer App zur anderen. Gelangen sie erstmal auf eine Plattform, bleibt den Betreibern nichts anderes übrig, als sie schnellstmöglich von ihrer eigenen Plattform zu entfernen – ohne die Garantie, dass sie nicht woanders wieder auftauchen. Technologie kann dabei helfen, diese schädlichen Inhalte automatisch zu erkennen und einzuschränken – sie ist aber nicht die einzige Lösung. Menschliche Moderator*innen und eine enge Zusammenarbeit zwischen verschiedenen Teams stehen bei der Lösung solcher Probleme oft an erster Stelle.

Ein kooperativer Ansatz zur Früherkennung und Meldung problematischer Inhalte würde die individuellen Anstrengungen der Plattformen zum Schutz ihrer Nutzer*innen effektiver machen. 

Im Bezug auf besonders gefährliche oder schädliche Inhalte findet eine solche Zusammenarbeit bereits statt, etwa in Bezug auf Inhalte, die sexuelle Gewalt an Kindern zeigen. Unserer Ansicht nach ist es ebenfalls dringend notwendig, dass Plattformen zusammenarbeiten, um Nutzer*innen vor der Ansicht von extrem gewalttätigen und drastischen Inhalten, einschließlich Aufzeichnungen von Selbstmord, zu schützen.

Zu diesem Zweck hat die Interims-CEO von TikTok, Vanessa Pappas, gestern einen Brief an die Leiter*innen von sozialen Netzwerken und Content-Plattformen geschickt. Darin hat sie eine Absichtserklärung (‘Memorandum of Understanding’) vorgeschlagen, die Unternehmen dazu ermutigen soll, sich gegenseitig vor solchen gewalttätigen und drastischen Inhalten auf ihren Plattformen zu warnen. Durch eine engere Zusammenarbeit und den Aufbau einer Datenbank für gewalttätige und drastische Inhalte können wir die Wahrscheinlichkeit, dass Menschen mit diesen in Berührung kommen und emotionalen Schaden erleiden, erheblich verringern – unabhängig davon, welche App sie nutzen.

Die Sicherheit und das Wohlergehen unserer Community hat für uns oberste Priorität. Wir glauben, dass andere Plattformen dieses Ziel teilen. Deswegen möchten wir gemeinsam mit anderen Anbietern, Expert*innen, Wissenschaftler*innen und gemeinnützigen Organisationen einen Rahmen schaffen, der es uns erlaubt, diese Sicherheit auch plattformübergreifend zu gewährleisten. 

Dies ist der übersetzte Brief, den Vanessa Pappas an neun Führungskräfte von Social und Content-Plattformen gesendet hat. 

In der jüngeren Vergangenheit wurden Social und Content-Plattformen erneut mit dem Posten und Cross-Posten von expliziten Selbstmordinhalten konfrontiert, von denen wir alle betroffen sind – ebenso wie unsere Mitarbeiter*innen, Nutzer*innen und die breitere Öffentlichkeit.

Wie jede*r von Ihnen haben auch wir konsequent daran gearbeitet, die Verbreitung dieser Inhalte einzudämmen, indem wir den ursprünglichen Inhalt und seine unterschiedlichen Variationen entfernt und dafür gesorgt haben, dass er nicht von anderen gesehen oder weitergegeben wird. Wir sind der Meinung, dass unsere individuellen Bemühungen zum Schutz unserer eigenen Nutzer*innen und der kollektiven Community durch einen formellen, kooperativen Ansatz zur Früherkennung und Benachrichtigung der Branchenvertreter*innen über extrem gewalttätige, grafische Inhalte, einschließlich Selbstmord, erheblich unterstützt würde. 

Zu diesem Zweck möchten wir die gemeinsame Ausarbeitung einer Absichtserklärung (Memorandum of Understanding, MOU) vorschlagen, die es uns ermöglicht, uns gegenseitig umgehend über solche Inhalte zu informieren. 

Unabhängig davon führen wir eine sorgfältige Analyse der Ereignisse im Zusammenhang mit der jüngsten Verbreitung von Selbstmordinhalten durch, aber es ist offensichtlich, dass eine frühzeitige Identifizierung es den Plattformen ermöglicht, schneller zu reagieren und die Verbreitung von höchst bedenklichen, gewalttätigen Material zu unterbinden.

Wir sind uns der Notwendigkeit bewusst, dass eine Vereinbarung im Hinblick auf die Arten von Inhalten, die sie umfassen soll, klar definiert und so flexibel sein muss, sodass jede*r von uns schnell genug vorgehen kann, um sich gegenseitig darüber zu informieren. Wir sind uns auch darüber im Klaren, dass es in verschiedenen Regionen regulatorische Beschränkungen geben kann, die ein erweitertes Eingreifen und weitere Prüfung erfordern.

Zu diesem Zweck möchten wir eine Sitzung unserer jeweiligen Trust & Safety-Teams einberufen, um einen solchen Mechanismus weiter auszuarbeiten, von dem wir glauben, dass er uns allen hilft, die Sicherheit für unsere Nutzer*innen zu verbessern. 

Wir freuen uns auf Ihre positive Reaktion und auf die Zusammenarbeit zum Schutz unserer Nutzer*innen und der Öffentlichkeit.

Viele Grüße

Vanessa Pappas

Head of TikTok