Neue Richtlinien auf TikTok: Mehr Transparenz für Moderationskriterien

News

Die Video-App TikTok stand wegen seiner Moderationsregeln zuletzt in der Kritik. Das Unternehmen hat nun seine Community-Richtlinien überarbeitet. Die Moderationsregeln der App sollen für NutzerInnen damit nachvollziehbarer werden.

Ein junger Mann macht mit seinem Smartphone ein Selfie
Mann hält Smartphone in die Kamera und macht ein Selfie. Tookapic/Pexels

Die besonders bei Minderjährigen beliebte Kurzvideo-App TikTok hat jüngst ihre Community-Richtlinien überarbeitet. Damit reagiert die Plattform auf Vorwürfe von Diskriminierung und mangelndem Jugendschutz. Die Plattform wurde unter anderem dafür kritisiert, die Reichweiten von Videos, die Menschen mit Behinderung zeigen, zu verringern und bei Magersucht-Challenges nicht genügend einzugreifen.

Mehr Transparenz für NutzerInnen herstellen

Das Unternehmen veröffentlichte nun einen ausführlichen Katalog, der Verstöße gegen die Richtlinien der Plattform genauer erklärt. Nach eigener Aussage würden TikTok-MitarbeiterInnen auf Grundlage dieses Katalogs Videoinhalte überprüfen und gegebenenfalls löschen. Zudem sollen die Richtlinien als Verhaltenskodex verbindlich für alle NutzerInnen sein. TikTok führt neun Kategorien von solchen Verstößen auf und erklärt, welche Art von Beiträgen jeweils darunter fallen. Unerwünscht sind demnach unter anderem Beiträge, die „gewalttätige Inhalte“, „Hassrede“ sowie „Nacktheit und sexuelle Handlungen“ zeigen. Videos, „in denen Essgewohnheiten angepriesen werden, die gesundheitliche Probleme verursachen können“ zählen zur Kategorie „Suizid, Selbstverletzung und gefährliche Handlungen“ und seien daher verboten. Ausgenommen seien „Inhalte, die Hilfsangebote, Informationen oder Bewältigungsstrategien für Menschen mit Essstörungen oder selbstverletzendem Verhalten bieten“. Minderjährige sollen speziell gegen Cybergrooming und Missbrauch geschützt werden. Nacktsequenzen und eine sexualisierende Darstellung von Minderjährigen sind laut Richtlinien nicht erlaubt.

Mit den neuen Community-Richtlinien will TikTok, nach eigener Darstellung, transparenter machen, nach welchen Kriterien es bei der Prüfung von Video-Inhalten verfährt, und seine Moderation für NutzerInnen nachvollziehbarer machen.

Wie Eltern TikTok sicher machen können

Wichtig bei der Einrichtung eines TikTok-Accounts ist, dass Eltern und Kinder gemeinsam entsprechende Privatsphäre-Einstellungen aktivieren und besprechen. Indem das Konto des Kindes auf privat gestellt wird, können nur bestätigte Kontakte die Beiträge des Kindes sehen und mit diesem interagieren. Über die Funktion „Digital Wellbeing“ kann die Bildschirmzeit beschränkt werden. Über mögliche Risiken von idealtypischen Körperbildern, die auf der Plattform propagiert werden, und über unerwünschte In-App-Käufe von sogenannten „Geschenken“ (animierte Sticker, die an andere NutzerInnen geschickt werden können) können Eltern mit ihren Kindern sprechen.