Mangelnder Jugendschutz und Diskriminierung bei TikTok

News

Die beliebte App „TikTok“ steht seit einigen Wochen erneut in der Kritik: Gezieltes Ausbremsen von Videos, die Menschen mit Behinderungen zeigen, und mangelnder Eingriff bei Magersucht-Wettbewerben werden der Social-Media-Plattform vorgeworfen.

Eine junge Frau mit Dreadlocks sitzt im Rollstuhl in einem Park und schaut auf ihr Smartphone
alfa27 – stock.adobe.com

Recherchen von Netzpolitik.org und Funk, dem Jugendportal von ARD und ZDF, gaben in den letzten Wochen Einblicke in den Umgang des Netzwerks TikTok mit bestimmten Inhalten. Bereits Ende November deckte Netzpolitik.org auf, wie die App des chinesischen Unternehmens Bytedance Videos von politischen Protesten in Hongkong gezielt ausbremste. Durch ein aufwändiges System aus Moderationsstufen und dazugehörigen Auswahlkriterien wurden Beiträge zu den Hong Kong-Protesten nicht in den News Feeds anderer NutzerInnen angezeigt und bei der Suche nach Content benachteiligt. Dasselbe Vorgehen wurde laut Netzpolitik.org offenbar auch bei Videos angewendet, die Menschen mit Behinderungen, dicke NutzerInnen oder Personen aus der LGBTQI*-Community zeigen.

Eingeschränkte Reichweite für „besondere NutzerInnen“

Angeblich um sogenanntes Cyberbullying – also das Mobben anderer NutzerInnen über digitale Medien – zu verhindern, führte TikTok eine interne Liste von „Besonderen NutzerInnen“. Darauf waren Menschen vermerkt, die „auf Basis ihrer physischen und mentalen Verfassung“ als besonders anfällig für solche Angriffe galten, wie netzpolitik.org berichtete. Als Merkmale, anhand derer NutzerInnen dieser Gruppe zugeordnet werden, nennen die internen Richtlinien der Plattform „entstelltes Gesicht“, „Autismus“ und „Downsyndrom“. TikTok-ModeratorInnen bekamen die Anweisung, Videos solcher NutzerInnen entsprechend zu markieren und so deren Reichweite zu verringern. Betroffen waren auch oft Videos, in denen dicke oder queere Menschen zu sehen waren.

Anfang Dezember gab die Video-Sharing-Plattform gegenüber Netzpolitik.org eine Entschuldigung ab: Der Ansatz sei nie als langfristige Lösung gedacht gewesen und man habe eine gute Absicht verfolgt. Die Regeln seien inzwischen durch neue ersetzt worden. Einzelheiten gab TikTok laut dem Online-Portal nicht weiter bekannt.

Bedenkliche Hashtags im Umlauf

Wie die Video-Plattform dagegen mit jugendgefährdenden Inhalten umgeht, zeigt jüngst eine Recherche von Funk. Unter den Hashtags #ed, der für „eating disorder“ (Deutsch: Essstörung) steht, und #edrecovery, was den Genesungsprozess von der Krankheit bezeichnet, beteiligen sich zehntausende TikTok-NutzerInnen an einer Magersucht-Challenge. Besonders junge Frauen stellen dabei in Videos ihre Magersucht zur Schau und erhalten teilweise zehntausende Likes.

Auf Nachfrage von Funk verweist TikTok lediglich auf die Richtlinien der App und eine Body-Positivity-Kampagne. Entsprechende Hashtags auf Instagram und Facebook sind dagegen in der Vergangenheit immer wieder gelöscht worden. Bedenklich ist dabei vor allem, dass TikTok besonders junge NutzerInnen anspricht, die trotz des vorgeschriebenen Mindestalters von 13 Jahren oft jünger sind.

Risiken thematisieren und Sicherheitseinstellungen vornehmen

Umso wichtiger ist es, dass Eltern die Smartphone-Aktivitäten ihrer Kinder im Blick haben, über problematische Körperbilder, Schönheitsideale und Normvorstellungen aufklären und mit den Kindern thematisieren. Des Weiteren können Eltern die App mit ihren Kindern gemeinsam einrichten. Indem das TikTok-Profil des Kindes in den Einstellungen auf „privat“ gestellt wird, können nur noch Personen die geposteten Beiträge sehen, die eine Genehmigung zum Folgen des Profils erhalten haben. Über die Funktion „Digital Wellbeing“ kann zudem der „Eingeschränkte Modus“ aktiviert werden, womit die Anzeige von nicht-zielgruppengerechten Videos beschränkt wird.