Problematische Wortfilter bei TikTok

News

Der Plattform TikTok ist schon häufiger vorgeworfen worden, Inhalte zu zensieren. Neue Recherchen zeigen, dass in Deutschland Kommentare von NutzerInnen unterdrückt werden, die bestimmte Wörter enthalten. Was müssen Eltern über solche Filtersysteme wissen?

Ein Mädchen hält sich einen Finger vor die Lippen und macht das Symbol für Stille
Unsplash/Raíssa Letícia

Kommentare schreiben und lesen, sich mit Millionen anderer NutzerInnen austauschen – das macht TikTok für viele junge NutzerInnen reizvoll. Recherchen von NDR, WDR und tagesschau aus dem März 2022 zeigen nun, dass die Plattform die Sichtbarkeit von Kommentaren unter Videos beschränkt – ohne die UrheberInnen darüber zu informieren. Ein Wortfiltersystem verhindert, dass Kommentare unter Videos angezeigt werden, wenn sie bestimmte Schlagworte enthalten. Beim Versuch, Inhalte zu kommentieren, stießen die JournalistInnen auf 19 Wörter oder Wortkombination, die von TikTok herausgefiltert werden – darunter „homosexuell“, „Porno“, „Terroristen“ und „Auschwitz“. Kommentare, die diese Begriffe enthielten, wurden anderen NutzerInnen nicht angezeigt. 

Shadowbanning

Anbieter von sozialen Netzwerken unterdrücken Inhalte, ohne dies kenntlich zu machen.

Problematisch daran ist, dass die Anbieter von TikTok keine klaren Regeln bekannt gemacht haben, nach denen der Filter wirkt. Welche Wörter blockiert werden, erscheint willkürlich. Dabei ist es wichtig, dass solche Prozesse für die NutzerInnen transparent gemacht werden. Durch die Veröffentlichung der aktuellen Recherche wurden deswegen erneut Zensurvorwürfe gegenüber TikTok laut. Nachdem die Plattformbetreiber Fehler eingeräumt hatten, werden mittlerweile einige der 19 Schlagwörter wieder in den Kommentaren angezeigt. 

Zweck von Wortfiltern

Dass Plattformen Technologien einsetzen, um Richtlinien zum Schutz der NutzerInnen einzuhalten, ist nicht ungewöhnlich. Wortfilter sind in Gaming-Chats, Foren oder Sozialen Netzwerken gängig, um Hassrede und Beleidigungen in öffentlichen Beiträgen möglichst automatisiert herauszufiltern. Solche Filter sollen außerdem die Verbreitung von strafbaren Inhalten verhindern, wie zum Beispiel Zahlenkombinationen oder Sprüche der rechtsextremen Szene, die gesetzlich verboten sind. Auf TikTok gehören zu den gefilterten Wörtern unter anderem „Pornografie“ und „Sex“. Die Begriffe werden möglicherweise aus Jugendschutzgründen unterdrückt.

Schwachstellen und Risiken der Filter

NutzerInnen, die Wortfilter umgehen wollen, sind häufig sehr kreativ: Dazu werden in den Kommentaren beispielsweise bewusst einzelne Buchstaben in Wörtern ausgelassen oder durch Zahlen und Sonderzeichen ersetzt. Unter TikTok-NutzerInnen hat sich sogar mittlerweile eine Art Geheimcode etabliert, mit dem sie über Themen reden, die der Algorithmus ansonsten beschränkt: Statt „sex“ wird „seggs“, statt „suicide“ „sewers slide“ geschrieben, da die Wörter ausgesprochen sehr ähnlich klingen, vom Wortfilter aber nicht erkannt werden. Auch Wortneuschöpfungen wie „eggplant“ als Umschreibungen für Geschlechtsteile sind in vielen Communitys auf TikTok geläufig. Diese Sprache wird „Algospeak“ genannt. So können allerdings auch Beleidigungen ungefiltert versendet werden. Mehr Schutz bieten deswegen Angebote, bei denen Chats oder Kommentarspalten aktiv moderiert werden.

Abgesehen von der Effektivität der Wortfilter hinterfragen viele ExpertInnen, ob die Systeme nicht sogar Nachteile für NutzerInnen bedeuten. Beim Thema Hate Speech wird kritisiert, dass die Filter zwar diskriminierende Beiträge unterbinden sollen, genauso allerdings auch Gegenrede verhindern – die eigentlich wichtig ist, um Hasskommentare nicht unwidersprochen stehen zu lassen. Der Grund ist, dass die automatisierten Filter kontextunabhängig wirken. Sie können nicht erkennen, in welchem Zusammenhang gewisse Schlagworte genutzt werden.

Tatsächlich kann es dazu kommen, dass manche Themen durch Filter stigmatisiert werden, da sie nicht mehr sichtbar sind, obwohl es viele NutzerInnen gibt, die eigentlich gerne darüber informieren und aufklären möchten – so zum Beispiel über den Nationalsozialismus oder Prostitution – Themen, die ebenfalls in der Liste der blockierten Wörter auf TikTok enthalten waren. Das hat auch eine politische Dimension: Das Problem dabei ist, dass Filter einen Einfluss darauf nehmen, welche Themen eine breite Öffentlichkeit in den Sozialen Netzwerken finden. KritikerInnen sehen den Einsatz von Filtern als Eingriff in die Meinungsfreiheit und den demokratischen Diskurs.

Außerdem kann es dazu kommen, dass Filter Barrierefreiheit verhindern: Bei TikTok werden zu den Kurzvideos in der Regel Untertitel eingeblendet, die entweder automatisch generiert oder von den NutzerInnen selbst geschrieben sind. Werden bestimmte Wörter darin blockiert oder ihre Schreibweise bewusst verändert, um die Filter zu umgehen, wird gehörlosen NutzerInnen das Verstehen erschwert.

Schützen Filter junge NutzerInnen?

Filtersysteme können in vielen Medienangeboten, die Kinder und Jugendliche nutzen, aktiviert werden. Auf Instagram und TikTok haben NutzerInnen die Möglichkeit, zusätzliche Wortfilter zu aktivieren, um mehr Kontrolle über die Kommentare unter ihren Beiträgen zu erhalten. Die Filter sollen vor Spam und beleidigenden Kommentaren schützen. Alternativ können NutzerInnen in den Einstellungen auch selbst Begriffe eingeben, die automatisch herausgefiltert werden sollen, wenn sie in einem Kommentar vorkommen. Solche Filter können als Schutz vor Cybermobbing oder Belästigung nützlich sein.

Aber nicht nur Wörter, sondern auch Inhalte können mit Algorithmen gefiltert werden: Über die Jugendschutz-App Google Family Link können Filter für die SafeSearch ausgewählt werden, um anstößige Suchergebnisse herauszufiltern. Und auch bei der Kinderversion YouTube Kids soll ein Filter nicht altersgerechte Inhalte für junge NutzerInnen ausschließen.

Prinzipiell ist es sinnvoll, solche Schutzmaßnahmen zu aktivieren und mit dem Kind zu besprechen. Jedoch können technische Maßnahmen wie Filter allein keinen ausreichenden Schutz bieten. Eine Garantie, dass solche Algorithmen zuverlässig alle ungewollten Inhalte erfassen und herausfiltern, gibt es nicht. Wichtig ist also, dass Eltern die Mediennutzung ihres Kindes begleiten, Interesse zeigen und nachfragen, auf was für Inhalte es dabei stößt. Sie können ihm vermitteln, dass es sich immer an sie wenden kann, wenn ihm im Netz etwas komisch vorkommt, Sorgen bereitet oder verängstigt.