Neue YouTube-Richtlinie gegen Rassismus

News

Die Videoplattform YouTube will mit einer neuen Richtlinie vermehrt gegen rassistische und anderweitig diskriminierende Inhalte vorgehen. Im selben Zug soll auch die Verbreitung von gefährdenden Falschinformationen und Verschwörungstheorien minimiert werden.

Ein weißes iPhone mit der YouTube-App auf dem Bildschirm.
hello im nik / Unsplash

Anfang  Juni 2019 veröffentlichte YouTube einen Blogeintrag, in dem die beliebte Videoplattform ihre neuen Richtlinien vorstellt. Das übergeordnete Ziel: Weniger Hass, mehr Sicherheit für NutzerInnen. Die Maßnahmen konzentrieren sich auf das Entfernen von diskriminierenden und rechtsextremen Inhalten, die Reduzierung von sogenannten grenzwertigen Inhalten und das Berufen auf zuverlässige und vertrauenswürdige Content-Creator.

Schutz vor Diskriminierung

Videos mit Inhalten, die Menschen aufgrund von Kategorien wie beispielsweise Hautfarbe, Geschlecht, Alter oder Religion diskriminieren, werden verboten. Bisher wurden diese Videos lediglich eingeschränkt: Sie erschienen nicht in den Vorschlägen, konnten nicht geteilt oder kommentiert werden und erlangten dadurch bis zu 80 Prozent weniger Aufrufe. Auch Inhalte, die historische Ereignisse (wie z.B. den Holocaust) leugnen, werden zukünftig entfernt werden. Videos, die zwar nicht offensichtlich gegen die Richtlinien verstoßen, aber dennoch gefährdende Informationen oder falsche Wahrheiten, wie Verschwörungstheorien oder vermeintliche Heilungen für Krankheiten verbreiten, werden nur noch eingeschränkt verfügbar sein. So können NutzerInnen diese nur noch durch gezieltes Suchen finden. Kommentieren und teilen sind nicht mehr möglich. Sie werden entmonetarisiert - es kann keine Werbung geschaltet und somit kein Geld verdient werden. Wenn Accounts gehäuft Videos hochladen, die gegen die Richtlinien verstoßen, laufen sie Gefahr, gelöscht zu werden.

Strengerer Kinder- und Jugendschutz

Eine weitere Neuerung der YouTube-Richtlinien zielt auf eine Verbesserung des Kinder- und Jugendschutzes. Live-Streams dürfen NutzerInnen unter 13 Jahren jetzt nur noch bei der im Stream sichtbaren Anwesenheit eines Erwachsenen starten. Bei Verstößen wird der Account für Live-Übertragungen gesperrt. Außerdem werden Videos, die junge Kinder zeigen, nicht mehr in den Vorschlägen angezeigt. Hierbei geht es nicht um Verstöße gegen Richtlinien, sondern um den Schutz der Dargestellten.