Monitoring zu Hass in Sozialen Netzwerken

News

Soziale Netzwerke löschen nach wie vor zu wenig strafbare Inhalte, die von NutzerInnen gemeldet werden. Das geht aus einem Monitoring von jugendschutz.net hervor, das vom Bundesfamilienministerium und dem Bundesjustizministerium gefördert wird.

Ein Jugendlicher sitzt auf einer Wiese und reibt seine Hände über sein Gesicht
Francisco Gonzales

Jugendschutz.net – das länderübergreifende Kompetenzzentrum für Jugendschutz im Internet – hat das Monitoring im Januar und Februar 2017 durchgeführt. Es ist der zweite Test dieser Art, der untersucht, wie schnell die Plattformen auf Beschwerden reagieren und ob sie die gemeldeten Beiträge löschen. Ein erster Test hatte im Juli und August 2016 stattgefunden.

Löschquote schwankt zwischen 39 und 90 Prozent

Die aktuelle Erhebung hat ergeben, dass Facebook 39 Prozent der von NutzerInnen gemeldeten strafbaren Inhalte löscht oder sperrt. Das sind sieben Prozentpunkte weniger als beim ersten Test. Nur 33 Prozent wurden binnen 24 Stunden nach der Beschwerde gelöscht. Bei Twitter führte auch weiterhin lediglich eine von hundert NutzerInnenmeldungen zur Löschung. In keinem Fall erfolgte die Löschung binnen 24 Stunden. Im Vergleich zum ersten Test deutlich verbessert hat sich YouTube. Hier liegt die Löschquote der von NutzerInnen gemeldeten strafbaren Beiträge bei 90 Prozent. Bei 82 Prozent erfolgte die Löschung binnen 24 Stunden nach der Meldung. Weitere Informationen finden sich im Monitoring-Bericht.

Der Bericht zu Rechtsextremismus im Netz zeigt, wie Rechte Hassbotschaften durch Fake News und Lifestyle-Elemente transportieren, die sich gerade auch an Jugendliche richten.

Die damalige Bundesjugendministerin Manuela Schwesig positionierte sich nach der Veröffentlichung des Berichts klar gegen Hatespeech: „Hass und Hetze gefährden den Zusammenhalt in unserem Land, sind Gift für unsere Gesellschaft. Auch im Netz müssen wir mit aller Konsequenz dagegen vorgehen. Dazu gehört auch, dass die Betreiber von Internetdiensten und Plattformen strafbare Hassbotschaften schneller löschen – ohne Wenn und Aber. Es zeigt sich aber, dass hier insgesamt immer noch zu wenig passiert. Und dass mehr geht, beweist Youtube. Es kann nicht sein, dass Unternehmen mit ihren sozialen Netzwerken riesige Gewinne einfahren und sich zugleich bei der Bekämpfung von Hassbotschaften aus der Verantwortung stehlen.“

Es kann nicht sein, dass Unternehmen mit ihren sozialen Netzwerken riesige Gewinne einfahren und sich zugleich bei der Bekämpfung von Hassbotschaften aus der Verantwortung stehlen.

Manuela Schwesig, ehem. Bundesfamilienministerin

NutzerInnen können Inhalte melden

Gut funktionierende Beschwerdemechanismen auf reichweitenstarken Social Web-Plattformen sind wichtige Instrumente eines zeitgemäßen Jugendmedienschutzes. Sie werden benötigt, damit UserInnen Plattformbetreiber beispielsweise über strafbare Hassbotschaften, sexuelle Belästigungen oder Cybermobbing in Kenntnis setzen und damit zum Handeln verpflichten können. jugendschutz.net  dokumentiert seit 2008 die Reaktionen und Maßnahmen globaler Video- und Kommunikationsplattformen bei Hinweisen auf Verstöße. Das von BMFSFJ und BMJV geförderte Plattformmonitoring, hat erstmals eine systematische themenspezifische Auswertung der Meldemechanismen der reichweitenstärksten Plattformen ermöglicht. Weitere Informationen finden Sie unter fair-im-netz.de.

Welche Netzwerke sind geeignet?

Dass Monitoring zeigt, dass die Dienste sehr unterschiedlich mit strafbaren Inhalten umgehen. Für Eltern stellt sich hier generell die Frage, welche Netzwerke für ihr Kind geeignet sind. Eine Übersicht und Einschätzung zu gängigen Netzwerken bietet jugendschutz.net im Kompass Social Media.

Wie schütze ich mein Kind in sozialen Medien?

Chatten ist für viele Kinder eine spannende und unkomplizierte Möglichkeit, um Kontakte zu knüpfen und sich mit Gleichaltrigen auszutauschen. Viele Online-Kommunikationsdienste sind nicht kindgerecht, da sie kaum auf den Datenschutz achten, zu wenig und nicht vorkonfigurierten Sicherheitseinstellungen bieten und nicht ausreichend moderiert sind. So kann es zur Konfrontation mit gefährdenden Inhalten wie Pornografie, Extremismus und Gewaltdarstellungen kommen. Im Kontakt mit anderen UserInnen kann es zu Beleidigungen und Belästigungen kommen und in schlimmen Fällen auch zum Versuch der Anbahnung von sexuellem Missbrauch (Cybergrooming). Hinzu kommt das Risiko von Cybermobbing in der Kommunikation oder über den Missbrauch von hochgeladenen Daten.

Wenn Eltern ihre Kinder gerade anfangs begleiten und grundlegende Chat-Regeln vereinbaren, minimieren sie mögliche Risiken dabei.

  • Persönliches schützen.
    Auf umfangreiche Profilangaben sollten Kinder verzichten, persönliche Daten auch nicht im direkten Kontakt an andere weitergeben und Standortdienste ausschalten. Viele Angaben können das Risiko von Belästigungen online und offline erhöhen. Auch keine privaten Daten anderer ohne deren Zustimmung veröffentlichen oder geschütztes Material weitergeben. Das kann Rechte anderer verletzen und teuer werden. Das Veröffentlichen privater Daten kann zudem andere auch in Gefahr bringen.
  • Fair bleiben und stark machen.
    Respektvoll in Communitys sein, niemanden belästigen oder anderen ungeeignete Inhalte zusenden. Damit kann man anderen schaden und sich sogar strafbar machen. Zudem ist es wichtig, sich für andere einzusetzen, wenn sie belästigt oder gemobbt werden. Statt sich aus Gruppenzwang zu beteiligen, besser online per Nachricht oder Emoji die Solidarität mitteilen und beleidigende Inhalte melden.
  • Misstrauisch bleiben.
    Man kann nie wissen, wer sich auch hinter harmlos wirkenden Profilen oder NutzerÍnnennamen verbirgt. Auch bei scheinbar bekannten ChatpartnerInnen weiß man nie, ob es sich um diese Person handelt, noch jemand mitliest oder Informationen gespeichert und weitergegeben werden. Kein Treffen mit fremden Personen vereinbaren, zumindest nicht allein.
  • Webcam auslassen.
    Besondere Vorsicht im Umgang mit der Webcam z.B. über Skype oder Dienste wie YouNow: wer die Übertragung sieht, kann diese auch speichern und verbreiten.
  • Unangenehme Dialoge beenden, störende NutzerInnen melden.
    Viele Dienste bieten die Möglichkeit dazu.  
  • Beweise sichern.
    Belästigungen umgehend per Screenshot dokumentieren und dem Betreiber, Beschwerdestellen wie jugendschutz.net, internet-beschwerdestelle.de, dem Zentrum für Kinderschutz im Netz (I-KiZ.de) oder bei schwereren Fällen auch der Polizei melden.