1. Home
  2. News
  3. Monitoring zu Hass in sozialen Netzwerken

Monitoring zu Hass in sozialen Netzwerken

Soziale Netzwerke löschen nach wie vor zu wenig strafbare Inhalte, die von Nutzern gemeldet werden. Das geht aus einem Monitoring von jugendschutz.net hervor, das vom Bundesfamilienministerium und dem Bundesjustizministerium gefördert wird.

Fotolia/VictorMoussa
Fotolia/VictorMoussa

Jugendschutz.net – das länderübergreifende Kompetenzzentrum für Jugendschutz im Internet – hat das Monitoring im Januar und Februar durchgeführt. Es ist der zweite Test dieser Art, der untersucht, wie schnell die Plattformen auf Beschwerden reagieren und ob sie die gemeldeten Beiträge löschen. Ein erster Test hatte im Juli und August 2016 stattgefunden.

Löschquote schwankt zwischen 39 und 90 Prozent

Die aktuelle Erhebung hat ergeben, dass Facebook 39 % der von Nutzerinnen und Nutzern gemeldeten strafbaren Inhalte löscht oder sperrt. Das sind 7 Prozentpunkte weniger als beim ersten Test. Nur 33 % wurden binnen 24 Stunden nach der Beschwerde gelöscht. Bei Twitter führte auch weiterhin lediglich eine von hundert Nutzermeldungen zur Löschung. In keinem Fall erfolgte die Löschung binnen 24 Stunden. Im Vergleich zum ersten Test deutlich verbessert hat sich YouTube. Hier liegt die Löschquote der von Nutzern gemeldeten strafbaren Beiträge bei 90 %. Bei 82 % erfolgte die Löschung binnen 24 Stunden nach der Meldung. Weitere Informationen finden sich im Monitoring-Bericht.

Der vor Kurzem veröffentlichte Bericht zu Rechtsextremismus im Netz zeigt, wie Rechte Hassbotschaften durch Fake-News und Lifestyle-Elemente transportieren, die sich gerade auch an Jugendliche richten.

Bundesjugendministerin Manuela Schwesig: „Hass und Hetze gefährden den Zusammenhalt in unserem Land, sind Gift für unsere Gesellschaft. Auch im Netz müssen wir mit aller Konsequenz dagegen vorgehen. Dazu gehört auch, dass die Betreiber von Internetdiensten und Plattformen strafbare Hassbotschaften schneller löschen – ohne Wenn und Aber. Es zeigt sich aber, dass hier insgesamt immer noch zu wenig passiert. Und dass mehr geht, beweist Youtube. Es kann nicht sein, dass Unternehmen mit ihren sozialen Netzwerken riesige Gewinne einfahren und sich zugleich bei der Bekämpfung von Hassbotschaften aus der Verantwortung stehlen.“

Nutzer können Inhalte melden

Gut funktionierende Beschwerdemechanismen auf reichweitenstarken Social-Web-Plattformen sind wichtige Instrumente eines zeitgemäßen Jugendmedienschutzes. Sie werden benötigt, damit User Plattformbetreiber beispielsweise über strafbare Hassbotschaften, sexuelle Belästigungen oder Cybermobbing in Kenntnis setzen und damit zum Handeln verpflichten können. jugendschutz.net  dokumentiert seit 2008 die Reaktionen und Maßnahmen globaler Video- und Kommunikationsplattformen bei Hinweisen auf Verstöße. Das von BMFSFJ und BMJV geförderte Plattformmonitoring, hat erstmals eine systematische themenspezifische Auswertung der Meldemechanismen der reichweitenstärksten Plattformen ermöglicht. Weitere Informationen finden Sie unter fair-im-netz.de

Mehr zum Thema

Welche Netzwerke sind geeignet?

Dass Monitoring zeigt, dass die Dienste sehr unterschiedlich mit strafbaren Inhalten umgehen. Für Eltern stellt sich hier generell die Frage, welche Netzwerke für ihr Kind geeignet sind. Eine Übersicht und Einschätzung zu gängigen Netzwerken bietet unser Netzwerk-Atlas. Generell sind die gängigen Netzwerke laut eigener AGB erst ab 13 Jahren zugelassen. Für jüngere Kinder empfhelen sich eigene, moderierte Communities, hier ein Überblick zu Kinder-Communities von klick-tipps.net.

Wie schütze ich mein Kind in sozialen Medien?

Chatten ist für viele Kinder eine spannende und unkomplizierte Möglichkeit, um Kontakte zu knüpfen und sich mit Gleichaltrigen auszutauschen. Viele Online-Kommunikationsdienste sind nicht kindgerecht, da sie kaum auf den Datenschutz achten, zu wenig und nicht vorkonfigurierten Sicherheitseinstellungen bieten und nicht ausreichend moderiert sind. So kann es zur Konfrontation mit gefährdenden Inhalten wie Pornografie, Extremismus und Gewaltdarstellungen kommen. Im Kontakt mit anderen Usern kann es zu Beleidigungen und Belästigungen kommen und in schlimmen Fällen auch zum Versuch der Anbahnung eines realen sexuellen Missbrauchs (Cybergrooming). Hinzu kommt das Risiko von Cybermobbing in der Kommunikation oder über den Missbrauch von hochgeladenen Daten.

Wenn Eltern ihre Kinder gerade anfangs begleiten und grundlegende Chat-Regeln vereinbaren, minimieren sie mögliche Risiken dabei.

  • Persönliches schützen. Auf umfangreiche Profilangaben sollten Kinder verzichten, persönliche Daten auch nicht im direkten Kontakt an andere weitergeben und Standortdienste ausschalten. Viele Angaben können das Risiko von Belästigungen online und offline erhöhen. Auch keine privaten Daten anderer ohne deren Zustimmung veröffentlichen oder geschütztes Material weitergeben. Das kann Rechte anderer verletzen und teuer werden. Das Veröffentlichen privater Daten kann zudem andere auch in Gefahr bringen.
  • Fair bleiben und stark machen. Respektvoll in Communitys sein, niemanden belästigen oder anderen ungeeignete Inhalte zusenden. Damit kann man anderen schaden und sich sogar strafbar machen. Zudem ist es wichtig, sich für andere einzusetzen, wenn sie belästigt oder gemobbt werden. Statt sich aus Gruppenzwang zu beteiligen, besser online per Nachricht oder Emoji die Solidarität mitteilen und beleidigende Inhalte melden.
  • Misstrauisch bleiben. Man kann nie wissen, wer sich auch hinter harmlos wirkenden Profilen oder Nutzernamen verbirgt. Auch bei scheinbar bekannten Chatpartnern weiß man nie, ob es sich um diese Person handelt, noch jemand mitliest oder Informationen gespeichert und weitergegeben werden. Kein Treffen mit fremden Personen vereinbaren, zumindest nicht allein.
  • Webcam auslassen. Besondere Vorsicht im Umgang mit der Webcam z.B. über Skype oder Dienste wie YouNow: jeder, der die Übertragung sieht, kann diese speichern und verbreiten.
  • Unangenehme Dialoge sofort beenden sowie Störer melden und blockieren. Viele Dienste bieten die Möglichkeit dazu. 
  • Beweise sichern. Belästigungen umgehend per Screenshot dokumentieren und dem Betreiber, Beschwerde¬stellen wie jugendschutz.net, internet-beschwerdestelle.de, dem Zentrum für Kinderschutz im Netz (I-KiZ.de) oder bei schwereren Fällen auch der Polizei melden.

Was tun gegen Hass im Netz?

1. Achtsam sein und aufklären

Medien sozialisieren Kinder, prägen Einstellungen und ihr Verhalten. Sprechen Sie mit Ihrem Kind darüber, dass eine Gesellschaft nur dann in Frieden leben kann, wenn die Menschen sich gegenseitig achten und respektvoll miteinander umgehen. Das gilt im Internet genauso wie in der sonstigen sozialen Umwelt. Begleiten Sie Ihr Netz aktiv, klären es über Hass im Netz auf und haben Sie bei Problemen ein offenes Ohr. So hat das Kind genügend Vertrauen, sich mitzuteilen, wenn es auf ungeeignete Inhalte oder Personen im Netz trifft. Erfahren Eltern, dass ihr Kind mit Hassbotschaften konfrontiert wurde, sollten sie sich diese zeigen lassen, darüber sprechen und diese melden.

2. Altersgerechte Angebote nutzen

Um Kinder zu schützen, ist auch drauf zu achten, dass gerade jüngere Kinder nur in kindgerechten Foren unterwegs sind. Kinder müssen das Kommunizieren im Netz erst lernen. Gerade bis zwölf Jahren eignen sich daher Chats, die von geschultem Personal durchgehend moderiert werden.

3. Informieren und aufklären

Wenden Sie sich an die Schule oder an Beratungsstellen, wenn Ihr Kind vermehrt mit extremen Parolen konfrontiert wird. Beratung und Informationen bieten Portale wie online-beratung-gegen-rechtsextremismus.de, hass-im-netz.info oder netz-gegen-nazis.de. Diese sind kostenlos, anonym und streng vertraulich.

4. Sensibilisieren und schützen

Verdeutlichen Sie Ihrem Kind durch einen Perspektivwechsel, welches menschenfeindliche Weltbild hinter rechten Allgemeinplätzen steht: „Was wäre, wenn Du flüchten müsstest und Dich niemand willkommen heißt?“ Stärken Sie das das Selbstvertrauen des Kindes, damit es sich leichter von gefährdenden Inhalten und Personen distanzieren kann.

5. Allgemeine Sicherheitsregeln vermitteln

Eltern können ihrem Kind fünf Punkte zum sicheren Chatten und Umgang mit Störern vermitteln:

  • Respektvoll sein. Hinter jedem Nutzer stehen Menschen, ein höflicher Umgang gilt auch online.

  • Persönliches schützen. Wichtig ist, dass Kinder und Jugendliche keine persönlichen Chatnamen verwenden. In Communitys ist auf die Herausgabe persönlicher Daten und Fotos zu verzichten, vor allem wenn Ihr Kind sich aktiv gegen Hassparolen und deren Absender engagiert.

  • Quellen kritisch prüfen. Ein kritischer Blick hilft, Propaganda zu entlarven und sich dagegen zu wehren. Vereinbaren Sie mit Ihrem Kind, Websites sowie Profile und Seiten in sozialen Netzwerken kritisch zu prüfen, auch Freundschaftsanfragen.Die Polizei bietet online eine Übersicht zu rechten Symbolen und Zeichen.

  • Propaganda entlarven: Nicht jeder menschenfeindliche Beitrag ist als solcher offensichtlich. Prüfen Sie gemeinsam die Quellen vermeintlicher Informationen zu Überfremdung, Deutschenhass, Flüchtlingsströmen etc. und ziehen Sie alternative Informationen.

  • Störer ignorieren und blockieren. In manchen Foren herrscht jedoch ein rauer Umgangston, sogenannte Trolle vergiften im vermeintlichen Schutz der Anonymität mit unpassenden Kommentaren die Diskussion. Diese sind zu ignorieren, nach dem Spruch „Don't feed the trolls“ („Trolle niemals füttern“) und zu blockieren, um keine weiteren Nachrichten zu bekommen.heran. Meist haben auch schon andere Nutzer den Beitrag als „Fake“ entlarvt und warnen davor. Zunächst gilt es die Aufnahme und den Kontext kritisch zu betrachten.

  • Unangenehme Dialoge sofort beenden. Den Chat verlassen, ihn keinesfalls in privaten Foren oder über andere Anbieter fortsetzen oder „reale“ Treffen mit Unbekannten vereinbaren.

6. Hass melden und anzeigen

Stoßen Kinder auf Hass im Netz, sollten sie den Eltern Bescheid geben, damit diese die Inhalte dem Betreiber bzw. Beschwerdestellen wie jugendschutz.net, internet-beschwerdestelle.de und jugend.support melden. Als Beweise dienen Screenshots und Notizen zu Datum, Uhrzeit, Nickname etc. Erhält es von bestimmten Freunden oder Seiten oft unseriöse Inhalte oder Angebote, kann es deren Benachrichtigungen abstellen oder die (virtuelle) Freundschaft kündigen. Auch vom Admin einer Gruppe und der Betreiber einer Seite oder eines Kanals kann man die Löschung von Beiträgen verlangen. Als Administrator kann man selbst Beiträge blocken oder löschen, mit einer Netiquette Regeln für die Diskussion festlegen und Nutzer durch Kampagnen ermutigen, selbst gegen Hass im Netz aktiv zu werden. Hass im Netz kann man auch extern melden unter: nohatespeech.de/melden bzw. hassimNetz.info/melden. In schweren Fällen kann man auch Anzeige bei der Polizei erstatten. Viele Bundesländer haben so genannte Internet-Wachen eingerichtet, die online Strafanzeigen entgegennehmen. Grundsätzlich geht dies auch bei jeder örtlichen Polizeidienststelle.

7. Sich engagieren

Im Netz gibt es viele gute Beispiele, wie man sich kreativ gegen Hass wenden kann. Wichtig ist, jegliche Hassbotschaften nicht unwidersprochen zu lassen, sondern ihnen auch verbal etwas entgegenzusetzen. CounterSpeech, Memes, Tipps und Tricks: nohatespeech.de. Wichtig dabei: Selbst sachlich und locker bleiben, um sich auch in der Form von Hetze abzugrenzen. Mit dieser Counter Speech lassen sich etwa rassistisch motivierte Fehlinformationen argumentativ widerlegen. Solche Beiträge sind wichtige Zeichen für Demokratie und zeigen Solidarität mit den Opfern von Hassattacken. Verzichten Kinder auf die Angabe privater Informationen können andere weniger leicht Rückschlüsse auf Namen, Wohnort oder Schule ziehen und Personen bedrohen.

Veröffentlicht am