KI-Tools: Vorsicht vor Cybermobbing

News

In sozialen Netzwerken treten in letzter Zeit Mobbingfälle auf, bei denen herabsetzende Inhalte mit künstlicher Intelligenz erstellt werden. SCHAU HIN! rät Eltern, ihre Kinder zu sensibilisieren.

Jugendliche/r mit rotem Shirt hält ihre oder seine Hände vors Gesicht
Sweet Ice Cream Photography/Unsplash

Gefälschte Online-Inhalte zu Mobbingzwecken einzusetzen, sind kein neues Phänomen. Schon länger werden Bilder bearbeitet, um schädliche oder peinliche Inhalte zu erstellen und gegen Personen einzusetzen. Mit der schnellen Entwicklung von künstlicher Intelligenz (KI) erhalten MobberInnen nun immer mehr Möglichkeiten, Bild- oder Tonaufnahmen mithilfe dieser Technologien zu manipulieren und mit bösartigen Absichten einzusetzen. 

Formen von Cybermobbing durch KI

Peinliche Situationen, nackte Körper oder bloßstellende Aktionen: Viele KI-Anwendungen vereinfachen die Erstellung von Fotomontagen, bei denen das Bild einer Person in andere Kontexte gesetzt oder verfremdet wird, um sie zu demütigen oder ihnen zu schaden. Bei realistischen „Deepfake“-Inhalten werden mit der Hilfe von künstlicher Intelligenz sogar gefälschte Videoinhalte erstellt. Dabei wird beispielsweise ein Gesicht auf ein bereits bestehendes Video gesetzt. Deepfakes können täuschend echt aussehen und eine große Glaubwürdigkeit besitzen. Teilweise werden die Fake-Videos auch als Identitätsbetrug eingesetzt, um in sozialen Netzwerken unter dem Namen des Opfers ein Konto anzulegen und bloßstellende Inhalte zu posten. Zusätzlich zu Bild und Video können auch gefälschte Audio-Inhalte erstellt werden: Sogenannte „Voice-Generators“ ermöglichen es, jeden erdenklichen Text als gesprochenes Wort in der Stimme einer Person auszugeben, wenn zum Beispiel Sprachnachrichten als Vorlage hochgeladen wurden. Solche Manipulationen können auch „live“ während eines (Video-)Anrufs eingesetzt werden.

Mobbing hat schwere Folgen

KI-Inhalte, die zu Cybermobbingzwecken eingesetzt werden, können besonders verheerende Auswirkungen auf die Opfer besitzen. Da die Fälschungen häufig nicht auf den ersten Blick als solche zu durchschauen sind, können ihnen die Inhalte noch lange nachhängen. Zu der Demütigung kommt noch der Druck hinzu, andere von der Falschheit überzeugen zu müssen. Wenn eigene Fotos oder Videos ohne Zustimmung verwendet werden, entsteht außerdem das Gefühl von Ohnmacht – denn durch die Technologien ist es ein leichtes, sehr viele und immer neue Inhalte zu erstellen. Für Betroffene ist es meist schon bei einigen wenigen Bildern oder Videos ein schweres Vorhaben, diese aus dem Netz entfernen zu lassen. Bei KI-Inhalten kann hingegen mühelos eine große Anzahl erzeugt werden. Besonders problematisch ist die automatische Erstellung von belästigenden oder bedrohlichen Nachrichten oder Kommentaren durch KI-Bots. Die Betroffenen haben wenig bis gar keine Möglichkeit, die Flut von Beleidigungen einzudämmen oder die dahinterstehenden Personen zu identifizieren.

Kinder sensibilisieren

Angesichts der neuen Möglichkeiten, die Anwendungen durch künstliche Intelligenz bieten, können Eltern mit ihrem Kind besprechen, dass diese verantwortungsvoll genutzt werden sollten. Auf keinen Fall dürfen damit absichtlich schädliche Inhalte erstellt werden. Auch wenn es anfangs wie ein Scherz wirken kann, ein peinliches Foto von KlassenkameradInnen durch die KI erstellen zu lassen, ist es meist nicht harmlos. Vor allem wenn die Inhalte einmal hochgeladen und verbreitet werden, lassen sie sich nur schwer wieder löschen.

Um nicht unwissentlich gefälschte Inhalte weiterzuverbreiten, können Eltern Bewusstsein dafür schaffen, dass Deepfake-Technologien zur Täuschung eingesetzt werden können. Außerdem können sie ihr Kind dabei unterstützen, wie es Deepfakes oder Bildmanipulation enttarnen kann: Beim Erstellen der Fakes passieren meist kleine Fehler – etwa bei der Kleidung, bei Schmuckstücken oder an den Bildrändern. Darauf können Kinder Bilder überprüfen. Solche Inhalte dürfen nicht weitergeteilt werden.

Wenn Kinder selbst betroffen sind, sollten die Inhalte umgehend bei den Plattformbetreibern gemeldet werden, um sie entfernen zu lassen. Sind die Beteiligten bekannt, können Eltern sie in Absprache mit ihren Kindern auffordern, die Inhalte zu entfernen. Manchmal ist den Beteiligten nicht klar, dass und wie sehr sie andere mit den Fakes verletzen.

Außerdem ist eine Option, rechtliche Schritte einzuleiten, ggf. anwaltliche Beratung einholen und die verantwortlichen NutzerInnen bei der Polizei zur Anzeige bringen. Denn die Veröffentlichung von manipulierten Bildern, Videos oder Audios können schwerwiegende Persönlichkeitsverletzungen für diejenigen bedeuten, deren Erscheinungsbild nachgeahmt wird.