Deepfakes: Wie Eltern ihre Kinder schützen können

Manipulierte Aufnahmen von bekannten Persönlichkeiten gibt es online häufig zu sehen. Wenn solche Fälschungen so gut sind, dass sie täuschend echt wirken, spricht man von „Deepfakes“. Tools mit Künstlicher Intelligenz machen das mit wenig Aufwand möglich. SCHAU HIN! fasst zusammen, was dahintersteckt, wo Kinder auf solche Inhalte stoßen – und wie Eltern sie davor schützen.

Ein Smartphone wird von zwei Händen gehalten, der Hintergrund ist dunkel.
GillesLambert/Unsplash

Deepfakes sind Fotos, Videos oder Tonaufnahmen, die mit Künstlicher Intelligenz so bearbeitet oder komplett neu erstellt wurden, dass sie täuschend echt wirken und Personen in Situationen zeigen können, die gar nicht passiert sind. Heute sind Deepfake-Tools so leicht zugänglich, dass jede Person sie nutzen kann. Auch mit kostenlosen Apps oder Online-Programmen lassen sich – oft mit wenigen Klicks und ohne technisches Vorwissen – Deepfakes erstellen. 

Am häufigsten werden Deepfakes bei Prominenten oder PolitikerInnen eingesetzt – zum Beispiel, um sie lächerlich zu machen, ihnen falsche Aussagen in den Mund zu legen oder ihrem Ruf gezielt zu schaden. Doch auch Privatpersonen können betroffen sein, wenn Bilder aus dem Alltag für vermeintlichen Spaß, Mobbing oder verletzende Inhalte missbraucht werden. Problematisch ist außerdem, dass sogar pornographische Inhalte gefälscht werden können, indem das Gesicht einer Person auf fremde Körper montiert wird. Für Kinder und Jugendliche heißt das: Sie begegnen solchen Inhalten nicht nur online, sondern können theoretisch selbst zur Zielscheibe werden.

Wie entstehen Deepfakes?

Damit ein Deepfake funktioniert, benötigt die KI Daten zu den Personen, die in den Fälschungen zu sehen sein sollen – zum Beispiel Fotos von Gesichtern oder Sprachaufnahmen. Mit diesem Material „lernt“ das System, wie jemand aussieht oder klingt. Je mehr Daten das KI-Tool zur Verfügung hat, desto echter wird das Ergebnis.

Nach der Analyse des Ausgangsmaterials kann das Tool die Personen in einen beliebigen neuen Kontext bringen. Zum Beispiel ein Gesicht täuschend echt auf die Körper anderer Menschen projizieren (Face-Swap), sodass es wirkt, als hätte jemand in einem Video getanzt oder gesprochen, obwohl er oder sie nie vor der Kamera stand. Das Ausgangsmaterial kann auch weniger stark bearbeitet werden, indem einzelne Bewegungen oder Elemente, zum Beispiel bei einer Rede die Lippen, verändert werden. Damit kann durch synchrone Lippenbewegungen und eine realistisch nachgeahmte Stimme der Inhalt einer Aussage oder eines Gesprächs verfälscht werden.

Kinder können Deepfakes im Netz begegnen

Kinder und Jugendliche können Deepfakes online in ganz verschiedenen Bereichen begegnen:

  • Unterhaltung: In sozialen Netzwerken kursieren Clips, in denen Promis in witzige Szenen montiert werden oder historische Persönlichkeiten plötzlich in einem modernen Kontext sprechen.
  • Betrug: Kriminelle nutzen gefälschte Stimmen, um sich am Telefon betrügerisch Geld zu verschaffen. 
  • Desinformation: Manipulierte Videos werden in Umlauf gebracht, um politische Meinungen zu beeinflussen oder das Vertrauen in Nachrichten zu schwächen.
  • Cybermobbing: Deepfakes können auch gezielt gegen Kinder und Jugendliche eingesetzt werden. Manipulierte Bilder oder Videos werden in Klassenchats, auf Instagram, TikTok oder Snapchat verbreitet – oft in beleidigender oder sexualisierter Form.
  • Sextortion: Besonders problematisch sind Fake-Nacktfotos, die mit Deepfake-Technik erstellt werden. Kinder und Jugendliche können damit unter Druck gesetzt werden, auch wenn die Aufnahmen gar nicht echt sind.

Woran erkennen Kinder Deepfakes?

Gerade Kinder sollten lernen, Hinweise auf Deepfakes zu erkennen und zu hinterfragen, ob ein Inhalt wirklich echt ist. So bewegen sie sich sicherer im Netz – auch dann, wenn Erwachsene nicht dabei sind. Wer kritisch bleibt, lässt sich weniger verunsichern und kann freier mit digitalen Inhalten umgehen. Deepfakes verraten sich trotz aller Perfektion oft noch durch kleine Ungereimtheiten:

  • Bewegungen wirken unnatürlich, etwa beim Blinzeln oder beim Sprechen. 
  • Haut, Haare oder Hintergründe sind unscharf oder sehen „verwaschen“ aus.
  • Stimmen klingen manchmal monoton oder leicht blechern.
  • Der Kontext passt nicht: Wer hat das Video veröffentlicht? Wirkt die Quelle vertrauenswürdig? Faktencheck-Portale wie Correctiv oder Mimikama überprüfen regelmäßig und entlarven Deepfakes als Fälschung. 

Eine Garantie gibt es nicht – doch schon einfache Strategien helfen: innehalten, zweimal hinschauen und im Zweifel nicht vorschnell teilen.

Parallel dazu arbeiten Politik und Plattformen an Gegenmaßnahmen. Die KI-Verordnung der EU, die im August 2024 in Kraft getreten ist, schreibt vor, dass künstlich erzeugte Inhalte gekennzeichnet werden müssen. Erste Unternehmen wie TikTok oder Meta haben bereits Hinweise eingeführt, etwa Wasserzeichen oder den Zusatz „Mit KI erstellt“. In der Praxis funktioniert das jedoch noch nicht durchgängig: Viele Inhalte lassen sich ohne Kennzeichnung hochladen und verbreiten.

Wie Eltern ihre Kinder vor Deepfakes schützen

  • Sich selbst informieren 
    Wer versteht, wie Deepfakes entstehen und welche Risiken damit verbunden sind, kann seine Kinder besser begleiten und aufklären. Gut informierte Eltern reagieren souveräner, wenn im Familienalltag Fragen auftauchen. Gleichzeitig hilft das Wissen, im Ernstfall richtig zu handeln – etwa wenn das eigene Kind durch einen Deepfake von Cybermobbing betroffen ist.
  • Nutzung begleiten
    Kinder sollten früh lernen, dass nicht alles, was echt aussieht, auch echt ist. Sinnvoll ist es, gemeinsam über Fotos, Videos und Stimmen zu sprechen und deutlich zu machen, dass Inhalte im Netz verändert oder komplett gefälscht sein können. Dabei brauchen Kinder die Sicherheit, jederzeit Fragen stellen zu können, wenn etwas komisch wirkt oder verunsichert. 
  • Kinderfotos nur an ausgewählte Kontakte 
    Fotos, die auf Social Media geteilt oder über Messenger verschickt werden, können leicht in falsche Hände geraten. Mit Deepfake-Technik ist es möglich, Gesichter aus solchen Bildern herauszuschneiden und in völlig andere Kontexte zu setzen – etwa in Videos oder auf fremde Körper. Deshalb sollten Eltern sehr genau überlegen, welche Bilder sie veröffentlichen und welchen Kontakten sie Kinderfotos schicken. Besonders wichtig: Kinder möglichst nicht mit erkennbaren Gesichtern ins Netz stellen. So lässt sich das Risiko verringern, dass Fotos missbraucht werden.
  • Inhalte gemeinsam prüfen
    Hilfreich ist es, mit Kindern einzuüben, Inhalte kritisch zu hinterfragen: Passt das wirklich? Woher kommt das Video? Ist die Quelle vertrauenswürdig? Eltern können gemeinsam mit ihren Kindern verdächtige Videos oder Bilder analysieren und dabei auf typische Anzeichen von Deepfakes achten.
  • Selbstbewusstsein stärken
    Es ist wichtig, dass Kinder ein stabiles Selbstbewusstsein entwickeln, denn das macht widerstandsfähiger gegen Spott oder Manipulation. Unterstützen Sie Ihre Kinder darin, ein positives Selbstbild zu entwickeln und stärken Sie das Selbstvertrauen durch ehrliches Lob, Interesse und Zuwendung.
  • Hilfe holen 
    Falls Ihr Kind betroffen sein sollte, finden Sie schnelle Unterstützung bei der Nummer gegen Kummer, bei JUUUPORT oder bei HateAid. Handelt es sich um strafbare Inhalte oder Erpressung, sollten Sie bei der Polizei Anzeige erstatten. Das geht auch digital und anonym bei fragzebra.de