ChatGPT verbreitet deutlich mehr Falschinformationen als im vergangenen Jahr
– NewsEine Analyse von NewsGuard zeigt: KI-Chatbots liefern deutlich häufiger falsche Informationen als noch vor einem Jahr. Besonders ChatGPT liegt überraschend oft daneben. SCHAU HIN! erklärt, was dahintersteckt und wie Eltern ihre Kinder beim sicheren Umgang mit KI unterstützen können.
Die US-amerikanische Organisation NewsGuard überprüft regelmäßig die Zuverlässigkeit von KI-Systemen. Für den Bericht „AI False Claims Monitor – One Year Progress Report“ testete das Team 2025 zehn führende Chatbots weltweit, darunter ChatGPT, Claude, Gemini und Mistral.
Die Forschenden stellten hundert Fragen zu aktuellen Nachrichtenthemen und prüften, ob die Systeme dabei Falschmeldungen wiederholen. Das Ergebnis: In 35 Prozent der Fälle lieferten die Chatbots fehlerhafte oder falsche Informationen. Ein Jahr zuvor lag dieser Wert noch bei 18 Prozent – die Fehlerquote hat sich damit nahezu verdoppelt.
ChatGPT liegt besonders oft daneben
ChatGPT schnitt besonders problematisch ab: Das Tool wiederholte in rund 40 Prozent der geprüften Fälle Desinformationen oder ungesicherte Behauptungen. Gleichzeitig sank die Zahl der „Keine-Antwort“-Fälle dramatisch: von 31 Prozent auf null. Die Konsequenz: Chatbots antworten heute fast immer – auch wenn sie keine verlässlichen Fakten haben.
Warum liefern Chatbots mehr Falschinformationen?
Früher lehnten viele KI-Systeme Fragen zu sensiblen oder aktuellen Themen häufig ab, um Fehlinformationen zu vermeiden. Heute haben die meisten Chatbots Zugriff auf Echtzeitdaten aus dem Internet – das soll sie aktueller machen, führt aber oft dazu, dass ungeprüfte oder manipulierte Quellen übernommen werden.
Wenn Fake News seriös wirken
Laut NewsGuard verbreiteten mehrere Chatbots 2025 Falschmeldungen über die Wahlen in Moldau und den ukrainischen Präsidenten Selenskyj. Diese Inhalte stammten ursprünglich aus russischen Propaganda-Netzwerken.
Die Forschenden sprechen von „Propaganda-Laundering“ – dem Reinwaschen von Falschmeldungen: Chatbots übernehmen fragwürdige Inhalte aus dubiosen Quellen, formulieren sie in neutralem Ton um und verleihen ihnen so den Anschein von Seriosität und Glaubwürdigkeit.
Was bedeutet das für Familien?
Kinder und Jugendliche erleben Chatbots oft als allwissend und neutral. Weil ihnen noch die nötige Distanz und Erfahrung fehlen, um Antworten kritisch zu hinterfragen, wird KI schnell zur vermeintlich verlässlichen Autorität. Genau darin liegt das Risiko: Falschinformationen werden nicht immer erkannt, höflich formulierte Aussagen wirken automatisch glaubwürdig – und wenn Kinder solche Inhalte weitergeben, verbreiten sich Fehlinformationen unbemerkt weiter.
Was Eltern tun können
- Gemeinsam prüfen
Wenn Kinder etwas Spannendes von ChatGPT erzählen, lohnt sich Nachfragen: „Woher weiß das die KI?“ oder „Gibt es dafür eine Quelle?“ So werden Eltern und Kinder gemeinsam zu Detektiven und Detektivinnen. Das schärft den Blick für Fakten und zeigt, dass auch KI-Antworten überprüft werden müssen. - Geeignete Alternativen zeigen
Kinder brauchen geprüfte, altersgerechte Informationen. Große Plattformen wie Google oder soziale Netzwerke sind besonders für jüngere Kinder nicht geeignet. Besser sind kindgerechte Angebote wie logo!, neuneinhalb, Kindernetz.de oder das Maus-Radio. Auf Seiten wie mimikama.org oder Correctiv können Falschmeldungen überprüft werden. Übrigens: Wer in der Familie regelmäßig über Nachrichten spricht, vermittelt Kindern, wie man Informationen einordnen und bewerten kann. - Klare Regeln vereinbaren
Es ist hilfreich, feste Regeln für den Umgang mit KI zu entwickeln und schriftlich festzuhalten. Zum Beispiel: ChatGPT darf zur Recherche genutzt werden, aber Fakten müssen immer noch mit anderen Quellen überprüft werden. Auch zeitliche Grenzen sind sinnvoll – etwa eine bestimmte Dauer pro Tag. - Interesse zeigen
Fragen wie „Worüber chattest du am liebsten mit ChatGPT?“ oder „Was hast du Neues mit KI gelernt?“ zeigen, dass Eltern sich für die Medienwelt ihrer Kinder interessieren. Offene Gespräche ohne Vorurteile schaffen Vertrauen – so sprechen Kinder auch über Unsicherheiten oder unangenehme Erfahrungen. - Nutzung begleiten
Kinder sollten früh lernen, dass nicht alles, was echt aussieht, auch echt ist. Sinnvoll ist es, gemeinsam über Fotos, Videos und Stimmen zu sprechen und deutlich zu machen, dass Inhalte im Netz verändert oder komplett gefälscht sein können.