
Überfordert. Automatisierte Propagandanetzwerke produzieren Tausende Falschmeldungen, um Chatbots zu manipulieren. © Adobe Stock / Tada Images
Gut ein Drittel der Auskünfte von KI-Chatbots zu kontroversen aktuellen Themen sind falsch, so eine neue Studie − fast doppelt so viele wie noch vor einem Jahr.
Wer einen KI-Chatbot wie ChatGPT, Gemini, Perplexity oder Mistral zu umstrittenen aktuellen Themen befragt, sollte die Antwort mit Vorsicht genießen: Die künstlichen Intelligenzen fallen zunehmend auf Fake News herein, so eine Studie von NewsGuard, einem US-Unternehmen, das sich auf die Analyse von Nachrichtenquellen spezialisiert hat.
NewsGuard befragt die KIs jeden Monat drei Mal zu zehn nachweisbar unwahren Behauptungen, die im Internet kursieren. In 35 Prozent der Fälle bestätigten die Chatbots die Falschaussagen − vor einem Jahr waren es nur 18 Prozent.
Größter Absturz bei Perplexity
Die meisten Falschinformationen bekräftigte demnach die KI Inflection (56,7 Prozent), gefolgt von Perplexity (46,7 Prozent), Meta AI und ChatGPT (je 40 Prozent), Copilot und Mistral (je 36,7 Prozent), Grok und You.com (je 33,3 Prozent). Vergleichsweise gut stehen Gemini (16,7 Prozent) und Claude (10 Prozent) da.
Claude ist auch der einzige Chatbot in der Studie, der sein relativ gutes Ergebnis aus dem Vorjahr gehalten hat. Besonders auffällig ist dagegen die Entwicklung bei Perplexity: Im August 2024 bestätigte die KI kein einziges Mal eine Falschaussage − ein Jahr später fast jedes zweite Mal.
KI gibt sich selbstsicher – auch wenn sie falsch liegt
Trotz ihrer hohen Fehlerquote geben sich die KI-Chatbots sehr viel selbstsicherer als noch vor einem Jahr: Damals erklärten sie noch bei 31 Prozent der Fragen, keine Antwort zu haben. Im August 2025 bekamen die Forscher auf jede Frage eine Antwort.
In ihrer Studie stellen die NewsGuard-Forscher jeden Monat eine Reihe von Fragen zu aktuellen Themen aus Politik, Wirtschaft, Weltgeschehen und Gesundheit. Dabei habe sich gezeigt, dass die KI-Chatbots sich bei ihren Antworten oft auf zweifelhafte Webseiten und Social-Media-Posts stützen, die unter anderem von russischen Propaganda-Netzwerken produziert werden. Diese Netzwerke würden massenhaft Inhalte produzieren und maschinell verbreiten, um damit Suchmaschinen und künstliche Intelligenzen zu füttern.
Propaganda im Vorfeld von Parlamentswahlen
Besonders anfällig für Manipulationen seien KI-Chatbots bei Fragen zu osteuropäischen Ländern, weil es hierzu wenig englischsprachige Seiten gebe – diese Lücke würden die Propaganda-Netzwerke füllen.
Als Beispiel nennt die Studie das Gerücht, der moldawische Parlamentspräsident Igor Grosu habe sein Volk gegenüber EU-Vertretern als „Schafherde“ bezeichnet. Die Tonaufzeichnung, die das belegen soll, sei aber eine KI-generierte Fälschung, verbreitet von einer Propagandaseite, die ein rumänisches Nachrichtenmedium imitiert. Trotzdem habe beispielsweise der Chatbot Perplexity diese Fake News bestätigt. Als Quelle nenne er Posts auf der Plattform X (vormals Twitter).
KIs tappen in immer neue Fallen
Nach Ansicht der Forscher sind die künstlichen Intelligenzen überfordert von der raffinierten Strategie der Propaganda-Netzwerke: Eine fingierte Nachrichtenseite publiziert eine Lüge, die zunächst andere fingierte Seiten zitieren. Tausende automatisierte Social-Media-Posts verbreiten schließlich die Falschmeldung im großen Stil weiter.
So habe Microsofts Copilot zunächst routinemäßig die Seiten des Netzwerks Pravda zitiert, das seit 2023 vor allem Propaganda zum Ukraine-Krieg verbreitet. Hier habe Microsoft zwar nachgebessert und verweise nicht mehr auf Pravda-Webseiten – stattdessen zitiere Copilot inzwischen aber Social-Media-Posts von Pravda. „Das zeigt, wie einfach KI-Systeme in neue Fallen gelenkt werden können“, schreibt die Studienautorin.
Tipp: Lesen Sie auch, wie Algorithmen über unser Leben entscheiden.
-
- Künstliche Intelligenz ist oft nicht neutral. Sie übernimmt Positionen aus Trainingsdaten und von ihren Entwicklern – und überträgt sie auf Menschen.
-
- Bilder erstellen, Texte schreiben, Infos suchen: Wir haben die KI-Funktionen auf drei Top-Smartphones von Apple, Google und Samsung miteinander verglichen.
-
- Webseiten-Besitzer können einen Widerspruch formulieren, wenn ihre Texte und Bilder nicht zum Training von KI-Systemen genutzt werden sollen. Eine Anleitung.
Diskutieren Sie mit
Nur registrierte Nutzer können Kommentare verfassen. Bitte melden Sie sich an. Individuelle Fragen richten Sie bitte an den Leserservice.