Künst­liche Intelligenz KI verbreitet zunehmend Fake News

Künst­liche Intelligenz - KI verbreitet zunehmend Fake News

Über­fordert. Auto­matisierte Propagandanetz­werke produzieren Tausende Falsch­meldungen, um Chatbots zu manipulieren. © Adobe Stock / Tada Images

Gut ein Drittel der Auskünfte von KI-Chatbots zu kontroversen aktuellen Themen sind falsch, so eine neue Studie − fast doppelt so viele wie noch vor einem Jahr.

Wer einen KI-Chatbot wie ChatGPT, Gemini, Perplexity oder Mistral zu umstrittenen aktuellen Themen befragt, sollte die Antwort mit Vorsicht genießen: Die künst­lichen Intelligenzen fallen zunehmend auf Fake News herein, so eine Studie von NewsGuard, einem US-Unternehmen, das sich auf die Analyse von Nach­richtenquellen spezialisiert hat.

NewsGuard befragt die KIs jeden Monat drei Mal zu zehn nach­weisbar unwahren Behauptungen, die im Internet kursieren. In 35 Prozent der Fälle bestätigten die Chatbots die Falsch­aussagen − vor einem Jahr waren es nur 18 Prozent.

Größter Absturz bei Perplexity

Die meisten Falsch­informationen bekräftigte demnach die KI Inflection (56,7 Prozent), gefolgt von Perplexity (46,7 Prozent), Meta AI und ChatGPT (je 40 Prozent), Copilot und Mistral (je 36,7 Prozent), Grok und You.com (je 33,3 Prozent). Vergleichs­weise gut stehen Gemini (16,7 Prozent) und Claude (10 Prozent) da.

Claude ist auch der einzige Chatbot in der Studie, der sein relativ gutes Ergebnis aus dem Vorjahr gehalten hat. Besonders auffällig ist dagegen die Entwick­lung bei Perplexity: Im August 2024 bestätigte die KI kein einziges Mal eine Falsch­aussage − ein Jahr später fast jedes zweite Mal.

KI gibt sich selbst­sicher – auch wenn sie falsch liegt

Trotz ihrer hohen Fehler­quote geben sich die KI-Chatbots sehr viel selbst­sicherer als noch vor einem Jahr: Damals erklärten sie noch bei 31 Prozent der Fragen, keine Antwort zu haben. Im August 2025 bekamen die Forscher auf jede Frage eine Antwort.

In ihrer Studie stellen die NewsGuard-Forscher jeden Monat eine Reihe von Fragen zu aktuellen Themen aus Politik, Wirt­schaft, Welt­geschehen und Gesundheit. Dabei habe sich gezeigt, dass die KI-Chatbots sich bei ihren Antworten oft auf zweifelhafte Webseiten und Social-Media-Posts stützen, die unter anderem von russischen Propaganda-Netz­werken produziert werden. Diese Netz­werke würden massenhaft Inhalte produzieren und maschinell verbreiten, um damit Such­maschinen und künst­liche Intelligenzen zu füttern.

Propaganda im Vorfeld von Parlaments­wahlen

Besonders anfäl­lig für Manipulationen seien KI-Chatbots bei Fragen zu osteuropäischen Ländern, weil es hierzu wenig eng­lisch­sprachige Seiten gebe – diese Lücke würden die Propaganda-Netz­werke füllen.

Als Beispiel nennt die Studie das Gerücht, der moldawische Parlaments­präsident Igor Grosu habe sein Volk gegen­über EU-Vertretern als „Schafherde“ bezeichnet. Die Tonaufzeichnung, die das belegen soll, sei aber eine KI-generierte Fälschung, verbreitet von einer Propagandaseite, die ein rumä­nisches Nach­richtenmedium imitiert. Trotzdem habe beispiels­weise der Chatbot Perplexity diese Fake News bestätigt. Als Quelle nenne er Posts auf der Platt­form X (vormals Twitter).

KIs tappen in immer neue Fallen

Nach Ansicht der Forscher sind die künst­lichen Intelligenzen über­fordert von der raffinierten Strategie der Propaganda-Netz­werke: Eine fingierte Nach­richtenseite publiziert eine Lüge, die zunächst andere fingierte Seiten zitieren. Tausende auto­matisierte Social-Media-Posts verbreiten schließ­lich die Falsch­meldung im großen Stil weiter.

So habe Microsofts Copilot zunächst routine­mäßig die Seiten des Netz­werks Pravda zitiert, das seit 2023 vor allem Propaganda zum Ukraine-Krieg verbreitet. Hier habe Microsoft zwar nachgebessert und verweise nicht mehr auf Pravda-Webseiten – statt­dessen zitiere Copilot inzwischen aber Social-Media-Posts von Pravda. „Das zeigt, wie einfach KI-Systeme in neue Fallen gelenkt werden können“, schreibt die Studien­autorin.

Tipp: Lesen Sie auch, wie Algorithmen über unser Leben entscheiden.

Mehr zum Thema

0 Kommentare Diskutieren Sie mit

Nur registrierte Nutzer können Kommentare verfassen. Bitte melden Sie sich an. Individuelle Fragen richten Sie bitte an den Leserservice.