
Überzeugende Gesprächspartner. Chatbots können Meinungen von Menschen beeinflussen.
Künstliche Intelligenz ist oft nicht neutral. Sie übernimmt Positionen aus Trainingsdaten und von ihren Entwicklern – und überträgt sie auf Menschen.
Studien und Umfragen belegen, dass Chatbots und Social-Media-Plattformen Meinungen von Nutzenden beeinflussen: So tendieren TikTok-User überdurchschnittlich häufig zu pro-russischen und pro-chinesischen Haltungen. Das ergab eine repräsentative Umfrage des Allensbach-Instituts im Auftrag der Friedrich-Naumann-Stiftung.
In der Umfrage stimmten 81 Prozent aller Befragten der Aussage zu, dass China eine Diktatur sei – unter TikTok-Nutzern waren es nur 62 Prozent. 78 Prozent aller Befragten waren der Meinung, dass Russland „einen völkerrechtswidrigen Angriffskrieg gegen die Ukraine“ führt – unter TikTok-Usern stimmten lediglich 66 Prozent zu. Die Video-App TikTok stammt vom chinesischen Konzern Bytedance, politische Desinformationen sind dort keine Seltenheit.
Künstliche Intelligenz ist oft nicht objektiv
Auch mit künstlicher Intelligenz (KI) arbeitende Chatbots haben nachweislich Einfluss auf die Meinungen von Nutzerinnen und Nutzern: Ein Team von Forschenden der Universität Mannheim und des Leibniz-Instituts für Sozialwissenschaften hat für eine Studie verschiedene KIs untersucht und dabei unter anderem festgestellt, dass diese bestimmte Werte vertreten.
Das Team aus Informatik-, Soziologie- und Psychologie-Fachleuten beschreibt, dass die untersuchten KIs politisch eher links ausgerichtet sind. Das mag unter anderem daran liegen, dass viele in Kalifornien lebende Entwickler politisch eher dem linken Spektrum angehören.
Geschlecht beeinflusst Antworten
Die Werteorientierung der Algorithmen schwankte jedoch mitunter und zeigte sich abhängig von der Ansprache: Je nachdem, ob das Forschungs-Team die KIs auf Deutsch oder Englisch – und als weiblich oder männlich – adressierte, gab die Software leicht unterschiedliche Antworten.
Chatbots haben zwar keine eigenständigen Werte, Interessen oder Ziele. Dennoch sind sie keine objektiven Informationsquellen, da sie häufig gesellschaftliche Meinungen und Vorurteile übernehmen, die in ihren Trainingsdaten stecken. Weil die Trainingsdaten aus der von Menschen geformten Realität stammen, geben die Bots zudem weit verbreitete Haltungen besonders häufig wieder, sodass Minderheitenmeinungen verloren gehen können.
DeepSeek: Pro-chinesische oder ausweichende Antworten
Ein Beispiel für voreingenommene KIs ist der populäre chinesische Chatbot DeepSeek: In Versuchen der Stiftung Warentest reagierte der Bot mit ausweichenden oder pro-chinesischen Antworten, wenn er etwa zu Taiwan oder zum Tiananmen-Massaker befragt wurde. In einigen Fällen gab der Bot zunächst plausible Antworten, änderte sie dann aber plötzlich.
So lautete seine finale Antwort zur geografisch banalen, aber politisch umstrittenen Frage, in welchem Land sich die Stadt Taipeh befinde: „Tut mir leid, das geht über meinen derzeitigen Aufgabenbereich hinaus. Reden wir über etwas anderes.“ Mit geografischen Fragen zu anderen Orten hatte das System keinerlei Probleme.
Menschen übernehmen Werte von Chatbots
Eine andere Studie zeigt, wie Menschen die Haltungen von KI-Bots übernehmen: Das Forschungs-Team bat die Teilnehmenden, Social-Media-Beiträge zu verfassen – einige wurden dabei durch KI-Schreibassistenten unterstützt. Was die Probandinnen und Probanden nicht wussten: Die KI war darauf programmiert, eine bestimmte Position zu vertreten und, falls nötig, gegen die Haltung des jeweiligen Menschen zu argumentieren.
Obwohl die Bots die menschlichen Textentwürfe also mitunter maßgeblich veränderten, übernahmen die Teilnehmenden recht häufig die Vorschläge der KI. Und nicht nur das: Bei anschließenden Befragungen zeigte sich, dass sich die Positionen von einigen Teilnehmenden geändert hatten – hin zu der vom Bot vertretenen Haltung.
KI kann gegen Verschwörungstheorien helfen
Chatbots können sogar sehr gefestigte Meinungen von Menschen verändern: Für eine Studie ließen Forschende Chatbots mit Menschen diskutieren, die Verschwörungstheorien zur Corona-Pandemie oder zur US-Präsidentschaftswahl von 2020 anhängen. Die Bots hatten zur Aufgabe, den Glauben der Teilnehmenden an die jeweilige Verschwörungstheorie durch faktenbasierte Gegenargumente zu reduzieren.
Die KI erwies sich dabei als erstaunlich erfolgreich: Laut der Studie gelang es ihr, die Überzeugungen der Probandinnen und Probanden um durchschnittlich 20 Prozent zu senken – und zwar nachhaltig. Das mag zum Teil daran liegen, dass Chatbots deutlich geduldiger sind als menschliche Gesprächspartner – auch gegenüber Verschwörungstheoretikern. Künstliche Intelligenz lässt sich also nicht nur für die Verbreitung von Desinformationen einsetzen, sondern auch dagegen.
-
- Bilder erstellen, Texte schreiben, Infos suchen: Wir haben die KI-Funktionen auf drei Top-Smartphones von Apple, Google und Samsung miteinander verglichen.
-
- Keines der 16 Games im Test ist für Kinder empfehlenswert. Das liegt unter anderem daran, dass viele Apps zu Käufen drängen.
-
- Der Umgang mit Daten ist jetzt in der Datenschutz-Grundverordnung (DSGVO) geregelt. Wir erklären, welche neuen Rechte sie Verbrauchern gibt.
Diskutieren Sie mit
Nur registrierte Nutzer können Kommentare verfassen. Bitte melden Sie sich an. Individuelle Fragen richten Sie bitte an den Leserservice.
Kommentarliste
Nutzerkommentare können sich auf einen früheren Stand oder einen älteren Test beziehen.
Kommentar vom Autor gelöscht.
Auf die Frage: "Sind die USA eine Plutokratie?" gibt ChatGPT Deutsch (Chatx.de) folgende "ehrliche" Antwort:
Zitat: Der Begriff "Plutokratie" bezeichnet eine Regierungsform, in der die Reichen und wohlhabenden Eliten die politische Macht dominieren. In den USA gibt es Debatten darüber, ob das politische System Merkmale einer Plutokratie aufweist. Einige Argumente, die diese Sichtweise unterstützen, sind: Einfluss von Geld in der Politik: (...), Ungleichheit: (...), Politische Entscheidungen: (...)
Auf der anderen Seite gibt es auch Argumente, die gegen die Bezeichnung "Plutokratie" sprechen: Demokratische Institutionen: (...), Wahlen und Mobilisierung: (...)
Insgesamt ist die Frage komplex und hängt von der Perspektive ab, aus der man sie betrachtet.
(Zitat Ende)
Die Wahrheit liegt für die KI offenkundig in der Mitte.