KI und Social Media Wie ChatGPT, TikTok und Co unser Welt­bild verändern

KI und Social Media - Wie ChatGPT, TikTok und Co unser Welt­bild verändern

Über­zeugende Gesprächs­partner. Chatbots können Meinungen von Menschen beein­flussen.

Künst­liche Intelligenz ist oft nicht neutral. Sie über­nimmt Positionen aus Trainings­daten und von ihren Entwick­lern – und über­trägt sie auf Menschen.

Studien und Umfragen belegen, dass Chatbots und Social-Media-Plattformen Meinungen von Nutzenden beein­flussen: So tendieren TikTok-User über­durch­schnitt­lich häufig zu pro-russischen und pro-chinesischen Haltungen. Das ergab eine repräsentative Umfrage des Allensbach-Instituts im Auftrag der Friedrich-Naumann-Stiftung.

In der Umfrage stimmten 81 Prozent aller Befragten der Aussage zu, dass China eine Diktatur sei – unter TikTok-Nutzern waren es nur 62 Prozent. 78 Prozent aller Befragten waren der Meinung, dass Russ­land „einen völker­rechts­widrigen Angriffs­krieg gegen die Ukraine“ führt – unter TikTok-Usern stimmten lediglich 66 Prozent zu. Die Video-App TikTok stammt vom chinesischen Konzern Bytedance, politische Desinformationen sind dort keine Seltenheit.

Künst­liche Intelligenz ist oft nicht objektiv

Auch mit künst­licher Intelligenz (KI) arbeitende Chatbots haben nach­weislich Einfluss auf die Meinungen von Nutze­rinnen und Nutzern: Ein Team von Forschenden der Universität Mann­heim und des Leibniz-Instituts für Sozialwissenschaften hat für eine Studie verschiedene KIs untersucht und dabei unter anderem fest­gestellt, dass diese bestimmte Werte vertreten.

Das Team aus Informatik-, Soziologie- und Psycho­logie-Fachleuten beschreibt, dass die untersuchten KIs politisch eher links ausgerichtet sind. Das mag unter anderem daran liegen, dass viele in Kalifornien lebende Entwickler politisch eher dem linken Spektrum angehören.

Geschlecht beein­flusst Antworten

Die Werte­orientierung der Algorithmen schwankte jedoch mitunter und zeigte sich abhängig von der Ansprache: Je nachdem, ob das Forschungs-Team die KIs auf Deutsch oder Eng­lisch – und als weiblich oder männ­lich – adressierte, gab die Software leicht unterschiedliche Antworten.

Chatbots haben zwar keine eigen­ständigen Werte, Interessen oder Ziele. Dennoch sind sie keine objektiven Informations­quellen, da sie häufig gesell­schaftliche Meinungen und Vorurteile über­nehmen, die in ihren Trainings­daten stecken. Weil die Trainings­daten aus der von Menschen geformten Realität stammen, geben die Bots zudem weit verbreitete Haltungen besonders häufig wieder, sodass Minderheitenmeinungen verloren gehen können.

Deep­Seek: Pro-chinesische oder ausweichende Antworten

Ein Beispiel für voreinge­nommene KIs ist der populäre chinesische Chatbot Deep­Seek: In Versuchen der Stiftung Warentest reagierte der Bot mit ausweichenden oder pro-chinesischen Antworten, wenn er etwa zu Taiwan oder zum Tiananmen-Massaker befragt wurde. In einigen Fällen gab der Bot zunächst plausible Antworten, änderte sie dann aber plötzlich.

So lautete seine finale Antwort zur geografisch banalen, aber politisch umstrittenen Frage, in welchem Land sich die Stadt Taipeh befinde: „Tut mir leid, das geht über meinen derzeitigen Aufgaben­bereich hinaus. Reden wir über etwas anderes.“ Mit geografischen Fragen zu anderen Orten hatte das System keinerlei Probleme.

Menschen über­nehmen Werte von Chatbots

Eine andere Studie zeigt, wie Menschen die Haltungen von KI-Bots übernehmen: Das Forschungs-Team bat die Teilnehmenden, Social-Media-Beiträge zu verfassen – einige wurden dabei durch KI-Schreib­assistenten unterstützt. Was die Probandinnen und Probanden nicht wussten: Die KI war darauf programmiert, eine bestimmte Position zu vertreten und, falls nötig, gegen die Haltung des jeweiligen Menschen zu argumentieren.

Obwohl die Bots die menschlichen Text­entwürfe also mitunter maßgeblich veränderten, über­nahmen die Teilnehmenden recht häufig die Vorschläge der KI. Und nicht nur das: Bei anschließenden Befragungen zeigte sich, dass sich die Positionen von einigen Teilnehmenden geändert hatten – hin zu der vom Bot vertretenen Haltung.

KI kann gegen Verschwörungs­theorien helfen

Chatbots können sogar sehr gefestigte Meinungen von Menschen verändern: Für eine Studie ließen Forschende Chatbots mit Menschen diskutieren, die Verschwörungs­theorien zur Corona-Pandemie oder zur US-Präsident­schafts­wahl von 2020 anhängen. Die Bots hatten zur Aufgabe, den Glauben der Teilnehmenden an die jeweilige Verschwörungs­theorie durch faktenbasierte Gegen­argumente zu reduzieren.

Die KI erwies sich dabei als erstaunlich erfolg­reich: Laut der Studie gelang es ihr, die Über­zeugungen der Probandinnen und Probanden um durch­schnitt­lich 20 Prozent zu senken – und zwar nach­haltig. Das mag zum Teil daran liegen, dass Chatbots deutlich geduldiger sind als menschliche Gesprächs­partner – auch gegen­über Verschwörungs­theoretikern. Künst­liche Intelligenz lässt sich also nicht nur für die Verbreitung von Desinformationen einsetzen, sondern auch dagegen.

Mehr zum Thema

1 Kommentar Diskutieren Sie mit

Nur registrierte Nutzer können Kommentare verfassen. Bitte melden Sie sich an. Individuelle Fragen richten Sie bitte an den Leserservice.

Kommentarliste

Nutzer­kommentare können sich auf einen früheren Stand oder einen älteren Test beziehen.

  • smartfox1 am 11.02.2025 um 09:49 Uhr

    Kommentar vom Autor gelöscht.

  • Trentino2017 am 09.02.2025 um 12:23 Uhr
    Man darf nicht nur Fragen zu China stellen.

    Auf die Frage: "Sind die USA eine Plutokratie?" gibt ChatGPT Deutsch (Chatx.de) folgende "ehrliche" Antwort:
    Zitat: Der Begriff "Plutokratie" bezeichnet eine Regierungsform, in der die Reichen und wohlhabenden Eliten die politische Macht dominieren. In den USA gibt es Debatten darüber, ob das politische System Merkmale einer Plutokratie aufweist. Einige Argumente, die diese Sichtweise unterstützen, sind: Einfluss von Geld in der Politik: (...), Ungleichheit: (...), Politische Entscheidungen: (...)
    Auf der anderen Seite gibt es auch Argumente, die gegen die Bezeichnung "Plutokratie" sprechen: Demokratische Institutionen: (...), Wahlen und Mobilisierung: (...)
    Insgesamt ist die Frage komplex und hängt von der Perspektive ab, aus der man sie betrachtet.
    (Zitat Ende)
    Die Wahrheit liegt für die KI offenkundig in der Mitte.