
Psychologin Dr. Marisa Tschopp erforscht unser Verhalten gegenüber intelligenten Systemen. © Scip ag
Marisa Tschopp erforscht unser Verhalten gegenüber intelligenten Systemen. Im Interview mit test.de erklärt sie, wie wir mit der KI umgehen sollten.
Netflix, Tinder, Online-Shops – überall ist KI im Einsatz
Wo begegnen wir heute im Alltag bereits automatisierten oder KI-basierten Entscheidungen?
Die Frage ist ja heutzutage eher: wo nicht mehr? Beim Online-Shopping, wenn Preise individuell angepasst werden. Bei Netflix oder Online-Dating, wenn Vorschläge von Algorithmen erstellt werden. Auch Bewerbungen werden oft durch Software vorsortiert, bevor ein Mensch sie sieht. Merkt man nicht direkt, hat aber reale Folgen. Auch in Medizin, Bildung oder Waffensystemen sind solche Systeme im Einsatz. Vielleicht noch nicht im Toaster, aber das kommt vielleicht auch bald.
Wie schnell und wie stark wird KI in Zukunft unseren Alltag beeinflussen?
Je nach Gebiet gibt es natürlich Unterschiede. Grundsätzlich ist das Tempo schon enorm. Man denke nur an Anwendungen wie ChatGPT, einen Chatbot, der selbstständig formulieren kann. Aber auch andere Bereiche geraten unter Druck, zum Beispiel Verwaltung, Banken oder Medizin. Es wird versprochen, dass der Alltag effizienter wird und mehr Menschen etwa im Gesundheitsbereich erreicht werden können.
Aber klar ist: Alles wird auch undurchsichtiger – wir müssen lernen, damit umzugehen, bevor wir die Kontrolle verlieren. Oder etwas pessimistischer gesagt: Akzeptieren, dass wir eigentlich schon viel mehr Kontrolle abgegeben haben, als uns bewusst ist. Wenn es „zu spät“ ist, müssen wir eben langsam anfangen, Widerstand zu leisten.
Verbraucher sollten kritisch bleiben
Warum ist Vertrauen in Entscheidungen durch KI wichtig?
Vertrauen ist zentral – aber nicht alles. Entscheidend ist das richtige Maß. Die tatsächliche Zuverlässigkeit eines Systems, etwa bei Datenschutz oder Fairness, muss mit dem Gefühl der Nutzer zusammenpassen. Doch oft ist das nicht der Fall. Vertrauen entsteht auch aus irrationalen Gründen, etwa weil Freunde ein System nutzen. Oder Misstrauen, wenn man negative Assoziationen hat.
Ein System kann objektiv fair sein, aber wenn ich es nicht verstehe, wirkt es ungerecht. Umgekehrt kann ein freundlicher Chatbot Vertrauen wecken, obwohl er technisch fehlerhaft ist. Beides – zu viel oder zu wenig Vertrauen – kann problematisch sein.
Wo liegen die Risiken, wenn KI über Geld, Verträge und Preise bestimmt?
Die größte Gefahr ist stille Diskriminierung. Menschen in bestimmten Stadtteilen bekommen schlechtere Konditionen – ohne dass das nachvollziehbar ist. Wenn nicht einmal Entwickler wissen, wie eine Entscheidung zustande kommt, bleibt Betroffenen nur Ohnmacht. Das ist sehr problematisch.
Angebot auswählen und weiterlesen
-
- Der Schufa-Score kann entscheiden, ob Sie eine Kreditkarte bekommen oder in Raten zahlen dürfen. Wir sagen, was die Schufa erfährt und was beim Datenschutz gilt.
-
- Vattenfall speichert die Daten seiner Kunden jetzt fünf Jahre, um so Bonusjäger zu identifizieren und abzulehnen. Kunden sollten vor Vertragsabschluss genau hinsehen.
-
- Laut einer Entscheidung des Bundesgerichtshofs könnten Versicherte zukünftig interne Vermerke oder Korrespondenzen erhalten, wenn sie von ihrer Versicherung Auskunft...
Diskutieren Sie mit
Nur registrierte Nutzer können Kommentare verfassen. Bitte melden Sie sich an. Individuelle Fragen richten Sie bitte an den Leserservice.
Kommentarliste
Nutzerkommentare können sich auf einen früheren Stand oder einen älteren Test beziehen.
Vielen Dank für den Artikel. Ich werde jetzt noch mal einen Versuch unternehmen herauszufinden warum mir nicht mal die minimalste Erhöhung des Kreditrahmens gewährt wird.
Bei der alten Amazon-Visa der LBB hatte ich jahrelang hohe Beträge monatlich umgesetzt und auch entsprechend hohen Kreditrahmen.
Bei der neuen Karte von Zinia/Santander werden alle meine Bemühungen abgelehnt den Kreditrahmen auch nur minimal zu erhöhen. (Schufa-Score ist sehr gut.)
Meine bereits erfolgte Nachfrage nach den Gründen wurde mit allgemeinen Sätzen und Verweis auf die Datenschutz-Seite quasi nicht beantwortet.
Mal sehen, ob ihr Muster da hilft.