Während der Nutzer Verdis „Requiem“ hört, öffnet sein Sprachassistent unbemerkt die Haustür für einen Hacker. Dass dieses Szenario Realität werden kann, haben Forscher der University of California mit einer neuen Studie demonstriert. Ihnen gelang es, akustische Befehle in Musikdateien zu verstecken und an Sprachassistenten wie Amazon Echo oder Google Home zu senden, ohne dass der Nutzer davon etwas mitbekommt. Kriminelle könnten das missbrauchen, um etwa vernetzte Geräte zu kapern, Schadsoftware zu verbreiten oder Bankkonten des Nutzers zu plündern. Sprachassistenten offenbaren immer wieder neue Risiken: 2017 erhielten einige amerikanische Echo-Besitzer zu ihrer Überraschung eine Puppenstube, nachdem in einer TV-Sendung der Befehl „Alexa, bestell mir eine Puppenstube“ vorkam, den die Assistentin prompt befolgte. Zudem lassen sich die Geräte oft auch mit Begriffen aktivieren, die so ähnlich klingen wie ihre Signalwörter. Alexa hört mitunter auch auf „Alexandra“. Der Google Assistant erwartet zwar den Spruch „Ok, Google“, reagiert aber ebenso auf die englische Wortschöpfung „Cocaine Noodle“ (Kokain-Nudel).
-
- Amazon, Google, Apple, Microsoft und Facebook – die Enthüllungen der letzten Monate haben gezeigt: Wo sogenannte „künstliche Intelligenz“ zur Spracherkennung...
-
- Passwort-Manager sorgen für starke Passwörter und nehmen Nutzern die Last ab, sich Kennwörter merken zu müssen. Im Test schneiden drei gut ab, einen davon gibts gratis.
-
- Passwörter sind für Angreifer oft recht leicht zu knacken. Wer seine Online-Konten besser schützen will, setzt auf die Zwei-Faktor-Authentifizierung, kurz: 2FA. Dann...
Diskutieren Sie mit
Nur registrierte Nutzer können Kommentare verfassen. Bitte melden Sie sich an. Individuelle Fragen richten Sie bitte an den Leserservice.