Während der Nutzer Verdis „Requiem“ hört, öffnet sein Sprachassistent unbemerkt die Haustür für einen Hacker. Dass dieses Szenario Realität werden kann, haben Forscher der University of California mit einer neuen Studie demonstriert. Ihnen gelang es, akustische Befehle in Musikdateien zu verstecken und an Sprachassistenten wie Amazon Echo oder Google Home zu senden, ohne dass der Nutzer davon etwas mitbekommt. Kriminelle könnten das missbrauchen, um etwa vernetzte Geräte zu kapern, Schadsoftware zu verbreiten oder Bankkonten des Nutzers zu plündern. Sprachassistenten offenbaren immer wieder neue Risiken: 2017 erhielten einige amerikanische Echo-Besitzer zu ihrer Überraschung eine Puppenstube, nachdem in einer TV-Sendung der Befehl „Alexa, bestell mir eine Puppenstube“ vorkam, den die Assistentin prompt befolgte. Zudem lassen sich die Geräte oft auch mit Begriffen aktivieren, die so ähnlich klingen wie ihre Signalwörter. Alexa hört mitunter auch auf „Alexandra“. Der Google Assistant erwartet zwar den Spruch „Ok, Google“, reagiert aber ebenso auf die englische Wortschöpfung „Cocaine Noodle“ (Kokain-Nudel).