Während der Nutzer Verdis „Requiem“ hört, öffnet sein Sprach­assistent unbe­merkt die Haustür für einen Hacker. Dass dieses Szenario Realität werden kann, haben Forscher der University of California mit einer neuen Studie demons­triert. Ihnen gelang es, akustische Befehle in Musikdateien zu verstecken und an Sprach­assistenten wie Amazon Echo oder Google Home zu senden, ohne dass der Nutzer davon etwas mitbekommt. Kriminelle könnten das miss­brauchen, um etwa vernetzte Geräte zu kapern, Schadsoftware zu verbreiten oder Bank­konten des Nutzers zu plündern. Sprach­assistenten offen­baren immer wieder neue Risiken: 2017 erhielten einige amerikanische Echo-Besitzer zu ihrer Über­raschung eine Puppen­stube, nachdem in einer TV-Sendung der Befehl „Alexa, bestell mir eine Puppen­stube“ vorkam, den die Assistentin prompt befolgte. Zudem lassen sich die Geräte oft auch mit Begriffen akti­vieren, die so ähnlich klingen wie ihre Signalwörter. Alexa hört mitunter auch auf „Alexandra“. Der Google Assistant erwartet zwar den Spruch „Ok, Google“, reagiert aber ebenso auf die eng­lische Wort­schöpfung „Cocaine Noodle“ (Kokain-Nudel).

Dieser Artikel ist hilfreich. 6 Nutzer finden das hilfreich.