+
Google Home (l.) und Amazon Echo - ausgestattet mit Google Assistant und Alexa. Auch Siri ist von der Schwachstelle betroffen.

Smart Speaker

Forscher steuern Smart Speaker mit Lichtsignalen aus der Ferne

  • schließen

Smart Speaker sind beliebt - doch nun haben Forschende in Alexa, Siri und Google Assistant eine Sicherheitslücke entdeckt, die Besitzer von Smart Speakern aufhorchen lassen sollte.

Sprach-Assistenten wie Siri, Alexa oder Google Assistant sind beliebt. Der Nutzer spricht ein Kommando - und das Gerät führt es aus. Das reicht von einfachen Aufgaben wie dem Abspielen eines Lieds oder dem Programmieren der Erinnerungsfunktion bis hin zum Steuern externer Geräte wie Lampen, Türschlösser oder Garagentore.

Vor diesem Hintergrund ist eine Schwachstelle, die Forschende in Mikrofonen entdeckt haben, besonders heikel: Ihnen ist es gelungen, verschiedene Sprachassistenten zu hacken - und zwar nicht per Sprachkommandos, sondern mit Lichtsignalen. „Light Commands“ haben Forschende der University of Michigan und der University of Electro Communications in Tokio die Schwachstelle genannt, die sie gefunden haben.

Smart Speaker wie Alexa und Siri reagieren auf Lichtsignale

Im Versuch ist es den Forschenden gelungen, Siri, Google Assistant* und Alexa mit Hilfe eines Laserstrahls auszutricksen. Das gelang in unterschiedlichen Szenarien: aus nächster Nähe, über eine Distanz von 110 Metern und sogar über eine lange Distanz und durch ein geschlossenes Fenster.

„Es ist möglich, Mikrofone dazu zu bringen, auf Licht so zu reagieren, als ob es Klang wäre“, erklärt der Forscher Takeshi Sugawara gegenüber dem Magazin „Wired“. „Das bedeutet, dass jedes Gerät, das auf Klang reagiert, auch auf Lichtkommandos reagiert.“

Smart Speaker: Wie funktioniert der Hacker-Angriff auf Alexa, Siri und Co.?

Die MEMS-Mikrofone, die in Smart Speakern und Smartphones verbaut sind, verwandeln Klang in elektrische Signale. Allerdings lässt sich dieser Mechanismus durch Licht austricksen: Der Laserstrahl bringt ein Bauteil des Mikrofons zum Schwingen, wodurch die elektrischen Signale entstehen. So schicken die Forschenden unhörbare Signale an die Smart Speaker, die darauf reagieren.

Alexa, Siri und Co: Welche Gefahr besteht für Besitzer von Smart Speakern?

Mit Hilfe von „Light Commands“ könnten beispielsweise Garagentore geöffnet werden, die mit dem Smart Speaker verbunden sind, warnen die Forschenden. Genau dieses Szenario hatten sie in ihren Tests ausprobiert. Aber auch nicht autorisierte Online-Einkäufe, das Öffnen von Haustüren oder das Entriegeln und Starten von Fahrzeugen seien so möglich.

Wie kann man den Angriff auf Smart Speaker verhindern?

Um über längere Strecken die richtige Stelle von Alexa, Siri oder Google Assistant mit dem Laser zu treffen, benötigten die Forschenden unter anderem ein Teleobjektiv oder ein Teleskop - der Angriff ist also nicht ganz günstig. Außerdem kann man ihn verhältnismäßig einfach verhindern: Der Smart Speaker darf einfach nicht von außen einsehbar sein - sollte also beispielsweise nicht am Fenster stehen.

Die Forschenden schlagen zudem Mechanismen vor, die den Zugriff aus der Ferne verhindern sollen: So könnte der Smart Speaker vor dem Ausführen eines kritischen Befehls eine Frage stellen und den Befehl erst nach erhaltener Antwort ausführen. Auch möglich sei es, verschiedene Mikrofone zu nutzen: Der Smart Speaker reagiert dann nur, wenn er das Kommando über mehrere Mikrofone empfangen hat.

Smart Speaker: Beliebt und umstritten

Smart Speaker sind beliebt und weit verbreitet: Es gibt Statistiken, wonach jeder vierte US-Amerikaner einen smarten Lautsprecher besitzt. Amazon hat nach eigenen Angaben weltweit fast 120 Millionen Geräte mit Alexa-Unterstützung verkauft - Stand Anfang 2019. Mittlerweile dürften es deutlich mehr sein.

Aber Siri, Alexa und Co. sind auch umstritten: Sie hören jederzeit Gespräche mit*, um bei Bedarf reagieren zu können, kritisieren Datenschützer. Für Empörung sorgten vor einiger Zeit die Enthüllungen, dass Amazon teilweise Mitarbeiter die aufgezeichneten Befehle an Alexa anhören und abtippen lässt - um die Spracherkennung zu verbessern. Auch bei Apples Siri wurde ein entsprechendes Vorgehen bekannt. Mittlerweile haben beide Unternehmen Fehler zugegeben.

Von Tanja Banner

*fr.de ist Teil der bundesweiten Ippen-Digital-Zentralredaktion.

Auch interessant

Meistgelesene Artikel

Wenn das Tablet mit Malware verseucht ist
Smartphones aus Fernost, auf denen Malware schon vorinstalliert ist? Hat es alles schon gegeben. Wie kann man dann sichergehen, keine Virenschleuder als Geschenk unter …
Wenn das Tablet mit Malware verseucht ist
WhatsApp: Funktionen, Kosten und Sicherheit - Das kann der Messenger
WhatsApp hat schon mehr als eine Milliarde Nutzer. Telefonieren, chatten, Bilder verschicken - wir zeigen, was man über den Messenger wissen sollte.
WhatsApp: Funktionen, Kosten und Sicherheit - Das kann der Messenger
Neue Details zur nächsten Xbox
Microsofts neue Konsole soll um Weihnachten 2020 erscheinen. Bei den Game Awards hat Microsoft weitere Details bekanntgegeben. Unter anderem gab es einen ersten Blick …
Neue Details zur nächsten Xbox
Weltraumteleskop „Cheops“: Wo es Leben im All geben könnte
Die Esa schickt ihre neue Mission am 17. Dezember ins All.
Weltraumteleskop „Cheops“: Wo es Leben im All geben könnte

Kommentare