Smart Speaker

Forscher steuern Smart Speaker mit Lichtsignalen aus der Ferne

+
Google Home (l.) und Amazon Echo - ausgestattet mit Google Assistant und Alexa. Auch Siri ist von der Schwachstelle betroffen.

Smart Speaker sind beliebt - doch nun haben Forschende in Alexa, Siri und Google Assistant eine Sicherheitslücke entdeckt, die Besitzer von Smart Speakern aufhorchen lassen sollte.

Sprach-Assistenten wie Siri, Alexa oder Google Assistant sind beliebt. Der Nutzer spricht ein Kommando - und das Gerät führt es aus. Das reicht von einfachen Aufgaben wie dem Abspielen eines Lieds oder dem Programmieren der Erinnerungsfunktion bis hin zum Steuern externer Geräte wie Lampen, Türschlösser oder Garagentore.

Vor diesem Hintergrund ist eine Schwachstelle, die Forschende in Mikrofonen entdeckt haben, besonders heikel: Ihnen ist es gelungen, verschiedene Sprachassistenten zu hacken - und zwar nicht per Sprachkommandos, sondern mit Lichtsignalen. „Light Commands“ haben Forschende der University of Michigan und der University of Electro Communications in Tokio die Schwachstelle genannt, die sie gefunden haben.

Smart Speaker wie Alexa und Siri reagieren auf Lichtsignale

Im Versuch ist es den Forschenden gelungen, Siri, Google Assistant* und Alexa mit Hilfe eines Laserstrahls auszutricksen. Das gelang in unterschiedlichen Szenarien: aus nächster Nähe, über eine Distanz von 110 Metern und sogar über eine lange Distanz und durch ein geschlossenes Fenster.

„Es ist möglich, Mikrofone dazu zu bringen, auf Licht so zu reagieren, als ob es Klang wäre“, erklärt der Forscher Takeshi Sugawara gegenüber dem Magazin „Wired“. „Das bedeutet, dass jedes Gerät, das auf Klang reagiert, auch auf Lichtkommandos reagiert.“

Smart Speaker: Wie funktioniert der Hacker-Angriff auf Alexa, Siri und Co.?

Die MEMS-Mikrofone, die in Smart Speakern und Smartphones verbaut sind, verwandeln Klang in elektrische Signale. Allerdings lässt sich dieser Mechanismus durch Licht austricksen: Der Laserstrahl bringt ein Bauteil des Mikrofons zum Schwingen, wodurch die elektrischen Signale entstehen. So schicken die Forschenden unhörbare Signale an die Smart Speaker, die darauf reagieren.

Alexa, Siri und Co: Welche Gefahr besteht für Besitzer von Smart Speakern?

Mit Hilfe von „Light Commands“ könnten beispielsweise Garagentore geöffnet werden, die mit dem Smart Speaker verbunden sind, warnen die Forschenden. Genau dieses Szenario hatten sie in ihren Tests ausprobiert. Aber auch nicht autorisierte Online-Einkäufe, das Öffnen von Haustüren oder das Entriegeln und Starten von Fahrzeugen seien so möglich.

Wie kann man den Angriff auf Smart Speaker verhindern?

Um über längere Strecken die richtige Stelle von Alexa, Siri oder Google Assistant mit dem Laser zu treffen, benötigten die Forschenden unter anderem ein Teleobjektiv oder ein Teleskop - der Angriff ist also nicht ganz günstig. Außerdem kann man ihn verhältnismäßig einfach verhindern: Der Smart Speaker darf einfach nicht von außen einsehbar sein - sollte also beispielsweise nicht am Fenster stehen.

Die Forschenden schlagen zudem Mechanismen vor, die den Zugriff aus der Ferne verhindern sollen: So könnte der Smart Speaker vor dem Ausführen eines kritischen Befehls eine Frage stellen und den Befehl erst nach erhaltener Antwort ausführen. Auch möglich sei es, verschiedene Mikrofone zu nutzen: Der Smart Speaker reagiert dann nur, wenn er das Kommando über mehrere Mikrofone empfangen hat.

Smart Speaker: Beliebt und umstritten

Smart Speaker sind beliebt und weit verbreitet: Es gibt Statistiken, wonach jeder vierte US-Amerikaner einen smarten Lautsprecher besitzt. Amazon hat nach eigenen Angaben weltweit fast 120 Millionen Geräte mit Alexa-Unterstützung verkauft - Stand Anfang 2019. Mittlerweile dürften es deutlich mehr sein.

Aber Siri, Alexa und Co. sind auch umstritten: Sie hören jederzeit Gespräche mit*, um bei Bedarf reagieren zu können, kritisieren Datenschützer. Für Empörung sorgten vor einiger Zeit die Enthüllungen, dass Amazon teilweise Mitarbeiter die aufgezeichneten Befehle an Alexa anhören und abtippen lässt - um die Spracherkennung zu verbessern. Auch bei Apples Siri wurde ein entsprechendes Vorgehen bekannt. Mittlerweile haben beide Unternehmen Fehler zugegeben.

Von Tanja Banner

*fr.de ist Teil der bundesweiten Ippen-Digital-Zentralredaktion.

Das könnte Sie auch interessieren

elona ist da. Ihre lokalen Nachrichten.

Mehr zum Thema:

Hongkong: 100 Aktivisten verbarrikadieren sich weiter in Uni

Hongkong: 100 Aktivisten verbarrikadieren sich weiter in Uni

Islamismus, Dürre und Hunger: Der Sahelzone droht die Krise

Islamismus, Dürre und Hunger: Der Sahelzone droht die Krise

So spielt sich "Star Wars: Fallen Order"

So spielt sich "Star Wars: Fallen Order"

Google Stadia im Test

Google Stadia im Test

Meistgelesene Artikel

Massive Störungen bei Vodafone, Netflix und Amazon: „Echt zum K*****“

Massive Störungen bei Vodafone, Netflix und Amazon: „Echt zum K*****“

Nasa hat 1976 Leben auf dem Mars entdeckt, behauptet ein Forscher

Nasa hat 1976 Leben auf dem Mars entdeckt, behauptet ein Forscher

WhatsApp bekommt neue Funktion - Nutzer kennen sie schon von einer anderen App

WhatsApp bekommt neue Funktion - Nutzer kennen sie schon von einer anderen App

Akku-Killer: Diese Funktionen sollten Sie sofort ausschalten

Akku-Killer: Diese Funktionen sollten Sie sofort ausschalten

Kommentare