fbpx

Light Commands – Laserbasierte Audioinjektion in Smart Speaker

Light Commands – Laserbasierte Audioinjektion in Smart Speaker

 
Ist es möglich mittels Licht unhörbare sowie unsichtbare Befehle aus der Ferne in Sprachassistenten wie Alexa, Google Assistant oder Siri zu injizieren?

Yes! Basierend auf dem photoakustischen Effekt – der Umwandlung von Licht in Ton über ein Mikrofon – ist es möglich bösartige Befehle in sprachgesteuerte Devices, wie beispielsweise Smart Speakers, Tablets oder Smartphones, einzuspeisen. Das kann über große Entfernungen erfolgen. Ebenso durch Barrieren hindurch, wie etwa Fensterscheiben, ist dies möglich.

Laserbasierte Audioinjektion in Smart Speaker
(Bildquelle: lightcommands.com)

Das zeigt die aktuelle Arbeit der Forschergruppe um Takeshi Sugawara, Benjamin Cyr, Sara Rampazzi, Daniel Genkin sowie Kevin Fu, die über Angriffe mittels Lichtinjektion beliebige Audiosignale in ein Zielmikrofon (MEMS) eingespeist haben. Dabei wird ein amplitudenmoduliertes Licht auf die Blende des Mikrofons gerichtet, wodurch die volle Kontrolle über das Geräte erlangt wird. Das ganze ist in Abständen von über 100 Metern möglich. Durch die fehlende Benutzerauthentifizierung auf den Plattformen um Alexa und Co. ist es spielend einfach möglich über lichtinjektierte Sprachbefehle beispielsweise Smartlock geschützte Haustüren zu öffnen, Fahrzeuge zu lokalisieren oder zu starten (bspw. Tesla) oder auch Online-Käufe durchzuführen. » Paper als PDF-Version

 
 

How it works: Laserbasierte Audioinjektion in Smart Speaker

Lichtsignale_Smart_Speaker
(Bildquelle: lightcommands.com)

Im Grunde basiert die wichtigste Erkenntnis auf der Tatsache, dass Mikrofone, die Schall in in elektrische Signale umwandeln, ebenso auf Licht reagieren und dieses ebenfalls in elektrische Signale wandeln. Die folgenden Videos verdeutlichen es recht gut.

 

 

 

 

 
 

Wie können sich Nutzer vor Angriffen schützen?

Bleibt zuletzt die Frage danach, wie man sich als Nutzer vor derartigen Angriffen zu schützen vermag. Grundsätzlich gilt, dass bei fehlender Benutzerauthentifizierung, beispielsweise über Stimmenprofile, es für Angreifer problemlos möglich ist auf das Gerät und über dieses auf den intelligenten Assistenten zuzugreifen, insofern sich das Device in einem sichtbaren Bereich befindet. Doch selbst ein verifiziertes Stimmprofil schützt nicht bedingungslos vor etwaigen Angriffen, da die Stimmen-Authentifizierung sich (aktuell) lediglich auf die Wake Words, bei Amazon Alexa “Alexa” oder dem Google Assistant “Ok Google”, bezieht und nicht auf den nachfolgenden durch den Nutzer gesprochenen Befehl. Das ist in etwa gleichzusetzen mit einem Passwort bestehend aus zwei Buchstaben. Obendrein ist die Stimmenerkennung oftmals noch als schwach zu bewerten, wodurch sie von Angreifern leicht umgangen werden kann, in dem die Stimme des eigentlichen Nutzers mittels Online-Text-to-Speech-Synthesewerkzeugen nachgeahmt wird. Wie gut dies funktioniert kann man dem » Paper auf Lightcommands.com entnehmen. Am Ende gilt, entsprechende Devices blicksicher positionieren.

 
 
 
 
 
 

No Comments

Post a Comment