Oui, les assistants vocaux peuvent être piratés à distance

Dans une étude publiée récemment, les chercheurs expliquent comment ils ont pu utiliser un laser pour prendre le contrôle d’assistants vocaux télécommandés.

Google Assistant, Amazon Alexa ou Siri, peu importe si vous avez un produit laitier, car tous ces assistants peuvent être hackés au laser. C’est l’étonnante découverte faite par des chercheurs de l’Université des Électro-Communications et de l’Université du Michigan dans une étude publiée récemment. En pointant un laser lambda disponible dans le commerce pour une poignée de dollars et en le couplant à un amplificateur coûtant plus de 300 $, les chercheurs ont pu activer les commandes d’assistants vocaux à distance en pointant le microphone de l’appareil. Les smartphones, les télévisions et même les haut-parleurs connectés sont sensibles à cette technologie qui peut fonctionner jusqu’à 100 mètres de distance, même à travers les fenêtres.

La manipulation est rendue possible par le fonctionnement des microphones contenus dans nos appareils, qui “convertissent le son en signaux électriques et réagissent également à la lumière dirigée directement sur eux”. Selon les chercheurs à l’origine de cette découverte, le laser permet de forcer l’appareil à interpréter la lumière comme s’il s’agissait d’un son et donc d’effectuer des télécommandes.

L’apparente simplicité de cette manipulation soulève de nombreuses questions, à une époque où la maison connectée est principalement contrôlée par la voix. Cependant, la méthode ne peut fonctionner que sous plusieurs conditions, la plus importante étant la vue directe de l’appareil. Les chercheurs ont contacté des constructeurs pour les informer de leur découverte, Google et Amazon ont indiqué qu’ils étudiaient le phénomène.