Siri, Alexa et Google Assistant peuvent être contrôlés par des commandes inaudibles

Siri d'Apple, Alexa d'Amazon et Google Assistant devaient être contrôlés par des voix humaines vivantes, mais les trois assistants AI sont sensibles aux commandes cachées indétectables à l'oreille humaine, ont découvert des chercheurs en Chine et aux États-Unis. Le New York Times rapporte aujourd'hui que les assistants peuvent être contrôlés en utilisant des commandes subsoniques cachées dans la musique de radio, des vidéos de YouTube, ou même le bruit blanc joué au-dessus des haut-parleurs, un risque de sécurité potentiellement énorme pour les utilisateurs.

Selon le rapport, les assistants peuvent composer des numéros de téléphone, lancer des sites Web, faire des achats et accéder à des accessoires intelligents – comme des serrures de porte – en même temps que des auditeurs perçoivent des textes complètement différents. aux enregistrements de musique. Dans certains cas, on peut demander aux assistants de prendre des photos ou d'envoyer des messages texte, en recevant des ordres à une distance allant jusqu'à 25 pieds à travers les fenêtres ouvertes d'un bâtiment.

Les chercheurs de Berkeley ont déclaré qu'ils pouvaient modestement modifier les fichiers audio "pour annuler le son que le système de reconnaissance vocale était supposé entendre et le remplacer par un son qui serait transcrit différemment par les machines tout en étant presque indétectable à l'oreille humaine Les chercheurs de l'Université de Princeton et de l'Université du Zhejiang en Chine ont renforcé l'attaque en coupant d'abord le dispositif d'IA afin que ses propres réponses soient également inaudibles à l'utilisateur.

La nouveauté ici est la nature insupportable des commandements secrets. Les émissions de télévision et les publicités ont ouvertement et délibérément déclenché certains assistants numériques en utilisant des phrases verbalisées, mais cacher les phrases est l'équivalent sonore de la publicité subliminale. Il n'y a pas encore de lois contre le déclenchement de dispositifs d'intelligence artificielle avec des phrases cachées, ce qui permet potentiellement d'exploiter la pratique sans avoir de conséquences juridiques directes.

LIS  Tesla promet des bénéfices en tant qu'établissements de production modèle 3

Si le problème de sécurité n'est pas entièrement résolu, ce qui sera certainement le cas, le nombre de violations potentielles pourrait être stupéfiant. Comme le souligne le Times, les téléphones et les haut-parleurs avec des assistants numériques devraient dépasser le nombre de personnes d'ici 2021, et plus de la moitié des ménages américains auront alors un ou plusieurs haut-parleurs intelligents.

Les trois fabricants d'assistants numériques sont apparemment déjà au courant de la vulnérabilité, bien qu'ils aient expliqué de façon vague les mesures d'atténuation existantes. Amazon affirme avoir pris des mesures non précisées pour assurer la sécurité d'Echo, Google a déclaré que l'Assistant a des fonctionnalités pour atténuer les commandes indétectables, et Apple a déclaré que ses appareils ont des précautions et des limitations qui excluent certaines des commandes. On ne sait pas si le filtrage audio subsonique suffira à lui seul pour résoudre le problème, mais il est tout à fait possible qu'un simple correctif logiciel soit suffisant pour éliminer les risques.


Lien source

Comments

comments

Laisser un commentaire