Siri, Alexa, Google теперь уязвимы для ультразвуковых атак

173 0

Команда исследователей из Университета Zhejiang в Китае продемонстрировала, как можно контролировать системы распознавания речи при помощи ультразвука. Этот метод атаки они назвали DolphinAttack. Эксперты протестировали Siri, Google Now, Samsung’s S Voice, Huawei’s HiVoice, Microsoft’s Cortana, Amazon’s Alexa и систему распознавания речи автомобиля Audi Q3. Они модулируют различные голосовые команды на ультразвуковых носителях на частоте 20 000 Гц и выше для того, чтобы человек не мог их услышать.

Цель исследования заключалась в том, чтобы определить, могут ли эти системы быть активированы с помощью ультразвука, и можно ли их контролировать до их активирования. Эксперименты, проведенные на 16 устройствах с 7 разными системами распознавания речи, были успешными во всех случаях на разных расстояний. Метод DolphinAttack был наиболее эффективным в случае с Siri на iPhone 4S и Alexa на Amazon’s Echo. В обоих случаях атака действовала на расстоянии 2 метров. Тестирование показало, что используемый язык не влияет на эффективность атаки, однако, тип команды имеет значение. Например, такие команды, как «вызов/фейстайм», «включить режим полета», или «какая погода сегодня» распознаются лучше всего. Фоновый шум также имеет значение: процент распознавания команды «включите режим «в самолете» снижается до 30% на улице по сравнению с 100% в офисе и 80% в кафе.

По мнению главы Агентства кибербезопасности Евгения Лифшица, аудио-атаки – это новая сфера деятельности для хакеров. «Компаниям, которые имеют дело с производством электронных устройств, следует запускать новые проекты, ориентированные на повышение уровня безопасности продукции. Это позволит им не только адаптироваться к новым хакерским схемам, но и таким образом создать конкурентное преимущество, обещая пользователям защищенный от атак товар».

Подписываемся, следим @CyberAgency

Related Post

Добавить комментарий