Ученые из Чжэцзянского университета в Китае провели исследование голосовых ассистентов, которое показало, что такие помощники как Siri, Alexa, Сortana, Google Now (и другие менее популярные) распознают ультразвуковые команды, которые не слышит человеческое ухо.
Исследователи придумали несколько ультразвуковых команды и провели тест, получивший название «Dolphin Attack» (пер. с англ. — «Атака дельфина»). Название выбрали неслучайно — дельфины воспринимают ультразвуковые волны. Преобразовав голос в сигнал с частотой выше 20 кГц, ученые выяснили, что голосовые ассистенты хорошо распознают ультразвук. Таким образом, исследование показало, что взломать устройство на базе голосового помощника можно относительно несложным способом.
Однако вероятность того, что девайс буде взломан вышеописанным методом невелика: во-первых, взломщик (источник ультразвуковых команд) должен находиться недалеко от устройства, а во-вторых, важно, чтобы вокруг было тихо (Siri распознавала ультразвук на улице только в 30% случаев, но в тихом офисе — на 100%). К тому же практические все устройства реагируют на голосовые команды ответом, а постоянно отвечающего без причины голосового ассистента сложно проигнорировать.
Еще одно препятствие касается Siri. Система понимает голос своего владельца, а на чужие команды отвечать не будет. С другой стороны, злоумышленники могут достать запись голоса и смонтировать на ее основе нужные фразы, которые активируют Siri.
Стоит отметить, что китайские исследователи смогли взломать ультразвуком не только стандартные голосовые помощники, но и систему распознавания команд в автомобилях Audi.
Ученые считают, что производителям и разработчикам не помешает задуматься об апгрейде голосовых ассистентов, который исключит возможность распознавания ультразвука.