Голосовыми помощниками Apple, Google и Amazon можно манипулировать замаскированными в рекламе звуками. Видео
04 окт 2018 12:40 #72603
от ICT
ICT создал тему: Голосовыми помощниками Apple, Google и Amazon можно манипулировать замаскированными в рекламе звуками. Видео
Птичийщебет для атаки Немецкие исследователи обнаружили, что звукптичьего щебета может быть использован для проведения атак на голосовыепомощники, такие как Apple Siri, Google Assistant или Amazon Alexa. На самом деле, проблема не в звуке именноптичьих голосов; для атаки можно использовать любой другой звук — в том числемалоразборчивую человеческую речь или песни. Эти звуки могут использоваться каксвоего рода акустический камуфляж, маскирующий команды, которые злоумышленникимогут давать «умным колонкам». Человеческий слух такие команды не разберет:мозг будет занят обработкой наиболее громкого сигнала на определенной частоте,а более тихий звук на той же частоте будет проигнорирован. Работает тот жепсихоакустический принцип, который используется при кодировании аудиосигнала вMP3: программы сжатия определяют, какую часть сигнала человек слышит, и удаляютостальную информацию. В результате пользователь даже не поймет, что происходит.А вот голосовые помощники вполне разберут замаскированный сигнал и выполнятзакодированные в нем команды, утверждают эксперты Рурского университета вБохуме. Реальность угрозы По их мнению, проблема имеет фундаментальныйхарактер: такие атаки возможны в силу того, как реализованы алгоритмы глубокихнейронных сетей, на основе которых и функционируют голосовые помощники. Эксперты приводят такой пример: злоумышленникизаписывают и маскируют команды для голосовых помощников, эти записиинтегрируются в мобильные приложения или даже в рекламные ролики — в Сети, наТВ или по радио. В результате пострадать могут тысячи людей. Голосовымпомощникам можно дать команду совершить какие-либо покупки или выслатькакие-либо конфиденциальные сведения, и все это — без ведома пользователя.
Скрытое отключение камеры слежения «При самом худшем сценарии злоумышленник может захватить контроль над всей системой “умного дома”, в том числе, камерами слежения или тревожной сиреной», — отметили эксперты.
Какзащититься «Угроза вполне реальна, — считает Михаил Зайцев, эксперт поинформационной безопасности компании SEC Consult Services. — Ранее было доказано , что голосовые помощники способны понимать команды, даже если ихзапись воспроизводится в ультразвуковом диапазоне, так что считать “замаскированный”сигнал им тоже не составит труда, если устройство не настроено должным образом.С другой стороны, реализовать такую атаку на практике будет, мягко говоря,непросто. Но возможно. Единственный рабочий метод защиты — максимальноограничивать функциональность голосовых помощников и настраивать их так, чтобыпрежде чем совершать важные операции они требовали подтверждения личности того,кто даёт команды. Ссылка на источник
Скрытое отключение камеры слежения «При самом худшем сценарии злоумышленник может захватить контроль над всей системой “умного дома”, в том числе, камерами слежения или тревожной сиреной», — отметили эксперты.
Какзащититься «Угроза вполне реальна, — считает Михаил Зайцев, эксперт поинформационной безопасности компании SEC Consult Services. — Ранее было доказано , что голосовые помощники способны понимать команды, даже если ихзапись воспроизводится в ультразвуковом диапазоне, так что считать “замаскированный”сигнал им тоже не составит труда, если устройство не настроено должным образом.С другой стороны, реализовать такую атаку на практике будет, мягко говоря,непросто. Но возможно. Единственный рабочий метод защиты — максимальноограничивать функциональность голосовых помощников и настраивать их так, чтобыпрежде чем совершать важные операции они требовали подтверждения личности того,кто даёт команды. Ссылка на источник
Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.