Золотой звонок: Хакеры синтезируют речь CEO компаний и выводят $ миллионы

Опубликовано at 16:31
65 0

Эксперты Symantec сообщают о реальных и неоднократных случаях применения подделки голосов бизнесменов с применением искусственного интеллекта. Технология DeepFake стала основой новой мошеннической технологии для кражи финансов, персональных и корпоративных данных.

Современные технологии ИИ уже сейчас настолько развились могут быть использованы для машинного обучения систем, которые впоследствии могут использоваться для полноценной имитации речи любого человека, включая топ-менеджеров и даже гендиректора любой компании. Это может стать настоящей проблемой, учитывая биометрическую возможность идентификации по голосу.

По данным Symantec, технология синтезирования речи с помощью нейросети уже использовалась для хищения «миллионов долларов» (к сожалению, без конкретики). Аналитики компании сообщили о как минимум трех случаях, когда поддельные голоса гендиректоров были применены для обманах глав финансовых отделов компаний с целью мошеннического вывода денежных средств.
Новая кибермошенническая технология получила у аналитиков Symantec название Deepfaked Audio, то есть, «подделка аудио на основе машинного обучения».

Впервые англоязычный термин DeepFake, синтезированный из выражений «глубинное обучение» (Deep Learning) и «подделка» (Fake), появился несколько лет назад применительно к технологии, где искусственный интеллект применяется для тренинга систем с применением реальных изображений и видео человека для синтеза поддельного видео. Технология способна подделывать любое видео, в том числе, с участием известных политиков.

Все, что нужно для «тренинга» технологии «глубокого поддельного аудио» – это «достаточное количество» аудиозаписей предполагаемой жертвы, отмечают в Symantec. По всей видимости, в случае с CEO, как правило, публичными персонами, дающими интервью, недостатка в материале не будет. Далее искусственный интеллект использует аудио для тренинга двух так называемых «генеративных состязательных сетей» (GAN). В процессе обучения две нейросети такого типа «конкурируют» друг с другом: одна генерирует подделки, другая пытается отличить подделку от настоящего образца данных, и в процессе обе сети учатся на своих ошибках.

В топку нейросети годится все звукосодержащее: корпоративные видео, аудиозаписи квартальных конференций для инвесторов, публичные выступления, доклады на конференциях, презентации и т.п. Уже сейчас, по словам Symantec, в процессе имитации голоса кибермошенники используют самые разнообразные ухищрения. Например, специфические фоновые шумы позволяют замаскировать манеру произношения слогов и слов в наименее убедительных местах. Для таких целей используется имитация прерывистой сотовой связи или фоновый шум в оживленном людном месте.

Тренинг таких моделей может обойтись в тысячи долларов, но что это значит по сравнению с возможностью вывести миллионы?

Читайте также на АКБ:

Перехват в воздухе: новая атака записывает голос из динамика смартфона

Нейросеть воссоздает лицо человека по голосу

Нейросети сегодня: неэкологично и очень удобно для фейков

Подписываемся, следим @CyberAgency

Related Post

Уязвимость в ThreadX угрожает стабильной работе миллиардов электронных устройств

Опубликовано - 21.01.2019 0
Исследователи кибербезопасности из компании Embedi обнаружили уязвимость, эксплуатация которой теоретически может коснуться каждого на Земле. Дыра находится в микропрограмме популярного…

Пан или провал: Цитаты великих чиновников на Гайдаровском форуме

Опубликовано - 18.01.2018 0
Новая крылатая фраза от Дмитрия Медведева, увлечение молодых девушек фермами, боль Центробанка и не только. IX Гайдаровский форум запомнится неожиданными…