Специалисты FACCT предупредили, что с начала года в России наблюдается рост использования звуковых дипфейков в мошеннической схеме FakeBoss. То есть мошенники звонят жертвам, используя подмену голоса и выдавая себя за руководителя организации.
Для генерации таких фальшивок мошенники используют искусственный интеллект, говорят эксперты. Риски атак наиболее актуальны для малого и среднего бизнеса, где многие вопросы решаются напрямую с владельцем компании.
В FACCT рассказали журналистам, что атака строится следующим образом. Злоумышленники создают фейковый аккаунт руководителя, как правило, в Telegram. При этом ФИО и фотография используют реальные, взятые с официального сайта, из социальный сетей или «из огромного количества утечек персональных данных».
В конце 2023 года специалисты уже сообщали о волне фишинговых атак в России на предприятия с рассылкой мошеннических писем якобы от лица руководителей или представителей силовых структур.
Для генерации таких фальшивок мошенники используют искусственный интеллект, говорят эксперты. Риски атак наиболее актуальны для малого и среднего бизнеса, где многие вопросы решаются напрямую с владельцем компании.
В FACCT рассказали журналистам, что атака строится следующим образом. Злоумышленники создают фейковый аккаунт руководителя, как правило, в Telegram. При этом ФИО и фотография используют реальные, взятые с официального сайта, из социальный сетей или «из огромного количества утечек персональных данных».
В конце 2023 года специалисты уже сообщали о волне фишинговых атак в России на предприятия с рассылкой мошеннических писем якобы от лица руководителей или представителей силовых структур.
«В новой схеме мошенник не пишет сообщения подчиненному, а сразу звонит через мессенджер, используя аудиодипфейк голоса руководителя, смоделированного с помощью искусственного интеллекта»,— рассказывает ведущий специалист департамента Digital Risk Protection компании FACCT Евгений Егоров.
Задача злоумышленника заключается в том, чтобы «войти в доверие и заставить подчиненного, например главного бухгалтера организации, провести платеж на счета преступников».
В мошеннической схеме с использованием ИИ для подмены голоса злоумышленникам нужно получить фрагмент речи, который будет использован для обучения нейросети, поясняют специалисты. Хакеры могут, например, записать разговор, зная телефонный номер жертвы, или взломать аккаунт в мессенджере и получить доступ к голосовым сообщениям пользователя.
Как правило, информация о таких инцидентах не становится публичной, поэтому привести точную статистику затруднительно, уточняют в компании. Рост таких атак по сравнению с прошлым годом специалисты оценивают в 30%, подчеркивая, что их количество будет увеличиваться в силу повышения доступности технологий для создания дипфейков.
Тот факт, что голосовые дипфейки набирают популярность у преступников, подтвердили и в «Информзащите. Там использование дипфейков для звонков компаниям назвали «новым для России трендом» и отметили, что такие фальшивки применяли для «идентификации в банках или звонков гражданам».
В мошеннической схеме с использованием ИИ для подмены голоса злоумышленникам нужно получить фрагмент речи, который будет использован для обучения нейросети, поясняют специалисты. Хакеры могут, например, записать разговор, зная телефонный номер жертвы, или взломать аккаунт в мессенджере и получить доступ к голосовым сообщениям пользователя.
Как правило, информация о таких инцидентах не становится публичной, поэтому привести точную статистику затруднительно, уточняют в компании. Рост таких атак по сравнению с прошлым годом специалисты оценивают в 30%, подчеркивая, что их количество будет увеличиваться в силу повышения доступности технологий для создания дипфейков.
Тот факт, что голосовые дипфейки набирают популярность у преступников, подтвердили и в «Информзащите. Там использование дипфейков для звонков компаниям назвали «новым для России трендом» и отметили, что такие фальшивки применяли для «идентификации в банках или звонков гражданам».
Источник: Хакер