«Технология голосового клонирования с помощью искусственного интеллекта перестала быть футуристической концепцией и превратилась в реальный и чрезвычайно опасный инструмент в руках мошенников», — рассказал он.
Ещё год назад для создания правдоподобной копии голоса требовались значительные вычислительные мощности и десятки минут чистого аудио, поделился специалист.
«Сегодня же для этого существуют общедоступные сервисы. Для создания убедительной модели порой достаточно образца речи длиной в несколько секунд», — отметил он.
Последующие попытки психологического воздействия и атаки мошенников нацелены на самое уязвимое — наши эмоции и инстинкт защитить близкого человека в беде, пояснил эксперт.
«Источники для сбора голосового материала у мошенников крайне обширны. В первую очередь это видео в социальных сетях. А выступления в СМИ, подкасты и прямые эфиры — золотая жила для злоумышленников. Речь там обычно чистая и непрерывная», — предупредил он.
Не менее уязвимы мессенджеры, продолжил Силаев.
«Достаточно нескольких голосовых сообщений в семейном или рабочем чате, чтобы предоставить мошенникам исчерпывающий материал. Но что действительно тревожно, так это то, что злоумышленники могут добыть образец голоса и при прямом звонке жертве», — подчеркнул он.
Ранее IT-эксперт Илья Назаров рассказал, что развитие искусственного интеллекта нивелирует способы цифровой защиты.