IT-эксперт Силаев: мошенники клонируют голос для совершения преступлений

Заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев рассказал в беседе с RT, каким образом мошенники могут подделывать голоса близких людей.

«Технология голосового клонирования с помощью искусственного интеллекта перестала быть футуристической концепцией и превратилась в реальный и чрезвычайно опасный инструмент в руках мошенников», — рассказал он.

Ещё год назад для создания правдоподобной копии голоса требовались значительные вычислительные мощности и десятки минут чистого аудио, поделился специалист.

«Сегодня же для этого существуют общедоступные сервисы. Для создания убедительной модели порой достаточно образца речи длиной в несколько секунд», — отметил он.

Последующие попытки психологического воздействия и атаки мошенников нацелены на самое уязвимое — наши эмоции и инстинкт защитить близкого человека в беде, пояснил эксперт.

«Источники для сбора голосового материала у мошенников крайне обширны. В первую очередь это видео в социальных сетях. А выступления в СМИ, подкасты и прямые эфиры — золотая жила для злоумышленников. Речь там обычно чистая и непрерывная», — предупредил он.

Не менее уязвимы мессенджеры, продолжил Силаев.

«Достаточно нескольких голосовых сообщений в семейном или рабочем чате, чтобы предоставить мошенникам исчерпывающий материал. Но что действительно тревожно, так это то, что злоумышленники могут добыть образец голоса и при прямом звонке жертве», — подчеркнул он.

Ранее IT-эксперт Илья Назаров рассказал, что развитие искусственного интеллекта нивелирует способы цифровой защиты.