Об этом сообщил в беседе с RT Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.
«Первая схема — это мошенничество с поддельными службами доставки, особенно цветов, подарков или еды. Жертве приходит реалистичное смс с официального номера магазина или сообщение в мессенджере о невозможности доставить заказ с требованием перейти по ссылке для «уточнения данных». Ссылка ведёт на фишинговую страницу, которая крадёт платёжные реквизиты или устанавливает вредоносное ПО. Бывает, что мошенники просят сказать код из сообщения для подтверждения доставки, а на самом деле получают доступ к вашим личным данным», — объяснил собеседник RT.
По его словам, в последнее время такие смс приходят на английском языке, чтобы ввести в заблуждение неграмотного пользователя.
«Сообщение может выглядеть так: «1111 is your login code. DO NOT SHARE THIS CODE WITH ANYONE», — привёл пример Силаев.
Отмечается, что алгоритмы ИИ сейчас помогают злоумышленникам массово генерировать не вызывающие подозрений у спам-фильтров тексты, персонализированные под жертву на основе утёкших данных.
«Вторая схема — «следователь» — остаётся одной из самых опасных и действительно усложняется. Теперь, помимо сухих юридических терминов и психологического давления, мошенники используют технологии фальсификации, подмены номера, заставляя на экране телефона жертвы светиться реальные номера силовых ведомств или судов, которые берутся из открытых источников», — предостерёг киберэксперт.
Более того, по его словам, в арсенале появляются голосовые клоны, синтезированные нейросетями.
«Жертва может услышать в трубке «голос начальника», который отдаёт приказ или подтверждает легитимность требований. Это многократно усиливает доверие и ломает психологический барьер», — заявил специалист.
Третья схема — это атака с использованием голосовых клонов близких в чистом виде, добавил он.
По словам эксперта, в связи с тем, что нейросеть обучена на публичных аудиозаписях из соцсетей или украденных голосовых сообщениях, то эмоции, интонации, тембр — всё будет почти идеально совпадать с голосом родственника.
«Такие атаки максимально персонализированы и рассчитаны на мгновенную эмоциональную реакцию, отключающую критическое мышление», — объяснил аналитик.
Он подчеркнул, что главный тренд начала 2026 года — это слияние социальной инженерии с доступными ИИ-инструментами.
«Защита теперь должна быть не только бдительной, но и технологически грамотной: важно понимать, что голос и номер телефона больше не являются надёжными идентификаторами личности», — заключил он.
Ранее россиян предупредили о мошенничестве с онлайн-голосованиями за детские рисунки.