Киберэксперт: схемы аферистов эволюционируют с приходом генеративного ИИ

Схемы аферистов эволюционируют с приходом генеративного ИИ. Если раньше за красивыми аватарами в соцсетях и приложениях для знакомств сидели реальные люди, пусть и с фейковыми данными, то теперь их место всё чаще занимают автономные или полуавтономные системы.

Об этом предупредил в беседе с RT Андрей Рыбников, преподаватель кафедры инструментального и прикладного программного обеспечения Института информационных технологий РТУ МИРЭА.

«Мошенники создают цифровой образ «идеальной женщины»: собирают из тысяч сгенерированных фотографий и видео реалистичный визуальный контент, пишут детализированную легенду (биографию, увлечения, проблемы), а затем подключают к общению либо шаблонные чат-боты, либо сложные языковые модели, обученные на романтических диалогах. Ключевой момент — масштаб и эффективность. Один оператор или группа теперь могут вести не десятки, а тысячи «отношений» одновременно. Система сама подстраивается под жертву, запоминает детали, проявляет «заботу» и последовательно готовит почву для финансовых просьб», — рассказал специалист.

По его словам, классические сценарии — помощь «бизнесу», «лечение больного родственника», «срочная оплата долга».

«Эмоциональная связь, выстроенная за недели и месяцы, делает жертву крайне уязвимой. Как распознать ИИ-скам? Есть несколько тревожных маркеров. Во-первых, избыточная идеальность и скорость ответов. Профиль может быть переполнен безупречными, но однотипными по стилю фото. В видео (коротких роликах в соцсетях) может быть заметна неестественная мимика, артефакты в волосах или украшениях. В диалоге ИИ-собеседник иногда слишком быстро и «по учебнику» реагирует на эмоциональные реплики, может терять нить сложной, абстрактной или контекстной беседы. Попросите его описать что-то очень личное и спонтанное на фото («Что у тебя сегодня на столе на заднем плане?») — ИИ часто даёт общие или противоречивые ответы», — посоветовал собеседник RT.

Эксперт предупредил, что проверка через видеозвонок — не панацея.

«Современные технологии позволяют в реальном времени накладывать сгенерированное лицо на видео с актёра или использовать deepfake-аватары. Однако в живом разговоре могут проявляться лаги, неидеальная синхронизация губ, шаблонные реакции и нежелание отклоняться от заданного сценария. Как обезопасить себя? Главное правило — никогда не переводить деньги человеку, которого вы не видели вживую и не знаете в реальной жизни. Включайте здоровый скептицизм: если новый виртуальный знакомый слишком быстро переходит к теме финансовых трудностей, даже под благородным предлогом, — это стопроцентный признак мошенничества», — добавил Рыбников.

Он порекомендовал проверять фото через поиск по картинкам, но учитывать, что сгенерированные изображения могут не иметь копий в сети.

«Просите о спонтанном видеоконтакте в неудобное время (утром, со специфическим жестом), но помните о возможностях deepfake. Доверяйте интуиции: если что-то кажется слишком хорошим, чтобы быть правдой, скорее всего, так оно и есть. Технологии мошенничества стали совершеннее, но цель осталась прежней — эксплуатация человеческих чувств. Осведомлённость и критическое мышление по-прежнему остаются самым надёжным щитом», — заключил аналитик.

Ранее Министерство внутренних дел России представило алгоритм для дистанционно обманутых мошенниками граждан.