NYTimes: IT-компании учатся бороться с дипфейками, но могут не угнаться за прогрессом

Reuters
Компания Google запустила проект по исследованию поддельных видео с реальными людьми, дипфейков, и привлекает к работе специалистов извне, пишет The New York Times. Многие опасаются, что в будущем подобные ролики станут одним из основных способов распространения дезинформации. И хотя пока фейк распознать не так сложно, эксперты опасаются, что IT-гиганты просто не угонятся за стремительным развитием технологий.

Как выяснила газета The New York Times, несколько месяцев назад компания Google наняла десятки человек, которым нужно было всего лишь посидеть за столом, постоять и пройтись перед камерой. Затем специалисты IT-гиганта с помощью новых программ с использованием технологии искусственного интеллекта поменяли местами лица актёров. Внезапно те, кто шёл по улице, оказались за столом, женщины примерили на себя мужские лица, а мужчины — женские. Так эксперты Google создали сотни дипфейков — видео, где фигурировали уже ненастоящие люди.

Многие учёные и политики выражают обеспокоенность, что такие записи могут стать новым способом распространения дезинформации накануне президентских выборов 2020 года в США. Но аналитики компании считают, что, создавая подобные ролики, они сумеют найти способ распознавать фейковый контент.

По мнению издания, компаниям вроде Google особенно важно скорее найти решение для этой проблемы, ведь именно на их платформах, скажем, YouTube или Facebook, в первую очередь злоумышленники будут пытаться распространять свои дипфейки.

«Даже с современными технологиями некоторым трудно сказать, что реально, а что нет», — комментирует профессор информатики Университета штата Аризона Суббарао Камбампати.

Как напоминает The New York Times, в последние месяцы в мире произошло сразу несколько скандалов вокруг дипфейков: в Бразилии, Габоне и Китае. Каждый раз в центре стоял вопрос: настоящее ли это видео или искусный монтаж. Например, пока президент Габона был в отъезде на лечении, местные власти опубликовали запись, чтобы подтвердить, что с лидером всё в порядке. Только критики уверены: это фейк.

На взгляд экспертов, сумятица, которую создаёт само существование фейковых видео, уже играет на руку распространителям дезинформации. Ник Дюфур, один из инженеров Google, участвующий в проекте по изучению дипфейков, утверждает: «Вы уже можете заметить ощутимые последствия существования дипфейков. Благодаря им люди могут утверждать, что видеодоказательства, в противном случае автоматически признаваемые вполне убедительными, являются подделкой».

Газета обращает внимание, что люди уже не один десяток лет умеют проводить манипуляции с фото- и видеоматериалами. Но если раньше это был довольно кропотливый процесс, по большей части доступный тем, кто хорошо знаком с программами вроде Adobe Photoshop, то сейчас, благодаря искусственному интеллекту, редактировать изображения на свой вкус и цвет становится быстрее и проще. Программа всё делает сама. И хотя пока она несовершенна и плоды вмешательства можно заметить невооружённым взглядом, технологии стремительно развиваются, и некоторые аналитики опасаются, что инструменты по распознаванию фейков попросту не угонятся за прогрессом. Обе стороны должны непрерывно совершенствоваться, и здесь остаётся важный вопрос — какая будет быстрее.

Пока дипфейки можно отличить с помощью специальных программ, если не просто визуально, да и используются такие ролики больше в развлекательных целях, чем в дезинформационных. Однако, как считает Суббарао Камбампати, уже в скором времени искусственный интеллект сможет создавать фейковые изображения, неотличимые от оригинала. До этих пор компаниям вроде Google, которая создала из заснятых фейков отдельную базу, открытую для изучения для всех желающих, лучше бы успеть найти способ эффективно отличать фейки и обучать свои программы. 

Материалы ИноТВ содержат оценки исключительно зарубежных СМИ и не отражают позицию RT