12 февраля Министерство обороны США обнародовало свои планы по использованию искусственного интеллекта (ИИ) в армии, пишет Foreign Policy. Но самое интересное в этом докладе — то, что в него не вошло: в документе не рассматривается возможность использования «смертельного оружия, способного думать и действовать по своему усмотрению».
Оказывается, что вместо роботов-убийц в американской армии нашли куда более прозаичное применение искусственному интеллекту. По словам генерал-лейтенанта ВВС США Джека Шэнахана, который возглавляет новый Объединённый центр искусственного интеллекта Минобороны, Пентагон готовит ряд проектов, в которых ИИ будет использоваться для решения рутинных проблем вроде ликвидации и предотвращения потопов и пожаров, а также профилактическом обслуживании военной техники.
«Мы и близко не подошли к вопросу полной автономии, о которой сразу начинают думать люди, когда дело касается Министерства обороны и искусственного интеллекта», — заявил генерал.
Не то что бы Пентагон вовсе не думал о «полностью самостоятельных вооружениях». В 2012 году ведомство опубликовало специальное предписание, в котором попыталось определить, что значит «автономная система вооружений» и как с ней следует обращаться. Тогда было чётко установлено, что в конечном итоге за управлением подобными вооружениями всё равно должен стоять человек, но вопрос о том, насколько сильно он будет контролировать эти системы, остаётся открытым.
На самом деле многие высокоточные ракеты уже действуют отчасти автономно. Как подчёркивает издание, подобные вооружения работают по принципу «запустил и забыл» — после запуска человек уже не контролирует полёт снаряда. Ракета сама находит цель, а в некоторых продвинутых версиях снаряд даже можно перенаправить уже в полёте.
Но до «самостоятельных систем вооружений», которые можно было наблюдать в фильмах «Терминатор» или «Я, робот», ещё очень далеко. По мнению профессора политологии Пенсильванского университета Майкла Хоровица, для создания умной системы, подобной SkyNet, которая в «Терминаторе» обрела свободу воли и пожелала уничтожить человечество, потребуется целая череда прорывов в скорости и эффективности работы алгоритмов. Как полагает большая часть экспертов по ИИ, подобный сценарий возможен лишь в отдалённом будущем.
Пока же полностью доверять технике в сложных боевых условиях Пентагон не готов. «Это действительно сложно, учитывая уровень надёжности, который требуют США при использовании военной силы. Не хочу сказать, что это невозможно, и кто-то другой, с менее высокими стандартами, может решать за себя. Но то, что мы предъявляем к своим вооружениям очень высокие требования, отдаляет этот момент», — комментирует Хоровиц.
Аналитик подчёркивает: «Мы зацикливаемся на роботах-убийцах и SkyNet, потому что боимся их из-за кино. Но по большей части, применение ИИ в армии будет носить весьма рутинный характер». Из двух пробных программ Пентагона по применению искусственного интеллекта одна посвящена борьбе с пожарами, совместно с Министерством внутренней безопасности, а другая — профилактическому обслуживанию самого распространённого в ВВС вертолёта Sikorsky UH-60.
Как отмечает эксперт, новая стратегия по искусственному интеллекту Министерства обороны направлена на увеличение инвестиций в эту сферу и, по сути, является продолжением политики предыдущих администраций. Основная мысль документа заключается в необходимости ускорения процесса разработки и внедрения ИИ в армию, а также создания специальных норм этики и безопасности.