США обновляют свою политику по автономным вооружениям с учётом новых достижений в сфере исследований искусственного интеллекта. Пентагон выпустил обновлённые рекомендации по разработке и эксплуатации систем автономного оружия, которые также включают в себя видение Министерства обороны в отношении этического развития искусственного интеллекта и требования в отношении дополнительных проверок для новых систем, сообщает Defense News.
Первоначальная политическая директива, касающаяся автономных систем вооружения, была выпущена в 2012 году и устанавливала руководящие принципы и обязанности по разработке, тестированию и использованию этих систем, поясняется в статье. Однако за прошедшее десятилетие уже назрела необходимость обновить этот документ, пояснил директор Департамента по политике новых возможностей Майкл Горовиц.
По его словам, в базовую директиву были внесены «относительно незначительные разъяснения и уточнения», которые призваны обеспечить необходимый уровень прозрачности и гарантировать ответственное использование новейших технологий. «Одна из самых важных вещей, которая теперь включена в документ, — это драматическое, расширенное видение роли искусственного интеллекта в будущем американских Вооружённых сил», — также подчеркнул Горовиц.
Для этого также предписывается создать специальную рабочую группу по автономным системам вооружения, которую возглавит заместитель министра обороны по политике. По словам Горовица, эта группа будет консультировать военное руководство в вопросах одобрения и ввода в применение новых систем, а также служить ресурсом для урегулирования проблем, если они появятся. «Мы считаем, что создание этой рабочей группы будет способствовать безопасному и ответственному созданию автономных систем вооружения», — заключил он.
Министерство обороны США в настоящее время уделяет первоочередное внимание инвестициям в сферу разработки и исследования искусственного интеллекта, особенно учитывая, что Китай активно стремится стать мировым лидером в этой области к 2030 году, отмечается в статье.
Прошлым летом Пентагон выпустил собственную стратегию по ответственному развитию искусственного интеллекта и его внедрению, в которой подробно описан план по смягчению и устранению влияния вероятных «непредвиденных последствий», которые могут возникают по мере того, как искусственный интеллект начинает играть всё более важную роль в военных технологиях. Основное внимание в этом документе уделяется «укреплению доверия» между людьми, принимающими решения, и системами искусственного интеллекта, заключает Defense News.