Британское правительство делает недостаточно, чтобы предотвратить риск уничтожения человечества сверхразумной машиной. Такое мнение в интервью The Times высказал один из «крёстных отцов» искусственного интеллекта профессор Стюарт Рассел, консультировавший Даунинг-стрит и Белый дом.
По признанию эксперта, его разочаровало то, что министры выступили за мягкий поход в регулирования разработки ИИ. Даже несмотря на вывод чиновников, что продукты этой индустрии могут представлять экзистенциальную угрозу.
Вместе с Илоном Маском и соучредителем Apple Стивом Возняком Рассел недавно подписал открытое письмо. Его авторы предупреждали, что лаборатории искусственного интеллекта участвуют «в неконтролируемой гонке по разработке и развёртыванию всё более мощных цифровых умов, которые никто, даже их создатели, не могут понять, предсказать их поведение или надёжно контролировать».
По словам профессора, возможности ChatGPT — чат-бота, который способен сдавать экзамены, писать компьютерный код и бегло, хотя и не всегда точно, выдавать тексты на заданную тему за считанные секунды — превзошли его ожидания. Учитывая темпы прогресса, пора «перевести дух» и подумать о том, какие средства контроля необходимы, чтобы предотвратить появление неуправляемого ИИ.
«Мы добились прогресса, даже не ожидая этого», — сказал Рассел. Он добавил, что вполне возможно, что система, подобная ChatGPT, может стать частью сверхразумной машины, которая будет сопротивляться любым попыткам ею управлять.
«Как сохранить власть над сущностями, которые сильнее вас, навсегда? Если у вас нет ответа, прекратите исследование. Вот и всё. Ставки не могут быть выше: если мы не контролируем нашу собственную цивилизацию, то лишаемся права голоса о нашем будущем существовании», — подчеркнул эксперт.
В этом году он оказался в числе тех, к кому правительство Великобритании обратилось за консультациями по этому вопросу. Представители Министерства иностранных дел опросили множество специалистов и пришли к выводу, что «потеря контроля над мощным ИИ — вероятный и чрезвычайно важный исход».
«И после этого правительство выступило с регулирующим подходом, который гласит: «Здесь не на что смотреть. Продолжайте в том же духе. Мы будем приветствовать индустрию искусственного интеллекта, как если бы речь шла о производстве автомобилей или что-то в этом роде», — отметил Рассел.
По его мнению, на позицию министров, которые решили не вводить слишком жёсткие меры в отношении разработки ИИ, чтобы «не задушить инновации», повлияла технологическая отрасль. Она потратила миллиарды долларов, чтобы внушить законодателям в разных уголках мира, подобную мысль.
По словам профессора, его часто спрашивают о том, когда именно появится так называемый универсальный искусственный интеллект (УИИ) — система, способная выполнять любую интеллектуальную задачу, которую может выполнить человек. До относительно недавнего времени он думал, что до такого важного события ещё несколько десятков лет. Но теперь он в этом не уверен.
На его взгляд, создание УИИ, которое он сравнил с появлением превосходящей человечество инопланетной цивилизации, потенциально может произойти в течение десяти лет. Это будет самое значительное событие в истории человечества. И если правительства не начнут гораздо более энергично контролировать исследования в области ИИ, то они могут стать последними, опасается эксперт.
Один риск связан с тем, что перед мощным ИИ ставится задача, а затем выбирается стратегия, которая достигает цели, но имеет непредвиденные побочные эффекты, способные погубить человечество. Например, искусственный интеллект могут попросить решить проблему изменения климата, и он придёт к выводу, что лучший способ достичь этого — избавить Землю от людей, предположил Рассел.
По его мнению, чтобы избежать подобных результатов, исследователям ИИ необходимо следовать трём принципам. Единственной целью искусственного интеллекта должно быть максимальное понимание человеческих целей. Он должен оставаться неуверенным в том, что они собой представляют, и задавать наводящие вопросы. И он должен попытаться понять, каковы эти цели, наблюдая за поведением людей.
Однако создание систем, отвечающих этим критериям, потребует отказа от большей части того, что способствовало недавнему бурному прогрессу. «Я думаю, что мы ошиблись в самом начале, когда оказались настолько увлечены идеей понимания и создания интеллекта, что не думали о том, для чего этот интеллект будет нужен, — сказал Рассел. — Если вы не ставите перед ним цель приносить пользу людям, то фактически создаёте конкурента — и очевидно, что поступать так было бы глупо».
Одна из проблем, по его словам, заключалась в том, что создаваемые ИИ отражают аспекты человеческого характера. Большие языковые модели, к которым относится ChatGPT, получают огромное количество текста, взятого из интернета. Благодаря этому он учится составлять предложения, предсказывая, какое слово должно быть следующим в любом заданном контексте.
Как именно работают эти системы, остаётся загадкой. «Их вообще не понимают… Вы берёте набор данных для обучения в размере 30 триллионов слов и просто надеетесь на лучшее. Объём планирования в этом случае минимален», — отметил Рассел.
По его словам, большие языковые модели стали возможны только потому, что интернет превратился в огромное хранилище текстов о поведении людей. Это позволяет лабораториям искусственного интеллекта создавать системы, имитирующие человеческие свойства. Но профессор серьёзно сомневается в разумности такого подхода.
«Если вы учите его (ИИ. — ИноТВ) подражать человеческому поведению, то, по сути, вы учите его ставить человеческие цели и преследовать их. А человеческие цели включают в себя самые разные вещи, например: «Я хочу достичь высокого политического поста; я хочу быть богатым; я хочу, чтобы ты вышла за меня замуж». Можно только представить, какой катастрофой стало бы появление действительно эффективных систем, которые преследовали бы такие цели», — отметил Рассел, посетовав на то, что мы не располагаем набором данных, которые исходили только о «бескорыстных сущностей, ведущих себя благодетельно по отношению к другим».
В то же время эксперт признал, что некоторые политики начинают осознавать опасность сверхразумного ИИ. «Европейцы призывают провести экстренный глобальный саммит. Китай фактически запрещает большие языковые модели. Белый дом созывает всех руководителей [технологической отрасли] на экстренное совещание. Я хочу сказать, что что-то подобное можно было себе представить, если бы мы обнаружили настоящую инопланетную цивилизацию», — заявил Рассел.