В американской компании OpenAI, создавшей чат-бот ChatGPT, призвали сформулировать методы по контролю за разработкой искусственного интеллекта, сообщает The Guardian. Это может быть некий аналог Международного агентства по атомной энергии. К тому же необходима координация действий между фирмами, работающими на этом рынке. Она может осуществляться в рамках государственного проекта или соглашения по ограничению роста возможностей ИИ. Все эти меры направлены на сокращение экзистенциальных рисков для человечества, пояснили в OpenAI.
Руководители американской компании OpenAI, которая занимается разработкой чат-бота ChatGPT, призывают создать аналог Международного агентства по атомной энергии для того, чтобы контролировать разработки в сфере искусственного интеллекта (ИИ), сообщает The Guardian. В совместном заявлении на сайте фирмы её соучредитель и президент Грег Брокман, главный научный сотрудник Илья Суцкевер, а также генеральный директор Сэм Альтман говорят о необходимости разработать методы исследования и тестирования ИИ-систем на предмет соответствия стандартам безопасности, а также ограничить сферу их применения. И всё для того, чтобы снизить уровень «экзистенциальной угрозы», которую они могут представлять для человечества.
В OpenAI убеждены, что в течение следующих 10 лет в большинстве сфер искусственный интеллект превзойдёт человеческие возможности. Суперинтеллект станет самой мощной технологией, которую когда-либо создавал человек. И она может открыть людям путь к процветанию, но нужно учитывать сопряжённые с этим риски. В связи с этим руководители OpenAI предлагают достичь определённого уровня координации действий между компаниями, которые занимаются разработкой в этой сфере. Эту инициативу можно реализовать в рамках какого-нибудь государственного проекта или соглашения по ограничению роста возможностей ИИ.
О потенциальных рисках использования суперинтеллекта учёные предупреждают уже десятилетиями. И они стали более явными с тех пор, как темпы разработок в этой сфере значительно ускорились. Базирующийся в США Центр безопасности ИИ (CAIS), который работает над «снижением рисков искусственного интеллекта в масштабах общества», описывает восемь категорий «катастрофических» и «экзистенциальных» рисков, которые может представлять развитие ИИ.
По мнению специалистов, если таким системам будет передано большое количество человеческой работы, это приведёт к тому, что люди утратят способность к самоуправлению и окажутся в полной зависимости от машин. При этом небольшая группа людей, контролирующих мощные системы, может «сделать ИИ централизующей силой», что приведёт к возникновению вечной кастовой системы между управляемыми и управляющими.
И всё же, несмотря на риски, необходимо продолжать развивать эту сферу, убеждены руководители OpenAI. Они считают, что новые технологии сделают мир лучше. При этом остановка разработок, по их мнению, представляет опасность. Дело в том, что сейчас на рынке ИИ появляется всё больше игроков. Полная остановка потребует какой-то системы глобального надзора, и нет никаких гарантий, что она сработает. Так что лучше продолжать развиваться, но делать всё правильно, советуют в американской компании.