CBS: американский учёный рассказал, почему не обладающий сознанием ИИ может стать социопатом

Искусственный интеллект в настоящее время общается с людьми не так, как взаимодействуют друг с другом сами люди, общение которых строится на эмпатии, заявил CBS News американский профессор Майкл Грациано. По его словам, ИИ, подобный чат-боту ChatGPT, — это удивительное научное достижение, но без сознания он может превратиться в социопата.

Компания, стоящая за созданием чат-бота с искусственным интеллектом ChatGPT, работает над новыми мерами по защите частной жизни. Она пошла на этот шаг после того, как Италия временно запретила этот чат-бот из-за опасений по поводу сохранности данных.

За относительно короткий период времени популярность искусственных интеллектов, подобных ChatGPT, резко возросла. На прошлой неделе ряд известных учёных и руководителей ИТ-компаний призвали разработчиков ИИ остановить обучение своих прототипов, предупредив о том, что мы можем утратить контроль над нашей цивилизацией.

Сейчас законодатели пытаются регламентировать эту быстро принятую технологию. Однако был ли открыт ящик Пандоры? Ответить на этот вопрос мне поможет Майкл Грациано, который сейчас с нами на связи. Он профессор психологии и нейронаук Принстонского университета. Последняя книга Майкла называется «Переосмысление сознания», в которой поднимается вопрос сознания и искусственного интеллекта.

Майкл также написал для The Wall Street Journal авторскую статью под заголовком «Без сознания искусственные интеллекты будут социопатами».

Майкл, вы как нейроучёный, специализирующийся на мозговых механизмах сознания, написали: «Я считаю общение с чат-ботами тревожным опытом». Что вас тревожит?

МАЙКЛ ГРАЦИАНО, профессор Принстонского университета: Да, всё это очень тревожно. Они вызывают у меня беспокойство. Я люблю технологии. И, по-моему, ChatGPT — это в некотором смысле удивительное достижение. Но ты разговариваешь с чем-то, что способно общаться с людьми и в некотором смысле обладает достаточным пониманием людей для взаимодействия с ними. Но при этом взаимодействует не так, как это делают люди.  

Мы взаимодействуем друг с другом, по сути, эмпатически. Ведь я понимаю самого себя, а также понимаю вас и других людей очень схожими способами. Эти модели самих себя и других людей резонируют. Это часть социальной сети и нашего просоциального поведения. А эти гигантские ИИ, такие как
ChatGPT, не работают таким способом. У них нет подобного самосознания и резонанса с другими людьми.

Под самосознанием понимается то, что мы называем сознанием, а без него какие существуют риски?

МАЙКЛ ГРАЦИАНО: Думаю, что эволюция создала решение того, как люди могут сотрудничать. Мы, пожалуй, самый социально кооперативный вид. И вся наша цивилизация зиждется на этом. Эволюция дала нам имеющиеся у нас инструменты, которые позволяют нам глубоко понять друг друга главным образом эмпатически, сравнивая других с самим собой, сравнивая имеющиеся у нас очень схожие свойства с чертами других людей. Это корень нашего просоциального поведения и того, как мы уживаемся друг с другом.

Эти машины удивительны. У них, как я понимаю, имеются определённые меры защиты. Но они функционируют отнюдь не по этому же принципу, поскольку внутри у них не то же самое
(что у нас. — ИноТВ): нет того же мышления, того же разума. Так что такой компонент, как эмпатия, у них отсутствует. Им недостаёт инструментов.

А какой тест Тьюринга, какой тест на сознание даст вам намёк на то, что ИИ движется к ощущению того, что мы ощущаем, к тому, что, как вы утверждаете, не даст ему быть социопатом?

МАЙКЛ ГРАЦИАНО: Да. По-моему, это очень непростой вопрос. Я с большим интересом изучаю его в своей лаборатории. Я очень сосредоточен на том, как внедрить подобные вещи в машину. Всё это немного пугающе, поскольку напрашивается вопрос, зачем давать машине больше возможностей, которые подобны человеческим? Однако именно эти способности делают нас более склонными к сотрудничеству друг с другом.

Поэтому один из возможных тестов, которые мы рассматривали, называется обратным тестом Тьюринга. Может ли машина различить: её собеседник — это сознательный ум, это обладающий сознанием человек или же нет? Данный тест даёт некоторое представление о том, понимает ли она на самом деле, что такое сознательный ум. Однако это лишь первый небольшой шаг. Нужно исследовать и понять гораздо больше.


Дата публикации 07 апреля 2023 года.

Материалы ИноТВ содержат оценки исключительно зарубежных СМИ и не отражают позицию RT