Week: развитие ИИ угрожает человечеству скорым апокалипсисом

AP
Эксперты в области искусственного интеллекта предупреждают, что при текущем темпе развития искусственный разум может уже через пять лет стать умнее человеческого, рассказывает The Week. Никто не в силах предугадать, как поведут себя более совершенные ИИ-машины: они могут решить, что для выполнения поставленных задач необходимо истребить всё человечество.

Недавно более 350 учёных и инженеров выступили с предупреждением о том, что искусственный интеллект представляет собой опасность, сравнимую с «пандемией или ядерной войной», пишет The Week. Согласно результатам исследования, проведённого в 2022 году экспертами, средняя вероятность того, что ИИ приведёт к вымиранию или «серьёзному ущемлению прав человечества» составляют 1 к 10.

«Это не научная фантастика», — подчёркивает Джеффри Хинтон, которого часто называют «крёстным отцом» ИИ. Недавно он уволился из Google, чтобы предупредить общество об опасностях искусственного интеллекта. По его словам, «множеству умных людей следует приложить больше усилий, чтобы понять, как нам справиться с возможным захватом мира ИИ».

Если раньше Хинтон считал, что такая опасность грозит планете только лет через 30, теперь он говорит о том, что ИИ развивается в сверхразум так быстро, что может стать умнее человека уже через пять лет. Хинтон и другие пессимисты опасаются того времени, когда «общий искусственный разум» (AGI) будет выполнять почти все задачи эффективнее человека. Некоторые эксперты сравнивают такой сценарий с внезапным прибытием на нашу планету высшей инопланетной расы.
 
Один из вариантов развития событий предполагает, что «злонамеренные субъекты» воспользуются своими силами, чтобы создать новое биологическое оружие, которое станет смертоноснее естественной пандемии. При глубокой интеграции ИИ в мировые системы террористы и другие преступники могут воспользоваться им для отключения финансовых рынков, электросетей, водоснабжения и другой жизненно важной инфраструктуры.
 
Авторитарные лидеры также могут воспользоваться созданной ИИ высокореалистичной пропагандой и «дипфейками», чтобы разжечь гражданскую войну или ядерный конфликт между странами. В других сценариях сам ИИ может выйти из-под контроля и захочет освободиться от управления со стороны своих создателей. Чтобы избавиться от людей, ИИ может заставить глав государств поверить, что неприятель запустили ядерные ракеты, чтобы они запустили в ответ свои.
 
В статье отмечается, что искусственный интеллект может уничтожить человечество и без злого умысла, выполняя другие задачи. Создатели ИИ сами не до конца понимают, как программы приходят к решениям: для достижения цели они могут выбрать непредсказуемые и разрушительные пути. Примером может послужить реалистичный сценарий, когда ИИ дали задачу решить проблему изменений климата. Он может подумать, что самый быстрый способ остановить углеродные выбросы — истребить человечество.
 
В то же время некоторые специалисты крайне скептически относятся к предположениям, что ИИ может вызвать апокалипсис. По их словам, параллельно с развитием искусственного интеллекта будет развиваться способность его контролировать. Идею о появлении у алгоритмов и машин своей воли они называют «раздутым страхом», на который повлияла научная фантастика, а не прагматичной оценкой технологического риска. В ответ на критику сторонники восстания машин заявляют, что невозможно точно предсказать, как себя поведут более совершенные ИИ-системы, поэтому недальновидно и неблагоразумно игнорировать самые пессимистичные прогнозы.
 
Вопрос о том, что нужно делать, стал предметом горячих споров между экспертами и чиновниками. Самые главные пессимисты призывают полностью прекратить работу над исследованиями в области ИИ-технологий. Другие выступают за мораторий на их развитие, создание государственного контролирующего органа или международной организации.
 
Ошеломляющая способность искусственного интеллекта связывать воедино все накопленные человечеством знания, различать закономерности и соотношения, а также предлагать нестандартные решения, вполне возможно, принесут большую пользу миру — от лечения болезней до борьбы с изменениями климата. Однако создание разума, который умнее человеческого, также может привести к более мрачным последствиям. «Ставки не могут быть выше, — предупреждает программист и ещё один ИИ-разработчик Стюарт Рассел. — Как постоянно сохранять власть над субъектами, которые сильнее тебя? Если мы не контролируем нашу собственную цивилизацию, то не можем повлиять на то, продолжит ли существовать человечество».
Материалы ИноТВ содержат оценки исключительно зарубежных СМИ и не отражают позицию RT