Аналитик Малахов рассказал о последствиях бесконтрольного развития ИИ
- Gettyimages.ru
«Опасность нейросетей, которые сейчас законодательно никто не контролирует, можно рассмотреть на примере всем известного ChatGPT. Основные риски, которые он в себе несёт, — это бесконтрольность распространяемой информации», — заявил он в беседе с «Газетой.Ru».
По его словам, важно понимать, что ИИ — это не база данных, поскольку оттуда нельзя удалить какие-то знания, а также нельзя понять, на основе каких изначальных знаний нейросеть основывает свои суждения, и это является основной опасностью.
Как отметил Малахов, существуют несовершенства контроля над информацией в ИИ.
Эксперт также прокомментировал сообщение о том, что в Генассамблее ООН приняли резолюцию по искусственному интеллекту.
«Это первый документ такого высокого уровня. Он является только началом к созданию подобных и более детальных документов на локальном уровне. Резолюция призывает страны разработать свод правил и законов для разработок в сфере ИИ, чтобы соблюдались права человека, использование было безопасным и безрисковым, сохранялась приватность данных и так далее», — сказал он.
Ранее заведующий лабораторией искусственного интеллекта, нейротехнологий и бизнес-аналитики РЭУ имени Г.В. Плеханова Тимур Садыков прокомментировал возможные изменения на рынке труда после внедрения искусственного интеллекта.