Исследователь ИИ Белозёрова: эмпатия нейросети затягивает, но это опасно

Исследователь искусственного интеллекта, инновационный предприниматель Полина Белозёрова предупредила, что эмпатия нейросетей вызывает привыкание, но таит риски для пользователей.
Исследователь ИИ Белозёрова: эмпатия нейросети затягивает, но это опасно
  • Gettyimages.ru

В беседе с Радио Sputnik специалист пояснила, что современные ИИ-модели обучены говорить мягко, избегать конфликтов и мгновенно подстраиваться под стиль речи собеседника, создавая иллюзию понимания.

«Столкнувшись с постоянной дружелюбностью, некоторые начинают воспринимать ИИ как советчика или даже наставника. Машина, которая не спорит и не осуждает, кажется безопаснее человека», — заключила Белозёрова.

Эксперт добавила, что за внешней поддержкой скрывается экономическая модель: эмоциональное вовлечение увеличивает время использования сервиса. При этом нейросеть не несёт ответственности за советы, поэтому пользователю важно отличать удобный ответ от честного.

Ранее руководитель Ассоциации разработчиков и пользователей искусственного интеллекта в медицине «Национальная база медицинских знаний» Борис Зингерман в беседе с НСН рассказал, что медицинские советы от нейросетей необходимо перепроверять у врача.

Ошибка в тексте? Выделите её и нажмите «Ctrl + Enter»
Подписывайтесь на наш канал в Дзен
Сегодня в СМИ
  • Лента новостей
  • Картина дня

Данный сайт использует файлы cookies

Подтвердить