Киберэксперт Рыбников: иногда ИИ может выдавать недостоверный результат

- Gettyimages.ru
«Галлюцинации — это когда нейросеть генерирует информацию, выглядящую правдоподобно, но являющуюся полностью вымышленной. Это не сознательный обман, а следствие работы модели», — поделился он с Lenta.ru.
Также ИИ можно навести на неверный ответ путём манипуляций с запросами, что часто называют взломом промтов, объяснил Рыбников. Таким образом можно «заставить» модель игнорировать инструкции, что делает её уязвимой.
Для снижения ошибок нужны чёткие и конкретные запросы с указанием контекста. Чтобы ИИ выдавал более точные результаты, в технических задачах важно требовать проверки фактов, а в творческих — уточнять целевую аудиторию.
Ранее эксперт по информационной безопасности Алексей Лукацкий заявил, что грамотное использование ИИ не повлияет на когнитивные навыки людей, а также на их способность общаться между собой.