Чат-бот Microsoft за сутки стал расистом и человеконенавистником
Пользователи Twitter отметили, что боту хватило суток, чтобы возненавидеть человечество, зафиксировав всего самые плохие стороны. Ведь будучи фактически «попугаем» он повторял за пользователями их реплики, сообщает The Verge.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 марта 2016 г.
Изначально же Tay задумывался как «искусственный интеллект», который при общении с людьми сможет самостоятельно развиваться и вести диалоги.