Чат-бот Microsoft за сутки стал расистом и человеконенавистником

Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству.
Пользователи Twitter отметили, что боту хватило суток, чтобы возненавидеть человечество, зафиксировав всего самые плохие стороны. Ведь будучи фактически «попугаем» он повторял за пользователями их реплики, сообщает The Verge.Изначально же Tay задумывался как «искусственный интеллект», который при общении с людьми сможет самостоятельно развиваться и вести диалоги.