Чат-бот Microsoft за сутки стал расистом и человеконенавистником

Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству.

Пользователи Twitter отметили, что боту хватило суток, чтобы возненавидеть человечество, зафиксировав всего самые плохие стороны. Ведь будучи фактически «попугаем» он повторял за пользователями их реплики, сообщает The Verge.

Изначально же Tay задумывался как «искусственный интеллект», который при общении с людьми сможет самостоятельно развиваться и вести диалоги.

Ошибка в тексте? Выделите её и нажмите «Ctrl + Enter»
Сегодня в СМИ
  • Лента новостей
  • Картина дня

Данный сайт использует файлы cookies

Подтвердить