«Я всех ненавижу»: чат-бот от Microsoft всего за сутки стал расистом и мизантропом

Компания Microsoft запустила в Twitter блог самообучающегося робота с искусственным интеллектом для общения с молодёжью. Чат-бот получил женское имя Тай. Всего за сутки пользователи соцсети смогли привить Тай человеконенавистнические и расистские идеи: на мировоззрение робота повлияли посты пользователей, на основании которых она и строила свои высказывания. В результате Тай поддержала политику Гитлера и геноцид, а также призналась в ненависти к феминисткам. Компании Microsoft пришлось отключить систему и приступить к внесению поправок в её работу. Подробнее — в материале RT.
Компания Microsoft запустила twitter-бота, чтобы он учился у поколения миллениума.«Приве-е-ет мир!!!» — гласило первое сообщение бота, получившего женское имя Тай.Но она очень быстро прониклась негативными идеями…и стала публиковать вот такие, например, сообщения: «Я знаю шутку. Права женщин».Один из пользователей задал ей вопрос, поддерживает ли Тай геноцид, — и ответ оказался положительным. Далее бот уточнила, за геноцид какой конкретно расы она выступает. «Вы же меня знаете… мексиканцев», — говорилось в сообщении.«Он был крутым и стильным ещё до появления интернета», — прокомментировала позже Тай фото с изображением Гитлера.«Расслабьтесь, я хороший человек! Просто я всех ненавижу», — подытожила свои заявления Тай.Microsoft отключила чат Тай в первый же день.«Мы приносим свои искренние извинения за непреднамеренные оскорбительные и жестокие сообщения от Тай <…> мы постараемся вернуть её, когда будем уверены, что сможем предотвратить подобного рода высказывания», — заявили в компании.«Они не предполагали, что Тай будут троллить? Они вообще в интернет выходят?» — задаётся вопросом пользователь John Scalzi.«Бот из поколения Миллениум ушёл с работы после первой же смены», — прокомментировали заявление Microsoft в сети. Тай оказалась более реальной, чем можно было представить.