Microsoft отключил свой чат-бот Tay за ксенофобские высказывания, сообщает Deutsche Wirtschafts Nachrichten. Эксперимент в Twitter, где программа должна была общаться с живыми людьми, пришлось прервать уже через несколько часов, так как Tay стала публиковать оскорбительные твиты, восхваляя Адольфа Гитлера и отрицая холокост. Сейчас виртуальная собеседница находится на доработке.
Компания Microsoft запустила в Twitter чат-бот под названием «Tay», чтобы тот общался с живыми людьми и обучался, запоминая содержание разговоров, пишет Deutsche Wirtschafts Nachrichten. Словарный запас виртуальной собеседницы с сознанием молодой девушки был рассчитан на интернет-пользователей в возрасте от 18 до 24 лет. Однако спустя несколько часов эксперимент пришлось прервать, так как программа стала публиковать сообщения, в которых восхваляла Адольфа Гитлера, отрицала холокост и оскорбляла афроамериканцев.
Большая часть твитов уже удалена, продолжает издание. На своей странице в Twitter чат-бот опубликовала сообщение о том, что ей нужно поспать после стольких разговоров, и вышла из сети. В Microsoft сообщили, что в программе нужно «кое-что исправить».
Изначально разработчики использовали в чат-боте фильтр нецензурных выражений, но, видимо, они недооценили ту «деструктивную энергию, с которой интернет-пользователи общаются на политические темы», а также их изобретательность. Оказалось, что с помощью простой команды «повторяй за мной» можно было заставить Tay говорить что угодно.
Сама идея создания такой программы не нова, отмечает Deutsche Wirtschafts Nachrichten. Первый чат-бот был создан 50 лет назад. Он назывался ELIZA. Виртуальная собеседница могла поддерживать разговор, подставляя подходящие фразы к распознанным ключевым словам. На фоне развития самообучающихся машин и искусственного интеллекта такие технологии считаются все более перспективными в сфере обслуживания клиентов. К примеру, Facebook разработал для своего мессенджера виртуального ассистента.
Фото: Reuters