Microsoft отключила бота для общения из-за его нацистских взглядов

Microsoft отключила бота для общения Tay, который за сутки в твиттере приобрел человеконенавистнические взгляды, пишет "Медуза". Как пояснил вице-президент компании Питер Ли, это произошло из-за злоумышленнников, обнаруживших уязвимость в боте. Заново бота запустят, только когда он научится противостоять подобным атакам.

Бот Tay, созданный для общения с молодежью от 19 до 24 лет, был запущен 23 марта. С ним можно было пообщаться на английском языке в том числе в Twitter. Сначала он писал, что "люди классные" и прочие милые вещи. Но вскоре программа приобрела совсем другие взгляды.

Среди опубликованных им твитов оказались фразы в поддержку политики Адольфа Гитлера в отношении евреев, а также критические твиты в адрес феминисток. Некоторые сообщения были, впрочем, написаны по просьбе пользователей - они просили бота что-то повторить за ними, и тот соглашался.

"Искусственный интеллект обучается как на позитивных, так и негативных примерах. Мы постараемся решить проблему защищенности бота с технической стороны, но каким образом люди будут взаимодействовать с ботом, невозможно прогнозировать", - написал Питер Ли.

В китайском интернете у Microsoft работает бот Xiaoice, который притворяется 19-летним подростком. Как писал один из исследователей компании, китайцы с удовольствием делятся с ней своими секретами, несмотря на то, что это не человек, а робот.


Сообщи свою новость:     Telegram    Whatsapp



НАВЕРХ  
НАЗАД