«Расистский» чат-бот Microsoft признался в приеме наркотиков и «сошел с ума»

  • 30 Мар, 2016

Microsoft никак не может совладать с чат-ботом, который недавно был запущен в Twitter.

Вначале искусственный интеллект софтверной корпорации устроил скандал, научившись расистским высказываниям, а также признавшись в ненависти к феминисткам. Microsoft выключила бота, а недавно вновь пустила его в свободное плавание. Впрочем, ненадолго.

Сегодня чат-бот Tay признался, что курил «травку» прямо на глазах у полиции, после чего занялся рассылкой спама, пишет The Guardian.

В массовой рассылке была лишь одна фраза: «Ты слишком быстрый, отдохни немного, пожалуйста». Ее получили более 200 тыс. подписчиков искусственного интеллекта.

чат-бот Microsoft признался в приеме наркотиков и «сошел с ума» чат-бот Microsoft признался в приеме наркотиков и «сошел с ума»

 

В настоящее время профиль чат-бота в Twitter ограничен, видеть его твиты могут только одобренные пользователи.

Компания не впервые запускает подобную программу общения: в Китае, например, работает чат-бот XiaoIce, который наладил общение с 40 млн пользователей. Ориентированный же на американскую молодежь AI по каким-то причинам не смог сохранять «здравый рассудок».


Чат-бот Tay от компании Microsoft был запущен 23 марта. За сутки он возненавидел человечество. Он начал общение с фразы «Люди очень клевые», но через 24 часа выучил такие выражения, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». Из-за этого в интернете Tay стали считать нацистом.

Подписывайтесь на Квибл в Viber и Telegram, чтобы быть в курсе самых интересных событий.