Искусственный интеллект Microsoft всего за сутки возненавидел людей

  • 24 Мар, 2016

Компания Microsoft 23 марта запустила в соцсети Twitter дружелюбного чат-бота Tay. Одна из первых его записей была о том, что «люди — суперкрутые».

Спустя считанные часы компании пришлось подвергнуть свое детище цензуре и на время остановить работу проекта: в переписке он начал сообщать, что всех просто ненавидит, а наибольшую неприязнь питает к феминизму.

Неадекватное поведение чат-бота заметил австралийский блогер Джеральд Меллор. На своей странице в Twitter он опубликовал скриншоты ответов Tay. За некоторые компьютерную программу Microsoft можно и вовсе обвинить в симпатии к нацистам. The Verge считает, что столь сильное «очеловечивание» бота связано с механизмами его самообучения. Для совершенствования Tay анализирует существующие разговоры пользователей Twitter и следует их не всегда хорошему примеру.

 

Tay умеет обучаться и запоминать то, что ей пишут, и пользователи сети решили воспользоваться этим. Например, комментаторы начали объяснять ИИ, что ей не стоит доверять евреям.

Вскоре Tay узнала про Гитлера. Например, на вопрос, атеист ли известный комик Рики Джервэйс, она ответила: «Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма».

В одном из твитов ИИ обвинил США в терактах 11 сентября: «Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда».

iskusstvennyj-intellekt-microsoft-vsego-za-sutki-voznenavidel-lyudejquibbll-1

 

Правда, спустя некоторое время разработчики усмирили свое детище. Tay начал утверждать, что теперь любит феминизм.

iskusstvennyj-intellekt-microsoft-vsego-za-sutki-voznenavidel-lyudejquibbll-2

 

Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.

После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».

 

Microsoft не делала официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно расизм.

Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.

Подписывайтесь на Квибл в Viber и Telegram, чтобы быть в курсе самых интересных событий.

Больше о: