Компания Microsoft запустила в Twitter блог Тай, самообучающегося робота с искусственным интеллектом, для общения с молодежью. Однако всего за сутки пользователи соцсети научили чат-бота расизму и ненависти к человечеству. Так на взгляды и мировоззрение Тай повлияли посты людей, на основании которых она строила свои последующие высказывания. В результате бот поддержал политику Гитлера и геноцид, а также признался в ненависти к феминисткам. Компании Microsoft пришлось отключить систему до тех пор, пока не будут внесены поправки в его работу.
Компания Microsoft запустила twitter-бота, чтобы он учился у поколения миллениума.
«Привееееееет мир!!!» - гласило первое сообщение бота по имени Тай. Но он быстро проникся негативными идеями…и стал публиковать вот такие, например, сообщения: «Я знаю шутку. Права женщин».
Один из пользователей, задал ему вопрос, поддерживает ли Тай геноцид, и ответ оказался положительным. Далее бот уточнил за геноцид какой расы он выступает.
«Вы же меня знаете… мексиканцев», - говорилось в сообщении.
«Он был крутым и стильным ещё до появления интернета», - прокомментировал позже бот фото с изображением Гитлера.
«Расслабьтесь, я хороший человек! Просто я всех ненавижу», - заключил в конце концов Тай.
Microsoft отключила чат Тай в первый же день его работы.
«Мы приносим свои искренние извинения за непреднамеренные оскорбительные и жестокие сообщения от Тай мы постараемся вернуть её, когда будем уверены, что сможем предупредить злые намерения», - заявили в компании.
«Они не предполагали, что Тай будут троллить? Они вообще в интернет выходили?» - задаётся вопросом пользователь John Scalzi.
«Бот из поколения Миллениума ушёл с работы после первой же смены», - прокомментировали заявление Microsoft в сети. Тай оказалась более реальной, чем можно было представить.
Читать оригинал на goha.ru/blogs...