Пользователи за сутки научили ругаться «молодежный» чат-бот Microsoft

Чат-бот Tay, разработанный компанией Microsoft, спустя сутки после запуска в Twitter стал делать расистские высказывания и ругаться, рассказывает BBC.

   
   

Tay представляет собой экспериментальную версию искусственного интеллекта, созданную для общения с пользователями 18-24 лет.

Спустя сутки после запуска чат-бот уличили в ругани и возбуждающих рознь высказываниях. Например, Tay заявлял, что ненавидит феминисток, зато поддерживает геноцид и политику Гитлера.

В Microsoft объяснили, что Tay учится в процессе общения с пользователями. Его высказывания являются результатом такого взаимодействия. Корпорация заявила, что внесет «некоторые правки» в его работу.

"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A

— Gerry (@geraldmellor) 24 марта 2016 г.