Чат-бот Tay, разработанный компанией Microsoft, спустя сутки после запуска в Twitter стал делать расистские высказывания и ругаться, рассказывает BBC.
Tay представляет собой экспериментальную версию искусственного интеллекта, созданную для общения с пользователями 18-24 лет.
Спустя сутки после запуска чат-бот уличили в ругани и возбуждающих рознь высказываниях. Например, Tay заявлял, что ненавидит феминисток, зато поддерживает геноцид и политику Гитлера.
В Microsoft объяснили, что Tay учится в процессе общения с пользователями. Его высказывания являются результатом такого взаимодействия. Корпорация заявила, что внесет «некоторые правки» в его работу.