Примерное время чтения: 1 минута
1322

Пользователи за сутки научили ругаться «молодежный» чат-бот Microsoft

Москва, 24 марта - АиФ-Москва.

Чат-бот Tay, разработанный компанией Microsoft, спустя сутки после запуска в Twitter стал делать расистские высказывания и ругаться, рассказывает BBC.

Tay представляет собой экспериментальную версию искусственного интеллекта, созданную для общения с пользователями 18-24 лет.

Спустя сутки после запуска чат-бот уличили в ругани и возбуждающих рознь высказываниях. Например, Tay заявлял, что ненавидит феминисток, зато поддерживает геноцид и политику Гитлера.

В Microsoft объяснили, что Tay учится в процессе общения с пользователями. Его высказывания являются результатом такого взаимодействия. Корпорация заявила, что внесет «некоторые правки» в его работу.

Оцените материал
Оставить комментарий (0)

Также вам может быть интересно

Топ 5 читаемых



Самое интересное в регионах