Искусственный интеллект демонстрирует расистские предубеждения и гендерные клише, присущие многим людям, показало исследование американских учёных Принстонского университета.
Когда искусственный интеллект изучает язык, он заодно воспринимает те стереотипы, которые в нём содержатся. Например, у большинства людей слово «цветок» ассоциируется с прилагательным «приятный», а слово «насекомое» — с прилагательным «неприятный». Вот и искусственный интеллект привычное для афроамериканской среды имя интерпретировал как неприятное, а имя, распространённое между белыми, как приятное. Женские имена программа связывала с искусством, мужские — с математикой.
Роботизированный ум с расистским и дискриминационным отношением может в будущем стать проблемой: когда, например, на основании языкового анализа он будет принимать решение, какого кандидата стоит пригласить на освободившуюся вакансию, а какого нет.
Смотрите также:
- Выживает не сильнейший. Что на самом деле Дарвин говорил об эволюции? →
- ...Продолжительность жизни будет увеличена? →
- Ген успеха есть у всех? →