Мошенники начали подделывать голоса с помощью искусственного интеллекта, что позволяет обманывать людей, копируя голос их родственников, сообщил аналитик Эльдар Муртазин интернет-изданию «Абзац».
Напомним, ранее в ГД внесли законопроект, который позволяет использовать запись со сгенерированным с помощью искусственного интеллекта голосом человека только при его согласии.
Документ предполагает охрану голоса как объекта личных неимущественных прав гражданина.
«Мошенники освоили эту технологию для того, чтобы обманывать людей. Мол, звонит родственник, близкий человек, и таким образом вызывают доверие и выманивают деньги», - пояснил Муртазин.
Аналитик добавил, что пока такие мошеннические действия не носят массовый характер, но некоторые люди уже были обмануты подобным образом.
Ранее пресс-секретарь президента России Дмитрий Песков заявил, что сталкивался с телефонными мошенниками.
Эксперт Максимова назвала признаки использования камеры ноутбука для слежки
Эксперт дала советы тюменцам, как подготовить садовый участок к зиме
Сломанный голос и сломанная жизнь. Настоящая история Сергея Парамонова
Психолог Солдатова назвала приёмы телефонных мошенников для внушения