Примерное время чтения: 2 минуты
982

Что за схема мошенничества при помощи видеосвязи в мессенджерах?

Категория:  Безопасность
Ответ редакции

Мошенники в будущем усовершенствуют схему обмана с помощью технологии дипфейков. Они начнут подделывать не только голосовые сообщения, но и будут обманывать пользователей соцсетей и мессенджеров через видеосвязь. Об этом рассказал РИА Новости главный эксперт «Лаборатории Касперского» Сергей Голованов.

 Что за мошенничество с помощью дипфейков сейчас распространено?

Дипфейк (от англ. deepfake: deep learning — «глубинное обучение» и fake — «подделка») — это метод создания поддельных изображений, видео или аудио, основанный на искусственном интеллекте. Он заключается в соединении и наложении изображений (видео или аудио) друг на друга при помощи GAN (Generative Adversarial Network — генеративно-состязательные нейросети). Например, при создании дипфейк-видео лицо и часть мимики человека переносятся на какой-либо ролик, и получается фейковое видео, которое внешне очень похоже на настоящее. 

Мошенники уже научились пользоваться этой технологией для обмана интернет-пользователей. По словам Голованова, они отправляют жертвам голосовые сообщения в мессенджере, подделывая голос их знакомого или руководителя, и просят перевести деньги. 

Однако, как отметил эксперт, у этой схемы есть несовершенства, и жертвы зачастую распознают сгенерированные сообщения. 

«Интонация, с которой идут все голосовые сообщения, роботизирована: перепад голоса, отсутствие разговорных частиц и фонового шума. Это все очень настораживает человека, несмотря на то, что тембр голоса действительно похож на тембр реального человека», — рассказал Голованов.

 Как мошенники могут модернизировать эту схему?

По словам эксперта, ожидается, что злоумышленники научатся генерировать дипфейки в режиме реального времени при осуществлении видеозвонка в мессенджерах.

«Мошенники будут просто брать картинку с экрана, и это будет, собственно говоря, твое лицо. Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет. <...> Злоумышленники доберутся до этого через несколько лет», — отметил Голованов. 

По его словам, жертвы будут сильнее доверять таким видео, так как общение происходит в режиме реального времени. При этом распознать использование нейросетей на слух уже не получится. 

Источник: https://ria.ru/
 

Оцените материал
Оставить комментарий (0)

Топ 5 читаемых



Самое интересное в регионах