Что за схема мошенничества при помощи видеосвязи в мессенджерах?
Мошенники в будущем усовершенствуют схему обмана с помощью технологии дипфейков. Они начнут подделывать не только голосовые сообщения, но и будут обманывать пользователей соцсетей и мессенджеров через видеосвязь. Об этом рассказал РИА Новости главный эксперт «Лаборатории Касперского» Сергей Голованов.
Что за мошенничество с помощью дипфейков сейчас распространено?
Дипфейк (от англ. deepfake: deep learning — «глубинное обучение» и fake — «подделка») — это метод создания поддельных изображений, видео или аудио, основанный на искусственном интеллекте. Он заключается в соединении и наложении изображений (видео или аудио) друг на друга при помощи GAN (Generative Adversarial Network — генеративно-состязательные нейросети). Например, при создании дипфейк-видео лицо и часть мимики человека переносятся на какой-либо ролик, и получается фейковое видео, которое внешне очень похоже на настоящее.
Мошенники уже научились пользоваться этой технологией для обмана интернет-пользователей. По словам Голованова, они отправляют жертвам голосовые сообщения в мессенджере, подделывая голос их знакомого или руководителя, и просят перевести деньги.
Однако, как отметил эксперт, у этой схемы есть несовершенства, и жертвы зачастую распознают сгенерированные сообщения.
«Интонация, с которой идут все голосовые сообщения, роботизирована: перепад голоса, отсутствие разговорных частиц и фонового шума. Это все очень настораживает человека, несмотря на то, что тембр голоса действительно похож на тембр реального человека», — рассказал Голованов.
Как мошенники могут модернизировать эту схему?
По словам эксперта, ожидается, что злоумышленники научатся генерировать дипфейки в режиме реального времени при осуществлении видеозвонка в мессенджерах.
«Мошенники будут просто брать картинку с экрана, и это будет, собственно говоря, твое лицо. Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет. <...> Злоумышленники доберутся до этого через несколько лет», — отметил Голованов.
По его словам, жертвы будут сильнее доверять таким видео, так как общение происходит в режиме реального времени. При этом распознать использование нейросетей на слух уже не получится.
Источник: https://ria.ru/