Сообщения с просьбами денег в соцсетях, звонки ночью с неизвестных номеров, выманивание данных карты с помощью подложных сайтов — все эти методы мошенничества постепенно уходят в прошлое. Им на смену пришли «дипфейки» — полная компьютерная имитация внешности и голоса человека с помощью искусственного интеллекта. То есть даже без вашего участия «ваше лицо» сможет «поговорить» с кем-то, попросить что угодно и убедить совершить нечто необдуманное.
Так произошло, например, с Марией. От ее имени позвонили родным с неизвестного номера. Мать не поверила в легенду про «переведи деньги на чужую карту, я попала в беду». Тогда «лже-Мария» набрала с того же номера, но уже по видео. И на экране женщина увидела свою дочь, которая со слезами на глазах просила срочно перевести ей денег. Конечно, средства были незамедлительно отправлены. Только вот пришедшая через несколько часов Мария и знать не знала, что попала в беду и просила помощи у своей семьи. Вместо нее по «заказу» мошенников» это сделал искусственный интеллект.
«Например, недавно в Гонконге целью мошенников стал сотрудник компании, с которым была проведена видеоконференция с целью убедить его в реальности происходящего. Потери составили 25,6 млн долларов. Есть технологии, которые позволяют выявлять дипфейки, но пока этому не будет должного внимания на законодательном уровне, вряд ли компании будут массово тратить на это средства», — поведал он.
«Сомнения возникли у одного из работников, который в тот момент как раз в мессенджере общался с настоящим бухгалтером. Он и "тормознул" своих коллег с отправками данных карт», — добавила она.
Чтобы не дать мошенникам развить новую систему обмана, в Госдуме начали готовить поправки об уголовной ответственности за дипфейки. В частности планируется дополнение квалифицирующего признака сразу в несколько уголовных статей (128.1 «Клевета», 158 «Кража», 159 «Мошенничество», 163 «Вымогательство», 165 «Причинение имущественного ущерба путем обмана или злоупотребления доверием») — совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и биометрических данных. То есть преступления, совершенные с помощью дипфейка. Кроме того, в Уголовный кодекс могут добавить новый квалифицирующий признак — «совершение преступления с использованием изображения или голоса человека, а также его биометрических данных». Предлагается наказывать преступника в зависимости от деяния штрафом до 1,5 млн рублей или в размере иного дохода за период до двух лет либо лишением свободы на срок до семи лет.
«Из-за того, что на первый взгляд сложно отличить реальный голос или страницу реального человека от дипфейка, наши граждане нуждаются в дополнительной защите государства от подделок мошенников. Более строгие наказания кого-то из преступников остановят, но и сами граждане должны быть более бдительны когда вопрос касается персональных данных», — рассказала Анастасия Тюменцева.
В целом же, сейчас технологии развиваются столь стремительно, что государства не успевают формулировать ограничения, позволяющие защитить права людей, добавила эксперт «Народный фронт. Аналитика» Ольга Позднякова. Дипфейки с использованием лица и голоса существующих людей уже стали нашей полноценной реальностью.
«Учитывая, что при этом есть возможность использовать лица и голоса для доступа в разные системы (банковские приложения, смартфоны, вход в здание и так далее), возрастает угроза недобросовестного использования новых технологий. Поэтому любая инициатива по ограничению дипфейков приветствуется, но важно, чтобы формулировки законопроектов были прозрачные и недвусмысленные. Иначе, как часто бывает, пострадают добросовестные пользователи, а мошенники как обходили законы, так и будут продолжать это делать», — заключила она.