Примерное время чтения: 8 минут
2943

Не верь глазам своим! Приведут ли дипфейки к Третьей мировой войне?

Трамп фейковый и Трамп настоящий.
Трамп фейковый и Трамп настоящий. Кадр из YouTube

МВД России заказало исследование, которое позволит создать программу для выявления дипфейков — искусных и убедительных видеоподделок. На эту работу выделено почти 5 миллионов рублей.

О дипфейках общественность впервые заговорила в 2017 году, когда в Сети стали появляться порноролики, где лица актрис были заменены лицами публичных персон. С тех пор технология только набирает популярность. Особый интерес к ней проявляют мошенники и разного рода аферисты.

Как это создают?

В мае 2018 года в интернете появился ролик с президентом США Дональдом Трампом. Он обращался к жителям Бельгии с призывом не признавать Парижское соглашение по климату. Волна возмущения в комментариях не заставила себя долго ждать. Конечно, Трампу не привыкать к ушатам помоев, которые льются на него в последние годы, но в этот раз гнев пользователей был совершенно напрасен. Как выяснилось позже, американский президент ничего подобного не говорил, а видео было заказано бельгийской социалистической партией, желающей привлечь внимание к проблеме изменения климата.

Термин «дипфейк», происходящий от английских слов deep learning («глубокое обучение») и fake («подделка»), обозначает формат фотографий и видеороликов, где лица одних людей заменяются другими. Аналогично можно поступить с аудиозаписью — имитировать голос человека, чтобы он якобы произнёс те слова, которые никогда говорил.

Постойте, скажете вы, а что же тут нового и необычного? В киноиндустрии подобный монтаж используется давно: голову актёра можно «приклеить» не только к чужому телу, но и к телу мифического существа, как, например, «приклеили» голову Дуэйна Джонсона к телу гигантского скорпиона в фильме «Мумия возвращается». Разница в том, что Царя скорпионов из Джонсона лепили люди — специалисты по спецэффектам, а дипфейк — это продукт, созданный искусственным интеллектом. Точнее, специальными нейросетями.

Такие сети называют генеративно-состязательными (в английском для них ввели аббревиатуру GAN). Суть в том, что одна часть алгоритма обучается на реальных фотографиях конкретного человека и создаёт его изображение, постоянно соревнуясь с другой частью алгоритма. Когда та, вторая часть начнёт путать копию с оригиналом, цель достигнута — дипфейк создан. Распознать подделку на глаз практически невозможно.

Где их применяют?

Ролики, созданные нейросетями и выглядящие вполне убедительно, быстро становятся вирусными. Один из таких — это, например, выступление актрисы Дженнифер Лоуренс на церемонии вручения «Золотого глобуса» в 2019 году. В ролике Лоуренс предстаёт перед зрителями с лицом... Стива Бушеми. За сутки — более миллиона просмотров и 35 тысяч лайков. Ещё одним развлечением для интернет-аудитории стали фейковые видео, где в кадры из различных фильмов помещено лицо Николаса Кейджа. Выглядит действительно забавно.

Потенциал технологии для киноиндустрии и создания спецэффектов очевиден. Британская компания Synthesia сняла социальную рекламу с участием Дэвида Бекхэма. Футболист рассказывает об опасности малярии на девяти языках. На самом деле речь была произнесена девятью разными людьми, выжившими после этой болезни. Разработчики дали задание нейросети тщательно изучить особенности мимики Бекхэма и движения его губ, после чего она подогнала видеоизображение под аудиозапись.

Изготовить дипфейк-видео становится всё проще. Это можно делать уже в режиме реального времени. Российский программист Али Алиев создал алгоритм для применения дипфейков, например, в Zoom-конференциях. Чтобы протестировать разработку, он прикинулся Илоном Маском. Участники онлайн-конференции, разинув рты, несколько минут беседовали с ним, будучи уверенными, что общаются со знаменитым предпринимателем.

Но и Стив Бушеми, и Дэвид Бекхэм, и Илон Маск — это люди, живущие в наши дни. А технология дипфейков позволяет сделать то, что кажется невозможным — сгенерировать видео с участием давно умершего человека. «Умному» алгоритму для этого будет достаточно его фотографий. 

В Музее Сальвадора Дали, что во Флориде, в честь юбилея художника была организована выставка «Дали жив». По задумке авторов проекта, на мероприятии «встретились искусство и искусственный интеллект». В распоряжение нейросети предоставили 6 тысяч фотографий Дали и 145 видеороликов с актёром похожих пропорций. В результате она создала виртуального двойника знаменитого сюрреалиста, практически не отличимого от оригинала. Он даже говорил с его акцентом. Всего было подготовлено 45 минут видеоматериалов. Виртуальный Сальвадор Дали встречал посетителей выставки, рассказывал им о себе и своих картинах, делал с ними совместные селфи и отсылал их потом на почту.

Когда технологии создания дипфейков будут доведены до совершенства, киноиндустрия совершит качественный скачок. Уже не придётся часами гримировать актёра Сергея Безрукова под Владимира Высоцкого. Главные герои байопиков станут выглядеть настолько правдоподобно, что трудно будет поверить в то, что эти люди не снялись в роли самих себя.

Чего стоит опасаться?

Очевидна и обратная сторона технологии. Дипфейки дают возможность приписать любому человеку те слова и действия, которые он не говорил и которых не совершал, выставив его, мягко говоря, в неприглядном свете.

Как уже сказано в начале, впервые о дипфейках заговорили, когда в интернете появились порноролики, где лица актрис были заменены лицами публичных персон. Сразу стало понятно: подобные высокореалистичные видео могут использоваться для травли, дезинформации, мошенничества или шантажа. Например, злоумышленник, заменив лицо человека в смонтированном ролике, может обвинить его в правонарушении и начать вымогать деньги. Наконец, открываются хорошие возможности для создания негативного имиджа того или иного политика, влияния на потенциальных избирателей и мобилизации толпы на акции протеста и «цветные» революции.

В минувшее Рождество британцы были шокированы видеороликом с «альтернативным» поздравлением королевы, который показал Channel 4. В нём Елизавета II сначала поблагодарила телеканал за возможность наконец-то говорить обо всём, о чём она хочет, а потом принялась шутить на грани фола, перемывая косточки членам своей семьи и премьер-министру Великобритании. Так, она съязвила в адрес принца Гарри и Меган Маркл, переехавших жить в Канаду, упомянула сексуальный скандал с участием своего сына принца Эндрю. А в конце ролика станцевала в стиле трендов TikTok и даже забралась на стол.

Видео было создано студией спецэффектов с помощью нейросети, а роль Елизаветы сыграла актриса Дебра Стивенсон. Казалось бы, шуточный посыл очевиден, но многие телезрители пришли в бешенство, посчитав ролик отвратительным: королева, по их мнению, не может быть объектом для шуток. Технический директор Channel 4 Ян Катц даже был вынужден дать пояснения: видео, дескать, создали специально, чтобы привлечь внимание аудитории к опасностям дипфейков. Это, по его словам, хорошее напоминание о том, что в наше время не стоит доверять своим глазам. 

Теми же соображениям руководствовался режиссёр Джордан Пил, который в апреле 2018 года смонтировал видео, где бывший американский президент Барак Обама обзывает действующего — Дональда Трампа. Произошёл политический скандал, вновь потребовались объяснения. А что же будет дальше, когда фото и видео, сгенерированные «умными» алгоритмами, доступными в приложениях на смартфоне, станут частью нашей повседневной жизни? Ведь большинство людей, к сожалению, редко задаются вопросом о достоверности той или иной информации, а пониженная критичность мышления — отличительная черта поколения Z (о чём в недавнем интервью «АиФ» говорил социолог Андрей Милёхин).

Интерес к дипфейкам проявляют не только кинематографисты и политтехнологи, но и криминал. Показательный случай произошёл в той же Великобритании. Генеральному директору энергетической компании позвонил якобы его босс из головного офиса в Германии. Он попросил срочно перевести деньги на счёт венгерского поставщика. Сумма в размере 220 тысяч евро отправилась по указанным реквизитам, а оттуда быстро улетела на банковский счёт в Мексике. Бизнесмен заподозрил неладное, когда после перевода просьба повторилась, да и то лишь потому, что звонили не с немецкого, а с австрийского номера. 

Полиция выяснила, что преступники использовали голосовой дипфейк. С помощью программного обеспечения с искусственным интеллектом они синтезировали речь одного из топ-менеджеров компании, взяв за основу аудиозапись его голоса. Жертва подмены не заметила и выполнила требования.

Похоже, мы вступаем в новую реальность, когда действительно приходится сомневаться во всём, что видят наши глаза и слышат наши уши. Дипфейки обладают огромной силой. Мошенничество, шантаж и даже и танцы британской королевы на столе — это ещё не самое страшное. Нетрудно представить себе сценарий, при котором созданная «умным» алгоритмом аудио- или видеозапись приведёт к международному скандалу, обострению геополитической обстановки и даже Третьей мировой войне.

Вот тогда можно будет сказать, что искусственный интеллект победил человечество.

Оцените материал
Оставить комментарий (0)

Топ 5 читаемых



Самое интересное в регионах