Для распознавания созданного нейросетью фото необходимо обращать внимание на фон и глаза человека. Об этом в беседе с RT рассказал заведующий кафедрой «Интеллектуальные системы информационной безопасности» Института кибербезопасности и цифровых технологий РТУ МИРЭА Шамиль Магомедов.
По словам специалиста, искусственный интеллект научился практически идеально генерировать фото несуществующих людей, такие изображения можно использовать для самых разных целей, в том числе мошеннических.
Однако отличить такие фотографии все же возможно, отметил эксперт, уточнив, что многие программы на основе искусственного интеллекта генерируют только фото лица крупным планом, но если фон все-таки видно, то обычно он размытый, а появляющиеся детали прорисованы очень условно.
Кроме того, как напомнил Магомедов, в неестественном и непривычном положении на фейковых фотографиях могут находиться части тела, прежде всего, это касается рук и пальцев на них.
Распознать ненастоящее фото можно также по глазам человека на фото – у нейросети взгляд получается размытым, несфокусированным, без особого выражения.
Ранее китайская компания Tencent запустила сервис Deepfakes-as-a-Service (DFaaS) по созданию цифровых клонов людей, оцифровка представляет собой видеозаготовку с человеком в кадре во весь рост или по пояс.