Для создания дипфейков (то есть синтеза изображения или голоса, основанного на искусственном интеллекте) преступники обычно используют фотографии, видео- и аудиозаписи, которые они часто получают путем взлома учетных записей россиян в социальных сетях или мессенджерах. Сразу понять, что это фальшивка, бывает сложно. Но есть несколько правил, соблюдение которых может помочь разоблачить мошенников.
– Как действуют злоумышленники? Они рассылают сгенерированный образ человека его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет. В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов или известных личностей из той сферы деятельности, в которой трудится их потенциальная жертва, – сообщили в Центральном банке России.
Чтобы защититься от мошенников, в Центробанке советуют не торопиться переводить деньги. Вместо того чтобы отвечать на текстовые сообщения, лучше перезвонить близкому человеку и узнать подробности. Ведь зачастую злоумышленники создают поддельные страницы с фотографиями родных, чтобы отправлять сообщения от их имени.
Обязательно позвоните тому, от чьего лица просят деньги, и перепроверьте информацию. Проверьте видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука – наиболее заметных признаков дипфейка, – посоветовали в ЦБ.
Даже неспециалисты вполне могут различить поддельное изображение от реального, утверждают эксперты. Просто нужно быть чуть внимательнее.
Постарайтесь рассмотреть, как выстраивается картинка по краям лица: меняется ли она, есть ли на записи какие-то сдвиги, блики, неестественные перепады контраста и яркости. Еще один интересный способ вычислить дипфейк – обратить внимание на блики на глазах и зубы. В большинстве случаев у людей во время разговора зубы видны, а на дипфейках – далеко не всегда. Такие подсказки сложно заметить, если качество записи плохое, в том числе из-за этого дипфейк-видео часто публикуется в искусственно заниженном разрешении, – объяснил директор лаборатории НИИ искусственного интеллекта AIRI Андрей Кузнецов.
Однако с развитием технологий (которое неизбежно) заметные невооруженным взглядом огрехи изображения будут исчезать.
– Сейчас дипфейк можно вычислить по таким признакам, как чрезмерно плавные движения, дрожание и прочие аномалии. Однако уже сейчас, если происходит подмена только лица, то человек без глубокого анализа светотени и других особенностей с большим трудом сможет этот дипфейк обнаружить и распознать, – отметил эксперт, доктор технических наук Владимир Арлазаров.
Что же касается аудиофайлов, мошенники научились создавать их так, что неподготовленным людям практически невозможно определить подделку на основе технических деталей. Поэтому, если вы получили аудиосообщение с просьбой перевести деньги, крайне важно немедленно связаться с отправителем, чтобы убедиться в его личности. Задавайте вопросы, на которые знаете ответ только вы и этот человек. Лучше всего связаться с ним по телефону или другим проверенным способом. Даже разговор по видеосвязи уже не является абсолютной защитой от подделок.
– Существуют технологии, которые позволяют генерировать видеодипфейки в реальном времени. Однако для подключения такой технологии к видео-конференц-связи мошенникам все равно нужно предварительно найти ролик с лицом человека, которым они хотят представиться. С помощью такого ролика создаются «маски», которые накладывают на фигуру в кадре, – рассказал Андрей Кузнецов.
Запомните: чем больше фотографий, видео- и аудиозаписей человек публикует в социальных сетях и на других открытых интернет-платформах, тем проще мошенникам создать реалистичный дипфейк.
– Есть огромный класс программ автопарсинга, которые могут скачивать изображения из соцсетей. Используя такие базы данных, можно создать нейросеть, которая по фотографиям человека сможет воспроизвести его внешний вид с очень высокой детализацией, – подтверждает Владимир Арлазаров.
Защититься от этого можно двумя способами: либо ограничить свою публичную активность, либо повысить уровень бдительности. К сожалению, пока простых технических решений для распознавания дипфейков, которые были бы доступны обычным пользователям, не существует.
– Чем больше данных о человеке есть в свободном доступе, тем легче его сымитировать. Если профессия обязывает регулярно появляться в публичном поле, то главная надежда – это хорошие способы распознавания и правильная законодательная база. Например, в Евросоюзе любое изображение, созданное с использованием искусственного интеллекта, должно быть соответственным образом помечено, – добавил Владимир Арлазаров.
Большинство людей уже предоставили достаточно информации о себе в открытом доступе, чтобы мошенники могли создать дипфейки. Но эта информация становится значимой только тогда, когда они получают доступ к биометрическим данным, позволяющим управлять финансами или другими ценностями. Поэтому следует проявлять осторожность при использовании биометрии, предупреждает эксперт.
– Мошенников привлекают попытки повсеместного использования биометрических технологий, причем даже там, где это не всегда оправданно. И эту тревожную тенденцию стали замечать крупнейшие производители. Например, компания Microsoft анонсировала технологию небиометрической сверки лиц, аналогичную нашей, где верификация по лицу происходит с использованием удостоверяющих личность документов. К тому же склоняются и ведущие банки. Желая предотвратить инциденты с дипфейками, рынок будет двигаться от биометрической идентификации в сторону верификации по документу, – спрогнозировал Владимир Арлазаров.