Не верь глазам своим: как можно распознать дипфейк

Технологии создания дипфейков совершенствуются так стремительно, что уже несколько лет являются объектом пристального внимания не только крупных компаний, но и государственных структур, отвечающих за цифровую безопасность. Может ли сейчас обычный человек отличить подделку от реальности и как это сделать, «Московская правда» узнала у экспертов.

Распознавать фейковые текстовые сообщения или использование цифровых технологий при изменении фотографий мы уже более-менее научились, хотя это тоже требует определенных знаний и навыков. А вот что делать с видео, которые, вроде бы, вполне правдоподобны, но содержание их вызывает некоторые сомнения? Как выяснить, это реальная запись или ролик, созданный с помощью искусственного интеллекта? Вопросы в нынешние времена не праздные.

Технология создания дипфейков раньше в подавляющем большинстве случаев использовалась в развлекательных целях и ничего кроме улыбки и восхищения развитием технологий не вызывала. Затем дипфейки стали активнее использовать при создании фильмов и сериалов – несмотря на свою трудоемкость, они вполне себя оправдывают. Один из ярких примеров дипфейка в российском кино – появление в продолжении сериала «Диверсант» 2022 года выпуска Владислава Галкина, который снимался в первых частях картины, но ушел из жизни в 2010 году. Также дипфейки помогают киношникам «состарить» или «омолодить» актеров, озвучивать и переводить фильмы.

Между тем, как это обычно бывает с изобретениями, использовать дипфейки стали и совсем не в благих целях. Так, мошенники с целью незаконной наживы стали вводить в заблуждение людей, создавая и распространяя в соцсетях ролики, в которых известные личности рекламировали те или иные услуги, проводили лотереи и даже просто раздавали деньги всем желающим. Нужно ли говорить, что «звезды» в роликах были созданы с помощью технологии дипфейк? Но пока об этом не стало известно, мошенникам удалось хорошо «нагреть руки». Так, по данным экспертов, потери мировой экономики от подобных технологий составили уже около 400 миллиардов рублей.

Мало того, совершенствование технологий позволяет сейчас использовать дипфейки и для формирования общественного мнения по поводу глобальных политических и экономических событий. Например, недавно президенту РФ Владимиру Путину на выставке «Прикладные технологии искусственного интеллекта» продемонстрировали дипфейк канцлера Германии Олафа Шольца. Конечно, по «высказываниям» фейкового Шольца было понятно, что это не реальная видеозапись, но в целом все выглядело достаточно убедительно.

Над разработкой и совершенствованием программ, которые могут распознавать дипфейки, сейчас работают во всем мире, в том числе и в России. Одну из них, кстати, и продемонстрировали российскому президенту на выставке технологий ИИ. Но до возможности массового использования подобных программ пока далеко. Так можно ли распознать дипфейк без технических приспособлений?

Раньше сделать это было достаточно просто. В качестве одного из способов предлагалось проследить за тем, насколько часто моргает человек, изображенный на видео. В среднем человек моргает раз в 5 секунд. И если персонаж на видео моргает гораздо реже – велика вероятность того, что это дипфейк. Однако сейчас технологии позволяют усовершенствовать мимику дипфейка, в том числе и привести в норму частоту его морганий. Но, по мнению руководителя департамента информационной безопасности «Сиссофт» Дмитрия Ковалёва, внимательный просмотр видео позволяет вычислить дипфейк и сейчас. Правда, особое внимание надо обращать при этом не на человека, а на фон, на котором он снят.

— В некоторых ситуациях без специальных технологий зрителю действительно сложно выяснить, что перед ним: реальное видео или подделка. Но чаще всего дипфейк можно распознать. Его выдает размытая некачественная картинка с плохим светом: детали в кадре неоднородно освещены, тени и цветовая температура в разных частях видео разнятся, кадр подрагивает, а фон не всегда успевает за движениями человека, — перечисляет главные отличительные черты дипфейков Дмитрий Ковалёв.

Декан факультета «Цифровая экономика и массовые коммуникации» МТУСИ Сергей Гатауллин согласен, что идентифицировать как дипфейк качественно сделанный видеоконтент без использования специальных программных средств сложно, но можно:

— Учитывая, что дипфейки вставляются в видео кадр за кадром, при его просмотре даже невооруженным глазом заметны флуктуации и временные искажения, которые не учитываются многими алгоритмами обнаружения дипфейков, использующих информацию из одного кадра для поиска подделки вне контекста с соседними кадрами.

Тем, кто хочет наверняка распознать подделку, Сергей Гатауллин предлагает пользоваться специальными интернет-сервисами, которые применяют технологии распознавания дипфейков и с достаточной точностью справляются с этой задачей.

Что же касается распространения дипфейков на телевидении, то, по мнению эксперта, это скорее вопрос не технологический, а юридический. Например, законом можно обязать телекомпании помечать дипфейки специальным знаком.

— Однако это не единственный морально-правовой вопрос, на который надо ответить при развитии цифровой экономики. Метавселенная — скорее реальность уже сегодня, и видеоконтент это всего лишь один из ее компонентов, — считает Сергей Гатауллин.

В целом же эксперты советуют критично относиться к видеоконтенту, рассчитанному на широкий резонанс или направленному на то, чтобы вызвать у зрителей определенные эмоции или побудить их совершить определенные действия. Как и в случае с другими видами фейков, стоит проверять информацию по другим источникам, желательно тем, которым вы доверяете. Тогда вероятность стать жертвой обмана будет гораздо меньше.

Алёна Бодриенко.

Фото с сайта itcrumbs.ru

Подписаться
Уведомить о
guest
3 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
Тамара
Тамара
1 месяц назад

Мошенников в интернете хоть пруд пруди. Одни только эти намошенничали на 400 миллиардов рублей. И их никто не видит. Зато напиши-ка кто-нибудь строчку против власти — тут же вычислят человека. Как так?

Никита
Никита
1 месяц назад

Современные технологии поражают. Скоро их вообще ни как не распознаешь. Нейросети уже очень качественно научились генерировать фото несуществующих людей и их порой не могут распознать даже профессиональные фотографы и другие нейронные сети.

Кирилл
Кирилл
1 месяц назад

Последнее, что видел — это изображение Брюса Уиллиса в нашей отечественной рекламе. Я сначала и поверил, а недавно читал его биографию, и там описан этот момент как раз как использование этой технологии. Очень реалистично!

3
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x