ФАНТОМАСЫ НОВОГО ВЕКА

0

Deepfake

А всё начиналось, как забава, потом продолжалось, как возможность замены реального актёра в фильме его электронным «двойником». Про это даже в популярном блокбастере завернули, «Бегущий человек» назывался. Подставили там Арнольда таким образом, подвели под статью, как говорится. Но то — фильм тридцатилетней давности. А что же в реальности? А здесь всё гораздо интереснее и… опаснее.

 

Портреты и сюжеты

Программа Deepfake сегодня применяет возможности искусственного интеллекта для синтеза человеческого изображения: объединяет несколько снимков, на которых реальный человек запечатлён с разных ракурсов и с разным выражением лица. Анализируя фотографии, специальный алгоритм обучается тому, как выглядит и может двигаться человек. Впоследствии такой аватар может использоваться для наложения на произвольный видеоматериал.

Забава? Вроде бы, да… Да вот только в мире политики, например, технология Deepfake может быть использована как оружие, направленное как на отдельных деятелей, так и на произвольные группы, для манипуляций общественным восприятием, вмешательства в выборы или даже в операции на фондовых рынках. «Русские хакеры» нервно курят в сторонке…

Представьте себе, например, кандидата в президенты одной из не самых слабых стран, который несёт с экранов огнеопасную околесицу, а сам-то он об этом, что называется, и слухом не слыхивал! Мир в шоке, пара стран — в развалинах. Мировой кризис налицо…

Само собой, помимо политических информационных войн Deepfake создаёт и риски в области информационной безопасности корпоративного сектора. Мошенники всё чаще начинают использовать грандиозные возможности Deepfake. Появляются всё более ухищрённые методы мошенничества. А тут ещё и система распознавания лиц стала внедряться немыслимыми темпами, есть, где теперь развернуться любителям новых технологий: от хищения персональных данных до доступа к банковским счетам.

В опасной доступности

Когда-то, в теперь уже далёкие девяностые подобными инструментами обладали лишь избранные эксперты по спецэффектам в киноиндустрии. А в 2018 году уже появилась первая публичная программа для подмены лиц под названием FakeApp, которая открыла дипфейк-инструменты простому обывателю. Наборы для создания такого контента находятся с тех пор в свободном доступе и легки в освоении. В последнее время технология Deepfake привлекает большое внимание из-за её использования в финансовых махинациях, розыгрышах и фальшивых новостях (fake news). Любой человек, который имеет доступ к интернету, свободное время, цели и мотивацию, может в режиме реального времени создавать фальшивый контент и наполнять им каналы социальных сетей. Гуляй – не хочу!

Ложка мёда

Радует пока, что на сегодняшний день нейросети сами по себе не могут производить гладкий и достоверный трансфер лиц, для этого всё-таки требуются навыки специалистов по компьютерной графике, пресловутый «человеческий фактор». Только они с помощью весьма ресурсоёмких программ и высокопрофессиональных навыков могут доработать результат нейросетей до фотореалистичного состояния. Перенос лиц, выполняющийся исключительно алгоритмами, пока ещё заметен искушённому человеческому  глазу: выдают либо визуальные артефакты, например, мимика или положение глаз, либо непохожесть нового лица ни на реципиента, ни на донора.

Во-первых, не все люди могут обменяться друг с другом лицами незаметно. Сегодня переносимая алгоритмами область — от бровей до подбородка и от уха до уха (то есть уши, лоб и волосы остаются в целевом видео родными). Поэтому на схожесть результата влияет множество исходных факторов, таких, как пол человека, возраст, цвет кожи и волос, а также комплекция и форма лица. Во-вторых, если в донорском видео лицо всегда анфас, а в целевом голова поворачивается, и виден профиль, то алгоритм не перенесёт лицо корректно, поскольку не знает, как выглядит этот человек в профиль. Так же обстоят дела с положением глаз, движением губ, мимикой и эмоциями (смех или плач): оба человека должны побывать перед камерой в максимально совпадающем диапазоне ситуаций.

В общем, не всё пока так летально. Но человеческая мысль не стоит на месте, а уж разум искусственный – тем более.

Бочка дёгтя

В настоящее время рынок информационной безопасности, увы, не предлагает специальных технологий и кардинальных решений для распознавания дипфейков. Тем не менее, определённые шаги в данном направлении совершаются. Например, интернет-гиганты Facebook, Microsoft, а также исследователи из ведущих американских технологических университетов начали разработку инструментов для обнаружения подобных подделок, а также в сотрудничестве с Amazon объявили конкурс Deepfake Detection Challenge на лучший способ определения дипфейк-видео, что предполагает появление большого количества новых методов обнаружения подделок.

При этом, пока представляется маловероятным, что проблема дипфейков будет решена чисто технологическими методами. Скорее всего, всё сведётся к своеобразной «гонке интеллектуальных вооружений»: интернет-компании станут создавать более совершенные алгоритмы для выявлений поддельных видео, а авторы дипфейков, в свою очередь, будут спешно улучшать свои творения, дабы обманывать эти алгоритмы. На сегодня самым эффективным способом борьбы с дипфейками в корпоративной среде является снижение потенциального ущерба от информационных атак с помощью эффективных корпоративных коммуникаций. Для этого потребуется тщательно отслеживать публикуемые в Сети сведения, касающиеся вашей компании, и быть готовым контролировать ситуацию в случае дезинформации.

Короче говоря, обзаведитесь высококлассным специалистом в области PR, платите ему достойную заработную плату и спите относительно спокойно. Всё-таки интеллект естественный пока ещё превалирует над искусственным. Пока… А что будет завтра — покажет время.

Аким Гирфанов

 

ОСТАВЬТЕ КОММЕНТАРИЙ

Прокомментируйте
Пожалуйста, введите свое имя