Как и почему работают deepfake-видео и что подвергается риску

Mutt

Professional
Messages
1,058
Reputation
7
Reaction score
565
Points
83
Когда-то спасение голливудских студий спецэффектов с многомиллионными бюджетами, теперь любой может загрузить программное обеспечение deepfake и использовать машинное обучение для создания правдоподобных фальшивых видеороликов. Это заставляет многих нервничать.

Определение Deepfake
Дипфейки - это поддельные видео или аудиозаписи, которые выглядят и звучат как настоящие. Некогда помощь голливудских студий спецэффектов и разведывательных агентств, производящих пропаганду, таких как ЦРУ или управление JTRIG GCHQ, сегодня каждый может загрузить программное обеспечение Deepfake и создавать убедительные поддельные видео в свободное время.

До сих пор дипфейки были ограничены любителями-любителями, которые наносили лица знаменитостей на тела порнозвезд и заставляли политиков говорить смешные вещи. Однако было бы так же легко создать дип-фейк с предупреждением о неизбежной атаке, разрушить чей-то брак с помощью фальшивого секс-видео или сорвать закрытые выборы, сбросив фальшивую видео- или аудиозапись одного из кандидатов. дней до начала голосования.

Насколько опасны дипфейки?
Это заставляет многих нервничать настолько, что Марко Рубио, сенатор-республиканец от Флориды и кандидат в президенты 2016 года, назвал их современным эквивалентом ядерного оружия. «Раньше, - сказал он аудитории в Вашингтоне пару недель назад, - если вы хотели угрожать Соединенным Штатам, вам требовалось 10 авианосцев, ядерное оружие и ракеты большой дальности. Сегодня вам просто нужен доступ. в нашу интернет-систему, в нашу банковскую систему, в нашу электрическую сеть и инфраструктуру, и все, что вам нужно, это способность создавать очень реалистичное фальшивое видео, которое может подорвать наши выборы, которое может ввергнуть нашу страну в ужасный внутренний кризис и ослабить нас глубоко ".

Политическая гипербола, искаженная неудовлетворенными амбициями, или дипфейки действительно представляют большую угрозу, чем ядерное оружие? Чтобы услышать это Рубио, мы направляемся в Армагеддон. Однако не все согласны.

«Так же опасно, как ядерные бомбы? Я так не думаю», - говорит Тим Хван, директор отдела этики и управления ИИ в Центре Беркмана-Кляйна и Медиа-лаборатории Массачусетского технологического института. «Я думаю, что демонстрации, которые мы видели, вызывают беспокойство. Я думаю, они беспокоят и вызывают много вопросов, но я скептически отношусь к тому, что они меняют игру так, как предлагают многие люди».

Обычные пользователи могут скачать FakeApp и сразу же приступить к созданию собственных дипфейков. Использовать приложение непросто, но у умеренно вызывающего пользователя не должно возникнуть проблем, как показал Кевин Руз для New York Times в начале 2019 года.

Тем не менее, существует так много других форм эффективной дезинформации, что сосредотачиваться на игре в «Ударь крота» с дипфейками - неправильная стратегия, - сказал Хван CSO. «Я думаю, что даже в настоящее время оказывается, что существует множество дешевых способов, которые не требуют глубокого обучения или машинного обучения, чтобы обмануть и сформировать общественное мнение».

Например, чтобы снять видео, на котором люди избивают кого-то на улице, а затем создать ложное повествование вокруг этого видео - возможно, утверждая, что злоумышленники являются иммигрантами в США, например, - не требуется причудливый алгоритм машинного обучения, просто правдоподобный ложный рассказ и подходящее видео.

Как работают дипфейки
Увидеть - значит поверить, старая поговорка гласит, но правда в том, что верить - значит видеть: люди ищут информацию, которая поддерживает то, во что они хотят верить, и игнорируют остальное.

Взлом этой человеческой склонности дает злоумышленникам большую власть. Мы видим это уже с помощью дезинформации (так называемых «фейковых новостей»), которая создает преднамеренную ложь, которая затем распространяется под видом правды. К тому времени, как проверяющие факты начинают протестовать против, уже слишком поздно, и #PizzaGate уже в ходу.

Deepfakes эксплуатируют эту человеческую склонность, используя генеративные состязательные сети (GAN), в которых две модели машинного обучения (ML) борются за это. Одна модель машинного обучения обучается на наборе данных, а затем создает подделки видео, а другая пытается обнаружить подделки. Фальсификатор создает подделки до тех пор, пока другая модель машинного обучения не сможет обнаружить подделку. Чем больше набор обучающих данных, тем легче фальсификатору создать правдоподобный дипфейк. Вот почему видео бывших президентов и голливудских знаменитостей часто использовались в этом раннем, первом поколении дипфейков - есть масса общедоступных видеоматериалов, чтобы обучить фальшивомонетчика.

У GAN, конечно, есть много других применений, кроме создания фейковых секс-видео и слов в уста политикам. GAN - это большой шаг вперед в так называемом «обучении без учителя», когда модели машинного обучения учатся сами. Это открывает большие перспективы для улучшения способности беспилотных транспортных средств распознавать пешеходов и велосипедистов, а также для повышения уровня общения с голосовыми цифровыми помощниками, такими как Alexa и Siri. Некоторые провозглашают GAN расцветом «воображения искусственного интеллекта».

Примеры дипфейков
Думаете, фальшивые новостные ролики - глубоко фальшивого политического характера - это что-то новое под солнцем? Подумай еще раз. Для поколения после изобретения кино фальсификация новостных видеороликов для драматизации реальных новостей была нормой.

В то время, когда фильму могли потребоваться недели, чтобы пересечь океан, режиссеры драматизировали землетрясения или пожары с помощью крошечных декораций, чтобы сделать новости более реалистичными. В 1920-х годах рассылка черно-белых фотографий по трансокеанским кабелям была последней модой, и создатели фильмов использовали настоящие фотографии для создания сцен разрушения. Ситуация изменилась в 1930-х годах, и зрители ожидали, что то, что они смотрят, было подлинной статьей.

Совсем недавно дебаты по поводу дипфейков возобновились с выпуском на TikTok видео, в котором, как представляется, был показан актер Том Круз. Фактически, это была комбинация имитатора человека и алгоритма искусственного интеллекта DeepFaceLab с открытым исходным кодом для создания убедительной серии видеороликов.

Бельгийский эксперт по визуальным эффектам (VFX) Крис Уме, создавший видео, сказал, что это не то, что большинство людей могло бы воспроизвести. Однако проект демонстрирует, что можно использовать комбинацию методов искусственного интеллекта, компьютерной графики и визуальных эффектов для создания глубоких подделок видео, которые практически невозможно обнаружить неподготовленному глазу.

Как обнаружить дипфейки
Обнаружить дипфейки - сложная проблема. Конечно, любительские дипфейки можно обнаружить невооруженным глазом. Другие признаки, которые могут обнаружить машины, включают отсутствие моргания глаз или тени, которые выглядят неправильно. Сети GAN, генерирующие дипфейки, постоянно совершенствуются, и вскоре нам придется полагаться на цифровую криминалистику для обнаружения дипфейков - если мы вообще сможем их обнаружить.

Это настолько сложная проблема, что DARPA тратит деньги на исследователей, чтобы найти лучшие способы аутентификации видео. Однако, поскольку GAN сами могут быть обучены тому, чтобы научиться избегать такой криминалистической экспертизы, неясно, можно ли выиграть эту битву.

«Теоретически, если вы предоставите GAN все известные нам методы его обнаружения, он сможет пройти все эти методы», - сказал MIT Technology Review Дэвид Ганнинг, менеджер программы DARPA, отвечающий за проект . «Мы не знаем, есть ли предел. Это неясно».

Критики предупреждают, что если нам не удастся обнаружить фальшивые видео, мы вскоре будем вынуждены перестать доверять всему, что видим и слышим. Интернет теперь является посредником во всех аспектах нашей жизни, и неспособность доверять всему, что мы видим, может привести к «концу истины». Это ставит под угрозу не только веру в нашу политическую систему, но и в долгосрочной перспективе нашу веру в то, что является общей объективной реальностью. Если мы не можем договориться о том, что реально, а что нет, как мы можем обсуждать политические вопросы? паникеры сетуют.

Однако Хван считает, что это преувеличение. «Это одна из самых больших моих критических замечаний», - говорит он. «Я не вижу, чтобы мы переступили какой-то мистический порог, после которого мы не узнаем, что реально, а что нет».

В конце концов, шумиха вокруг дипфейков может быть лучшей защитой, которая у нас есть. Мы предупреждаем, что таким образом можно подделать видео, и это снимает остроту с дипфейков.

Как мы регулируем, чтобы предотвратить дипфейки?
Законны ли глубокие подделки? Это острый вопрос, и он не решен. Следует рассмотреть Первую поправку, но затем закон об интеллектуальной собственности, закон о конфиденциальности, а также новые законы о порнографии, принятые в последнее время во многих штатах США.

Во многих случаях такие платформы, как Gfycat и Pornhub, активно удаляли со своих веб-сайтов фейковые порно-видео, утверждая, что такой контент нарушает их условия обслуживания. Глубокие фейки порнографического разнообразия продолжают распространяться на менее популярных платформах.

Однако когда дело доходит до политической речи, не носящей оскорбительного сексуального характера, границы размываются. Первая поправка защищает право политика лгать людям. Он защищает право на публикацию неверной информации, случайно или намеренно. Рынок идей призван отделить правду от лжи, а не правительственный цензор или фактический цензор, обеспечивающий произвольные условия обслуживания в социальной сети.

Регулирующие органы и законодатели продолжают бороться с этой проблемой. Следи за этим пространством.
 
Top