Deepfake для обхода распознавания лиц с помощью генеративных состязательных сетей (GAN)

Jollier

Professional
Messages
1,127
Reputation
6
Reaction score
1,113
Points
113
1*u26-nDvotqYpFzCQjLEZrw.jpeg


Поскольку программное обеспечение для распознавания лиц все чаще используется для разблокировки смартфонов и компьютеров, если назвать лишь несколько вариантов использования, Deepfakes позволит добиться истинного распознавания лиц. Технологии быстро улучшаются, поскольку мы достигаем более высокого уровня, когда становится трудно отличить обман от друга.

Deepfake использует глубокое изучение ИИ заменить перс уплотнительные поверхности ˝n˝ и голос в видео со своим лицом, голосом, или комбинацией обоих. Развитие искусственного интеллекта (ИИ) - одно из самых захватывающих достижений в области взаимодействия человека и машины за последние годы, но предстоит еще долгий путь.

В настоящее время имеется ряд случаев мошенничества с использованием фальшивых языковых приемов, таких как попытки убедить сотрудника компании перевести деньги на мошеннический счет. Используя аналитическую технику, известную как Generative Adversarial Networks (GAN), мошенники обращаются с этой целью к Deepfake, создавая способ сделать невозможным отличить реальную вещь от Deepfakes. Это значительно затрудняет гарантию зарядки, которая не позволяет отличить легитимную от поддельной.

Генеративные состязательные сети (GAN) - это новая аналитическая технология, которая, с другой стороны, может генерировать ложные срабатывания и ложные отрицания в виде поддельных изображений и видео. Более недавним проявлением этого явления является Deepfake, управляемая искусственным интеллектом техника, которая создает чрезвычайно реалистичные тексты, изображения или видео, которые людям трудно отличить от подделок.

1*LTJeb_0_CmF2y34enSEN9g.jpeg


К счастью, сама технология, лежащая в основе Deepfakes, также является технологией, способной обнаруживать мошенничество. По мере роста вычислительной мощности и ускорения алгоритмов глубокие подделки становятся все большей угрозой для удаленной идентификации клиентов. В настоящее время технология, основанная на фальшивых видеороликах, недостаточно эффективна, чтобы переопределить существующую технологию биометрического распознавания. Однако было несколько громких попыток получить доступ к учетным записям и переопределить биометрические данные и решения для проверки личности, использующие поддельные видео.

Используя комбинацию искусственного интеллекта и биометрического распознавания лиц, компании могут аутентифицировать пользователей без необходимости подтверждать их физическое присутствие с помощью удостоверений личности, таких как водительские права или паспорт. Использование Deepfakes может обойти эту биометрию и подтверждение личности и получить доступ к личным данным.

Регулирующие органы признают использование биометрической технологии распознавания лиц в качестве меры проверки цифровой личности человека в процессе адаптации. Однако этого было недостаточно для защиты от идентификации личности в Интернете, особенно с появлением технологии глубокого фальсификации.

Технология Deepfake использовалась для совершения онлайн-мошенничества и использования его для влияния на общественное мнение и затруднения политических деятелей. Эта технология представляет очевидную угрозу для организаций, которые привлекают новых клиентов с помощью удаленной биометрической аутентификации.

Онбординговый игрок KYC клиента встраивает форму распознавания жизни как часть процесса проверки личности. Liveness проверяет, является ли человек, пытающийся подтвердить свою личность, живым субъектом, а не копией или имитацией. Обнаружение живучести объединено, чтобы уменьшить шансы на успех попыток спуфинга.

1*mYkyGct49PxN2Kg6-kCzuQ.jpeg


Приложение под названием Zao, которое использует искусственный интеллект для замены лиц персонажей в фильмах или телепрограммах изображениями всех, чьи фотографии вы загружаете в приложение. Использование технологии смены лиц Zao может обойти системы распознавания лиц. Использовать его для взлома систем безопасности будет непростой задачей. После того, как пользователи обнаружили, что за приложением стояли «китайские разработчики», несмотря на сомнительный мелкий шрифт, люди начали предполагать, что китайцы крадут лица и фотографируют с телефонов в гнусных целях. К счастью, оказалось, что лица действительно находились на серверах в центре обработки данных Amazon на территории США и были удалены в течение 48 часов, но паника была велика.

В последние годы в этой технологии произошел огромный прогресс, и есть опасения, что ее можно использовать для создания скомпрометированных фотографий и аутентификации видео для обхода протоколов распознавания голоса и лиц.

RemoteVerify - это решение для проверки личности, которое сочетает в себе две самые популярные технологии NorthRow: обнаружение жизнеспособности и биометрическую аутентификацию. В одном примере ключ к успеху биометрической аутентификации, которая направлена на определение того, являетесь ли вы реальным человеком, сидящим перед компьютером или держащим смартфон и позволяющим вам создать банковский счет и получить к нему доступ, заключается в признании «живости».

Функция Liveness Detection может предотвратить использование мошенниками ботов, видео, фотографий и поддельных документов при попытке обойти протоколы проверки. Напротив, правительство США и Европейский союз (ЕС) выступают за использование сертифицированных методов определения бодрости, которые, в свою очередь, связаны с глобальным биометрическим стандартом, известным как ISO 30107.
 
Top