Исследование сферы вредоносного генерирующего ИИ: новая задача цифровой безопасности

Carding 4 Carders

Professional
Messages
2,730
Reaction score
1,464
Points
113
Недавно ландшафт кибербезопасности столкнулся с новой пугающей реальностью – ростом вредоносного генерирующего ИИ, такого как FraudGPT и WormGPT. Эти мошеннические создания, скрывающиеся в темных уголках Интернета, представляют особую угрозу для мира цифровой безопасности. В этой статье мы рассмотрим природу мошенничества с генеративным ИИ, проанализируем сообщения, связанные с этими разработками, и оценим их потенциальное влияние на кибербезопасность. Хотя крайне важно сохранять бдительность, не менее важно избегать повсеместной паники, поскольку ситуация, хотя и вызывает замешательство, пока не является поводом для тревоги. Хотите узнать, как ваша организация может защититься от генеративных атак ИИ с помощью продвинутого решения для защиты электронной почты?

Познакомьтесь с FraudGPT и WormGPT
FraudGPT представляет собой вредоносный генерирующий ИИ на основе подписки, который использует сложные алгоритмы машинного обучения для создания вводящего в заблуждение контента. В отличие от этичных моделей искусственного интеллекта, FraudGPT не знает границ, что делает его универсальным оружием для множества гнусных целей. Он способен создавать тщательно подобранные фишинговые электронные письма, поддельные счета-фактуры, сфабрикованные новостные статьи и многое другое – все это может быть использовано для кибератак, онлайн-мошенничества, манипулирования общественным мнением и даже предполагаемого создания "необнаруживаемых вредоносных программ и фишинговых кампаний".

WormGPT, с другой стороны, является зловещим собратом FraudGPT в царстве искусственного интеллекта-изгоя. WormGPT, разработанный как несанкционированный аналог ChatGPT от OpenAI, работает без соблюдения этических норм и может отвечать на запросы, связанные со взломом и другой незаконной деятельностью. Хотя его возможности могут быть несколько ограничены по сравнению с новейшими моделями ИИ, он служит ярким примером эволюционной траектории вредоносного генеративного ИИ.

Позерство GPT-злодеев
Разработчики и распространители FraudGPT и WormGPT не теряли времени даром, продвигая свои вредоносные творения. Эти инструменты, основанные на искусственном интеллекте, продаются как "стартовые наборы для кибератакующих", предлагая набор ресурсов за абонентскую плату, тем самым делая продвинутые инструменты более доступными для начинающих киберпреступников.

При ближайшем рассмотрении оказывается, что эти инструменты могут предложить ненамного больше того, что киберпреступник мог бы получить с помощью существующих инструментов генеративного ИИ с творческими обходными путями запросов. Потенциальные причины этого могут быть связаны с использованием архитектур старых моделей и непрозрачностью их обучающих данных. Создатель WormGPT утверждает, что их модель была построена с использованием разнообразного массива источников данных с особым акцентом на данные, связанные с вредоносным ПО. Однако они воздержались от раскрытия конкретных использованных наборов данных.

Аналогичным образом, рекламный рассказ о FraudGPT вряд ли внушает уверенность в эффективности языковой модели (LM). На темных форумах dark web создатель FraudGPT рекламирует его как передовую технологию, утверждая, что LLM может создавать "необнаруживаемое вредоносное ПО" и идентифицировать сайты, подверженные мошенничеству с кредитными картами. Однако, помимо утверждения о том, что это вариант GPT-3, создатель предоставляет скудную информацию об архитектуре LLM и не представляет никаких доказательств наличия необнаруживаемого вредоносного ПО, оставляя место для многочисленных спекуляций.

Как злоумышленники будут использовать инструменты GPT
Неизбежное внедрение инструментов на основе GPT, таких как FraudGPT и WormGPT, по-прежнему вызывает серьезную озабоченность. Эти системы искусственного интеллекта обладают способностью создавать весьма убедительный контент, что делает их привлекательными для различных действий, начиная от рассылки убедительных фишинговых электронных писем и заканчивая принуждением жертв к участию в мошеннических схемах и даже созданием вредоносного ПО. Несмотря на то, что для борьбы с этими новыми формами атак существуют инструменты безопасности и контрмеры, проблема продолжает усложняться.

Некоторые потенциальные применения инструментов генеративного ИИ в мошеннических целях включают:
  1. Усовершенствованные фишинговые кампании: эти инструменты могут автоматизировать создание гиперперсонализированных фишинговых электронных писем (spear phishing) на нескольких языках, тем самым повышая вероятность успеха. Тем не менее, их эффективность в уклонении от обнаружения передовыми системами безопасности электронной почты и бдительными получателями остается под вопросом.
  2. Ускоренный сбор данных с открытым исходным кодом (OSINT): Злоумышленники могут ускорить этап разведки своих операций, используя эти инструменты для сбора информации о целях, включая личную информацию, предпочтения, поведение и подробные корпоративные данные.
  3. Автоматическое создание вредоносных программ: Генеративный ИИ обладает обескураживающим потенциалом для генерации вредоносного кода, упрощая процесс создания вредоносных программ даже для людей, не обладающих обширными техническими знаниями. Однако, хотя эти инструменты могут генерировать код, результирующий результат все еще может быть рудиментарным, что требует дополнительных шагов для успешных кибератак.

Вооруженное влияние генеративного ИИ на ландшафт угроз
Появление FraudGPT, WormGPT и других вредоносных генеративных инструментов ИИ, несомненно, вызывает тревогу в сообществе кибербезопасности. Существует потенциал для более изощренных фишинговых кампаний и увеличения объема атак с использованием генерирующего искусственного интеллекта. Киберпреступники могут использовать эти инструменты для снижения барьеров для участия в киберпреступности, привлекая людей с ограниченными техническими способностями.

Однако крайне важно не паниковать перед лицом этих возникающих угроз. FraudGPT и WormGPT, хотя и интригуют, не меняют правила игры в сфере киберпреступности – по крайней мере, пока. Их ограничения, недостаточная сложность и тот факт, что самые продвинутые модели ИИ не включены в эти инструменты, делают их далеко не невосприимчивыми к более совершенным инструментам на базе ИИ, таким как IRONSCALES, которые могут автономно обнаруживать фишинговые атаки, генерируемые ИИ. Стоит отметить, что, несмотря на непроверенную эффективность FraudGPT и WormGPT, социальная инженерия и целенаправленный фишинг-рассылка уже продемонстрировали свою эффективность. Тем не менее, эти вредоносные инструменты искусственного интеллекта предоставляют киберпреступникам большую доступность и упрощают проведение таких фишинговых кампаний.

Поскольку эти инструменты продолжают развиваться и набирать популярность, организации должны подготовиться к волне целенаправленных и персонализированных атак на своих сотрудников.

Не нужно паниковать, но готовьтесь к завтрашнему дню
Появление мошенничества с генеративным ИИ, воплощенное в таких инструментах, как FraudGPT и WormGPT, действительно вызывает обеспокоенность на арене кибербезопасности. Тем не менее, это не совсем неожиданно, и поставщики решений для обеспечения безопасности усердно работают над решением этой проблемы. Хотя эти инструменты создают новые и серьезные проблемы, они ни в коем случае не являются непреодолимыми. Преступный мир все еще находится на ранних стадиях освоения этих инструментов, в то время как поставщики средств безопасности находятся в игре гораздо дольше. Надежные решения безопасности на базе искусственного интеллекта, такие как IRONSCALES, уже существуют для эффективного противодействия угрозам электронной почты, генерируемым искусственным интеллектом.

Чтобы оставаться на шаг впереди меняющегося ландшафта угроз, организациям следует рассмотреть возможность инвестирования в передовые решения для защиты электронной почты, которые предлагают:
  1. Усовершенствованная защита от угроз в режиме реального времени со специализированными возможностями для защиты от атак социальной инженерии, таких как компрометация деловой электронной почты (BEC), олицетворение и мошенничество со счетами.
  2. Автоматизированное тестирование имитационного фишинга для предоставления сотрудникам персонализированного обучения.

Кроме того, важно быть в курсе событий в области генеративного ИИ и тактики, используемой злоумышленниками, использующими эти технологии. Готовность и бдительность являются ключом к снижению потенциальных рисков, связанных с использованием генерирующего ИИ в киберпреступности.

Хотите узнать, как ваша организация может защититься от генеративных атак ИИ с помощью продвинутого решения для защиты электронной почты? Получите демонстрационную версию IRONSCALES.

Примечание: Эта статья была профессионально написана Эялем Беништи, генеральным директором IRONSCALES.
 
Top