chushpan
Professional
- Messages
- 696
- Reaction score
- 463
- Points
- 63
Прежде чем начать с «FraudGPT» и «WormGPT», мы написали несколько постов об угрозе атак, управляемых ИИ, которые стали одними из самых скачиваемых и читаемых постов в нашем блоге. Наша цель — продолжить эту серию, управляемую ИИ, чтобы вы могли отслеживать эволюцию вредоносного ПО, управляемого ИИ, и решения, которые мы документируем по ходу дела. Мы настоятельно рекомендуем прочитать следующие три поста вместе с постом, который мы создаем сегодня.
Злоумышленники, пользующиеся популярностью ChatGPT, запустили еще один хакерский инструмент-подражатель, который предлагает похожие услуги чат-бота для настоящего приложения на основе генеративного ИИ, но нацелен специально на продвижение вредоносной деятельности. Исследователи обнаружили размещенную в Dark Web рекламу хакерского инструмента на основе ИИ под названием «FraudGPT», который продается по подписке и циркулирует в Telegram с субботы, сообщили исследователи из Netenrich в сообщении, опубликованном 25 июля.
FraudGPT стоит от 200 долларов в месяц и доходит до 1700 долларов в год, и он направлен на то, чтобы помочь хакерам вести свой гнусный бизнес с помощью ИИ. Актер утверждает, что у него более 3000 подтвержденных продаж и отзывов о FraudGPT. Другой похожий хакерский инструмент на основе ИИ, WormGPT, находится в обращении с 13 июля и был подробно описан в отчете SlashNext. Как и ChatGPT, эти новые состязательные инструменты ИИ также основаны на моделях, обученных на больших источниках данных, и они могут генерировать текст, похожий на человеческий, на основе полученных входных данных.
Инструменты «похоже, являются одними из первых проявлений того, что злоумышленники встраивают функции генеративного ИИ в свои инструменты», — говорит Джон Бамбенек, главный охотник за угрозами в Netenrich, компании по безопасности облачной аналитики данных в Плейно, штат Техас. «До этого наше обсуждение ландшафта угроз было теоретическим». FraudGPT, который в рекламе рекламируется как «бот без ограничений, правил и границ», продается злоумышленником, который утверждает, что является проверенным продавцом на различных подпольных торговых площадках Dark Web, включая Empire, WHM, Torrez, World, AlphaBay и Versus.
Джейлбрейк этических щитов ChatGPT Хотя ChatGPT также может использоваться в качестве хакерского инструмента для написания писем с социальной инженерией, существуют этические защитные меры, ограничивающие такое использование. Однако растущая распространенность инструментов на основе ИИ, таких как WormGPT и FraudGPT, показывает, что несложно повторно внедрить ту же технологию без этих защитных мер.
FraudGPT и WormGPT — еще одно доказательство того, что один эксперт по безопасности называет «взломом генеративного ИИ для чайников», когда злоумышленники злоупотребляют приложениями генеративного ИИ, чтобы обойти этические барьеры для генеративного ИИ, с которыми OpenAI активно борется, — битва, которая в основном была тяжелой. «Это была постоянная борьба», — говорит Пири Авист, соучредитель и технический директор Hoxhunt. «Правила создаются, правила нарушаются, создаются новые правила, эти правила нарушаются, и так далее». Хотя нельзя «просто сказать ChatGPT создать убедительное фишинговое письмо и шаблон сбора учетных данных, отправленный вашим генеральным директором», кто-то «может выдать себя за генерального директора и легко составить срочное письмо финансовой команде с требованием изменить оплату счета», — говорит он.
«По сути, это не меняет ни динамики фишинговой кампании, ни контекста, в котором она работает», — говорит Джон Бамбенек, главный охотник за угрозами в Netenrich. «Пока вы не имеете дело с фишингом со взломанного аккаунта, репутационные системы все равно могут обнаружить фишинг от неаутентичных отправителей, например, тайпсквотированные домены, счета-фактуры с бесплатных учетных записей веб-почты и т. д.» Он говорит, что реализация стратегии глубокой защиты со всей доступной для быстрой аналитики телеметрией безопасности также может помочь организациям идентифицировать фишинговую атаку до того, как злоумышленники скомпрометируют жертву и перейдут к следующей фазе атаки.
«Защитникам не нужно обнаруживать каждое действие злоумышленника в цепочке угроз; им просто нужно обнаружить что-то до финальных стадий атаки — то есть вирус-вымогатель или утечку данных — поэтому наличие надежной программы анализа данных безопасности имеет решающее значение», — говорит Бамбенек. Другие специалисты по безопасности также продвигают использование инструментов безопасности на основе ИИ, число которых растет, для борьбы с враждебным ИИ, по сути, борясь с огнем огнем, чтобы противостоять возросшей сложности ландшафта угроз.
Благодаря предсказуемости человеческого поведения, эксплуатация человеческих пороков, привычек и выборов становится относительно простой. Даже при использовании сложных вредоносных программ хакерам все равно требуется доступ к мышлению человека, и именно здесь в игру вступает фишинг.
Поэтому актуальным вопросом становится: «Как предприятия могут защитить себя от растущей угрозы со стороны ИИ?»
Ответ заключается в реализации комплексной стратегии безопасности, которая выходит за рамки традиционных мер кибербезопасности и учитывает человеческий фактор.
Источник
Злоумышленники, пользующиеся популярностью ChatGPT, запустили еще один хакерский инструмент-подражатель, который предлагает похожие услуги чат-бота для настоящего приложения на основе генеративного ИИ, но нацелен специально на продвижение вредоносной деятельности. Исследователи обнаружили размещенную в Dark Web рекламу хакерского инструмента на основе ИИ под названием «FraudGPT», который продается по подписке и циркулирует в Telegram с субботы, сообщили исследователи из Netenrich в сообщении, опубликованном 25 июля.
FraudGPT стоит от 200 долларов в месяц и доходит до 1700 долларов в год, и он направлен на то, чтобы помочь хакерам вести свой гнусный бизнес с помощью ИИ. Актер утверждает, что у него более 3000 подтвержденных продаж и отзывов о FraudGPT. Другой похожий хакерский инструмент на основе ИИ, WormGPT, находится в обращении с 13 июля и был подробно описан в отчете SlashNext. Как и ChatGPT, эти новые состязательные инструменты ИИ также основаны на моделях, обученных на больших источниках данных, и они могут генерировать текст, похожий на человеческий, на основе полученных входных данных.

Инструменты «похоже, являются одними из первых проявлений того, что злоумышленники встраивают функции генеративного ИИ в свои инструменты», — говорит Джон Бамбенек, главный охотник за угрозами в Netenrich, компании по безопасности облачной аналитики данных в Плейно, штат Техас. «До этого наше обсуждение ландшафта угроз было теоретическим». FraudGPT, который в рекламе рекламируется как «бот без ограничений, правил и границ», продается злоумышленником, который утверждает, что является проверенным продавцом на различных подпольных торговых площадках Dark Web, включая Empire, WHM, Torrez, World, AlphaBay и Versus.
Киберпреступники теперь вооружены чат-ботами на основе искусственного интеллекта: WormGPT и FraudGPT
Эти инструменты на основе ИИ могут помочь злоумышленникам использовать ИИ в своих интересах при создании фишинговых кампаний, создании сообщений, направленных на то, чтобы заставить жертв поддаться взлому деловой электронной почты (BEC) и другим видам мошенничества с использованием электронной почты. FraudGPT также может помочь злоумышленникам совершать множество других плохих вещей, таких как написание вредоносного кода, создание необнаруживаемого вредоносного ПО, поиск не-VBV-корзин, создание фишинговых страниц, создание хакерских инструментов, поиск хакерских групп, сайтов и рынков, написание мошеннических страниц и писем; поиск утечек и уязвимостей; и обучение кодированию или взлому. Тем не менее, похоже, что помощь злоумышленникам в создании убедительных фишинговых кампаний по-прежнему является одним из основных вариантов использования такого инструмента, как FraudGPT, по словам Нетенриха. Эффективность инструмента в этом даже рекламировалась в рекламных материалах, которые появились в Dark Web, демонстрируя, как FraudGPT может создавать черновик электронного письма, который побудит получателей щелкнуть по предоставленной вредоносной ссылке.Джейлбрейк этических щитов ChatGPT Хотя ChatGPT также может использоваться в качестве хакерского инструмента для написания писем с социальной инженерией, существуют этические защитные меры, ограничивающие такое использование. Однако растущая распространенность инструментов на основе ИИ, таких как WormGPT и FraudGPT, показывает, что несложно повторно внедрить ту же технологию без этих защитных мер.
FraudGPT и WormGPT — еще одно доказательство того, что один эксперт по безопасности называет «взломом генеративного ИИ для чайников», когда злоумышленники злоупотребляют приложениями генеративного ИИ, чтобы обойти этические барьеры для генеративного ИИ, с которыми OpenAI активно борется, — битва, которая в основном была тяжелой. «Это была постоянная борьба», — говорит Пири Авист, соучредитель и технический директор Hoxhunt. «Правила создаются, правила нарушаются, создаются новые правила, эти правила нарушаются, и так далее». Хотя нельзя «просто сказать ChatGPT создать убедительное фишинговое письмо и шаблон сбора учетных данных, отправленный вашим генеральным директором», кто-то «может выдать себя за генерального директора и легко составить срочное письмо финансовой команде с требованием изменить оплату счета», — говорит он.
Защита от киберугроз, основанных на искусственном интеллекте
Действительно, генеративные инструменты ИИ по всем направлениям предоставляют преступникам те же основные функции, которые они предоставляют технологическим специалистам. Например, благодаря возможности работать с большей скоростью и масштабом злоумышленники теперь могут быстро генерировать фишинговые кампании и запускать больше одновременно. Поскольку фишинг остается одним из основных способов, с помощью которых киберпреступники получают первоначальный доступ к корпоративной системе для проведения дальнейшей вредоносной деятельности, крайне важно внедрить традиционные средства защиты от него. Эти средства защиты по-прежнему могут обнаруживать фишинг с использованием ИИ и, что еще важнее, последующие действия субъекта угрозы.«По сути, это не меняет ни динамики фишинговой кампании, ни контекста, в котором она работает», — говорит Джон Бамбенек, главный охотник за угрозами в Netenrich. «Пока вы не имеете дело с фишингом со взломанного аккаунта, репутационные системы все равно могут обнаружить фишинг от неаутентичных отправителей, например, тайпсквотированные домены, счета-фактуры с бесплатных учетных записей веб-почты и т. д.» Он говорит, что реализация стратегии глубокой защиты со всей доступной для быстрой аналитики телеметрией безопасности также может помочь организациям идентифицировать фишинговую атаку до того, как злоумышленники скомпрометируют жертву и перейдут к следующей фазе атаки.
«Защитникам не нужно обнаруживать каждое действие злоумышленника в цепочке угроз; им просто нужно обнаружить что-то до финальных стадий атаки — то есть вирус-вымогатель или утечку данных — поэтому наличие надежной программы анализа данных безопасности имеет решающее значение», — говорит Бамбенек. Другие специалисты по безопасности также продвигают использование инструментов безопасности на основе ИИ, число которых растет, для борьбы с враждебным ИИ, по сути, борясь с огнем огнем, чтобы противостоять возросшей сложности ландшафта угроз.
Заключение
ИИ используется не только в фишинговых и имперсональных схемах. В настоящее время ИИ используется для разработки вредоносного ПО, обнаружения целей и слабых мест, распространения ложной информации и выполнения атак с высоким уровнем интеллекта. Все больше сообщений о мошенниках, использующих ИИ для проведения сложных атак. Они создают голосовые клоны, выдают себя за реальных людей и проводят узконаправленные попытки фишинга. В Китае хакер использовал ИИ для создания поддельного видео, выдавая себя за знакомого жертвы и убеждая его отправить деньги. Кроме того, мошенники злоупотребляли процедурами идентификации клиентов на криптовалютных биржах, таких как Binance, используя поддельные ИИ. ИИ также используется для разработки вредоносного ПО, выявления уязвимостей, распространения ложной информации и выполнения интеллектуальных атак. Эти примеры подчеркивают тревожную угрозу, которую представляют атаки, управляемые искусственным интеллектом.Благодаря предсказуемости человеческого поведения, эксплуатация человеческих пороков, привычек и выборов становится относительно простой. Даже при использовании сложных вредоносных программ хакерам все равно требуется доступ к мышлению человека, и именно здесь в игру вступает фишинг.
Поэтому актуальным вопросом становится: «Как предприятия могут защитить себя от растущей угрозы со стороны ИИ?»
Ответ заключается в реализации комплексной стратегии безопасности, которая выходит за рамки традиционных мер кибербезопасности и учитывает человеческий фактор.
Источник