Microsoft, OpenAI предупреждают о том, что хакеры национальных государств используют искусственный интеллект для кибератак

Teacher

Professional
Messages
2,670
Reaction score
775
Points
113
Субъекты национальных государств, связанные с Россией, Северной Кореей, Ираном и Китаем, экспериментируют с искусственным интеллектом (ИИ) и большими языковыми моделями (LLM) в дополнение к своим текущим операциям по кибератакам.

Выводы взяты из отчета, опубликованного Microsoft в сотрудничестве с OpenAI, в обоих из которых говорится, что они сорвали усилия пяти связанных с государством субъектов, которые использовали свои сервисы искусственного интеллекта для совершения вредоносных кибератак путем закрытия их активов и учетных записей.

"Языковая поддержка является естественной особенностью LLM и привлекательна для субъектов угроз, постоянно уделяющих внимание социальной инженерии и другим методам, использующим ложные, вводящие в заблуждение сообщения, адаптированные к работе их целей, профессиональным сетям и другим отношениям", - говорится в отчете Microsoft, опубликованном в Hacker News.

Хотя на сегодняшний день не было обнаружено никаких значительных или новых атак с использованием LLM, состязательное изучение технологий искусственного интеллекта вышло за рамки различных этапов цепочки атак, таких как разведка, помощь в кодировании и разработка вредоносного ПО.

"Эти субъекты обычно стремились использовать сервисы OpenAI для запроса информации из открытых источников, перевода, поиска ошибок при кодировании и выполнения базовых задач по кодированию", - заявили в компании, занимающейся искусственным интеллектом.

Например, российская национальная государственная группа, отслеживаемая как Forest Blizzard (она же APT28), как говорят, использовала свои предложения для проведения исследований с открытым исходным кодом в области протоколов спутниковой связи и технологии получения радиолокационных изображений, а также для поддержки скриптовых задач.

Ниже перечислены некоторые другие известные хакерские группы -
  • Эмеральд Слит (он же Кимуски), участник северокорейских угроз, использовал LLM для выявления экспертов, аналитических центров и организаций, занимающихся вопросами обороны в Азиатско-Тихоокеанском регионе, выявления общедоступных недостатков, помощи в выполнении основных задач по написанию сценариев и разработке контента, который может быть использован в фишинговых кампаниях.
  • Crimson Sandstorm (он же Imperial Kitten), иранский злоумышленник, который использовал LLM для создания фрагментов кода, связанных с разработкой приложений и веб-сайтов, генерации фишинговых электронных писем и исследования распространенных способов, которыми вредоносное ПО может избежать обнаружения
  • Charcoal Typhoon (он же Aquatic Panda), китайский злоумышленник, который использовал LLM для исследования различных компаний и уязвимостей, генерации сценариев, создания контента, который может быть использован в фишинговых кампаниях, и определения методов поведения после компрометации
  • Salmon Typhoon (он же Maverick Panda), китайский исполнитель угроз, который использовал LLM для перевода технических документов, получения общедоступной информации о нескольких разведывательных агентствах и региональных исполнителях угроз, устранения ошибок в кодировании и поиска тактики сокрытия, позволяющей избежать обнаружения
Microsoft заявила, что она также формулирует набор принципов для снижения рисков, связанных со злонамеренным использованием инструментов искусственного интеллекта и API-интерфейсов национальными передовыми постоянными угрозами (APT), передовыми постоянными манипуляторами (APM) и синдикатами киберпреступников, а также разрабатывает эффективные ограждения и механизмы безопасности для своих моделей.

"Эти принципы включают идентификацию и действия против злоумышленников, уведомление об использовании другими поставщиками услуг искусственного интеллекта, сотрудничество с другими заинтересованными сторонами и прозрачность", - сказал Редмонд.
 

Similar threads

Top