Teacher
Professional
- Messages
- 2,670
- Reaction score
- 775
- Points
- 113
Субъекты национальных государств, связанные с Россией, Северной Кореей, Ираном и Китаем, экспериментируют с искусственным интеллектом (ИИ) и большими языковыми моделями (LLM) в дополнение к своим текущим операциям по кибератакам.
Выводы взяты из отчета, опубликованного Microsoft в сотрудничестве с OpenAI, в обоих из которых говорится, что они сорвали усилия пяти связанных с государством субъектов, которые использовали свои сервисы искусственного интеллекта для совершения вредоносных кибератак путем закрытия их активов и учетных записей.
"Языковая поддержка является естественной особенностью LLM и привлекательна для субъектов угроз, постоянно уделяющих внимание социальной инженерии и другим методам, использующим ложные, вводящие в заблуждение сообщения, адаптированные к работе их целей, профессиональным сетям и другим отношениям", - говорится в отчете Microsoft, опубликованном в Hacker News.
Хотя на сегодняшний день не было обнаружено никаких значительных или новых атак с использованием LLM, состязательное изучение технологий искусственного интеллекта вышло за рамки различных этапов цепочки атак, таких как разведка, помощь в кодировании и разработка вредоносного ПО.
"Эти субъекты обычно стремились использовать сервисы OpenAI для запроса информации из открытых источников, перевода, поиска ошибок при кодировании и выполнения базовых задач по кодированию", - заявили в компании, занимающейся искусственным интеллектом.
Например, российская национальная государственная группа, отслеживаемая как Forest Blizzard (она же APT28), как говорят, использовала свои предложения для проведения исследований с открытым исходным кодом в области протоколов спутниковой связи и технологии получения радиолокационных изображений, а также для поддержки скриптовых задач.
Ниже перечислены некоторые другие известные хакерские группы -
"Эти принципы включают идентификацию и действия против злоумышленников, уведомление об использовании другими поставщиками услуг искусственного интеллекта, сотрудничество с другими заинтересованными сторонами и прозрачность", - сказал Редмонд.
Выводы взяты из отчета, опубликованного Microsoft в сотрудничестве с OpenAI, в обоих из которых говорится, что они сорвали усилия пяти связанных с государством субъектов, которые использовали свои сервисы искусственного интеллекта для совершения вредоносных кибератак путем закрытия их активов и учетных записей.
"Языковая поддержка является естественной особенностью LLM и привлекательна для субъектов угроз, постоянно уделяющих внимание социальной инженерии и другим методам, использующим ложные, вводящие в заблуждение сообщения, адаптированные к работе их целей, профессиональным сетям и другим отношениям", - говорится в отчете Microsoft, опубликованном в Hacker News.
Хотя на сегодняшний день не было обнаружено никаких значительных или новых атак с использованием LLM, состязательное изучение технологий искусственного интеллекта вышло за рамки различных этапов цепочки атак, таких как разведка, помощь в кодировании и разработка вредоносного ПО.
"Эти субъекты обычно стремились использовать сервисы OpenAI для запроса информации из открытых источников, перевода, поиска ошибок при кодировании и выполнения базовых задач по кодированию", - заявили в компании, занимающейся искусственным интеллектом.
Например, российская национальная государственная группа, отслеживаемая как Forest Blizzard (она же APT28), как говорят, использовала свои предложения для проведения исследований с открытым исходным кодом в области протоколов спутниковой связи и технологии получения радиолокационных изображений, а также для поддержки скриптовых задач.
Ниже перечислены некоторые другие известные хакерские группы -
- Эмеральд Слит (он же Кимуски), участник северокорейских угроз, использовал LLM для выявления экспертов, аналитических центров и организаций, занимающихся вопросами обороны в Азиатско-Тихоокеанском регионе, выявления общедоступных недостатков, помощи в выполнении основных задач по написанию сценариев и разработке контента, который может быть использован в фишинговых кампаниях.
- Crimson Sandstorm (он же Imperial Kitten), иранский злоумышленник, который использовал LLM для создания фрагментов кода, связанных с разработкой приложений и веб-сайтов, генерации фишинговых электронных писем и исследования распространенных способов, которыми вредоносное ПО может избежать обнаружения
- Charcoal Typhoon (он же Aquatic Panda), китайский злоумышленник, который использовал LLM для исследования различных компаний и уязвимостей, генерации сценариев, создания контента, который может быть использован в фишинговых кампаниях, и определения методов поведения после компрометации
- Salmon Typhoon (он же Maverick Panda), китайский исполнитель угроз, который использовал LLM для перевода технических документов, получения общедоступной информации о нескольких разведывательных агентствах и региональных исполнителях угроз, устранения ошибок в кодировании и поиска тактики сокрытия, позволяющей избежать обнаружения
"Эти принципы включают идентификацию и действия против злоумышленников, уведомление об использовании другими поставщиками услуг искусственного интеллекта, сотрудничество с другими заинтересованными сторонами и прозрачность", - сказал Редмонд.