GenAI: новая головная боль для команд безопасности SaaS

Father

Professional
Messages
2,278
Reputation
4
Reaction score
538
Points
113
Внедрение ChatGPT от открытого искусственного интеллекта стало определяющим моментом для индустрии программного обеспечения, начав гонку GenAI с ее выпуска в ноябре 2022 года. Поставщики SaaS теперь спешат обновить инструменты с расширенными возможностями повышения производительности, которые основаны на генеративном ИИ.

Инструменты GenAI облегчают разработчикам создание программного обеспечения, помогают отделам продаж писать обычные электронные письма, помогают маркетологам создавать уникальный контент по низким ценам и позволяют командам и креативщикам проводить мозговой штурм новых идей.

Недавние важные запуски продуктов GenAI включают Microsoft 365 Copilot, GitHub Copilot и Salesforce Einstein GPT. Примечательно, что эти инструменты GenAI от ведущих поставщиков SaaS являются платными улучшениями, что является явным признаком того, что ни один поставщик SaaS не захочет упустить выгоду от преобразования GenAI. Google скоро запустит свою платформу SGE "Поисковый генеративный опыт" для создания сводок премиум-класса, генерируемых искусственным интеллектом, а не списка веб-сайтов.

При таких темпах, это всего лишь вопрос короткого времени, прежде чем какая-либо форма возможностей искусственного интеллекта станет стандартной в приложениях SaaS.

Тем не менее, этот прогресс в области искусственного интеллекта в облачной среде сопряжен с новыми рисками и недостатками для пользователей. Действительно, широкое внедрение приложений GenAI на рабочих местах быстро вызывает опасения по поводу подверженности новому поколению угроз кибербезопасности.

Реагирование на риски GenAI
GenAI работает над обучающими моделями, которые генерируют новые данные, зеркально отражающие исходные, на основе информации, которой пользователи делятся с инструментами.

As ChatGPT теперь предупреждает пользователей при входе в систему: "Не разглашайте конфиденциальную информацию" и "проверяйте факты". Отвечая на вопрос о рисках GenAI, ChatGPT отвечает: "Данные, предоставляемые моделям искусственного интеллекта, таким как ChatGPT, могут использоваться для обучения и улучшения моделей, потенциально предоставляя их исследователям или разработчикам, работающим над этими моделями".

Эта уязвимость расширяет возможности для атак организаций, которые обмениваются внутренней информацией в облачных системах GenAI. Новые риски включают опасность утечки IP-адресов, конфиденциальных данных клиентов и личных данных, а также угрозы, связанные с использованием глубоких подделок киберпреступниками, использующими украденную информацию для фишинга и кражи личных данных.

Эти опасения, а также проблемы с соблюдением нормативных требований и требований правительства вызывают негативную реакцию на приложения GenAI, особенно в отраслях, обрабатывающих конфиденциальные данные. Согласно недавнему исследованию Cisco, более чем каждая четвертая организация уже запретила использование GenAI из-за рисков конфиденциальности и безопасности данных.

Банковская отрасль была одной из первых, кто запретил использование инструментов GenAI на рабочем месте. Руководители финансовых служб надеются на преимущества использования искусственного интеллекта для повышения эффективности и помощи сотрудникам в выполнении их работы, но 30% по-прежнему запрещают использование инструментов искусственного интеллекта в своих компаниях, согласно опросу, проведенному Arizent.

В прошлом месяце Конгресс США наложил запрет на использование второго пилота Microsoft на всех компьютерах государственного выпуска для усиления мер кибербезопасности. "Управление кибербезопасности сочло приложение Microsoft Copilot опасным для пользователей из-за угрозы утечки домашних данных в облачные сервисы, не одобренные Домом", - сказала главный административный сотрудник Дома Кэтрин Шпиндор, согласно отчету Axios. Этот запрет следует за предыдущим решением правительства заблокировать ChatGPT.

Проблема отсутствия надзора
Несмотря на реактивные запреты GenAI, организации, несомненно, испытывают проблемы с эффективным контролем использования GenAI, поскольку приложения проникают на рабочие места без обучения, надзора или ведома работодателей.

Согласно недавнему исследованию компании Salesforce, более половины пользователей GenAI используют на работе неутвержденные инструменты.Исследование показало, что, несмотря на преимущества, которые предлагает GenAI, отсутствие четко определенных политик в отношении его использования может подвергать бизнес риску.

Хорошая новость заключается в том, что ситуация может начать меняться уже сейчас, если работодатели будут следовать новым рекомендациям правительства США по усилению управления искусственным интеллектом.

В заявлении, опубликованном ранее в этом месяце, вице-президент Камала Харрис поручила всем федеральным агентствам назначить главного сотрудника по ИИ, обладающего "опытом, экспертизой и полномочиями для надзора за всеми технологиями ИИ ... чтобы убедиться, что ИИ используется ответственно".

Поскольку правительство США берет на себя ведущую роль в поощрении ответственного использования искусственного интеллекта и выделенных ресурсов для управления рисками, следующим шагом будет поиск методов безопасного управления приложениями.

Восстановление контроля над приложениями GenAI
Революция GenAI, риски которой остаются в области неизвестного, происходит в то время, когда акцент на защите периметра становится все более устаревшим.

Сегодня субъекты угроз все больше сосредотачиваются на самых слабых звеньях внутри организаций, таких как человеческие идентификаторы, нечеловеческие идентификаторы и неправильные конфигурации в приложениях SaaS. Субъекты угроз со стороны национальных государств недавно использовали такие тактики, как перебор паролей и фишинг, для успешной доставки вредоносных программ и программ-вымогателей, а также для проведения других вредоносных атак на приложения SaaS.

Усложняя усилия по обеспечению безопасности приложений SaaS, границы между работой и личной жизнью теперь размыты, когда дело доходит до использования устройств в гибридной рабочей модели. Из-за соблазнов, связанных с возможностями GenAI, остановить сотрудников от использования технологии станет невозможно, независимо от того, санкционировано это или нет.

Таким образом, быстрое внедрение GenAI среди сотрудников должно стать тревожным звонком для организаций, заставляющим их пересмотреть, есть ли у них инструменты безопасности для противодействия угрозам безопасности следующего поколения SaaS.

Чтобы восстановить контроль и получить представление о приложениях SaaS GenAI или приложениях, обладающих возможностями GenAI, организации могут обратиться к передовым решениям с нулевым доверием, таким как SSPM (SaaS Security Position Management), которые позволяют использовать искусственный интеллект при строгом мониторинге связанных с ним рисков.

Получение представления о каждом подключенном приложении с поддержкой искусственного интеллекта и оценка состояния его безопасности на предмет рисков, которые могут подорвать безопасность SaaS, позволит организациям предотвращать, обнаруживать и реагировать на новые и развивающиеся угрозы.
 
Top