Прямой вебинар: преодоление рисков утечки генеративных данных ИИ

Carding

Professional
Messages
2,829
Reputation
17
Reaction score
2,087
Points
113
По мере того, как внедрение инструментов генеративного ИИ, таких как ChatGPT, продолжает расти, возрастает и риск раскрытия данных. Согласно отчету Gartner "Новые технологии: 4 главных риска безопасности GenAI", конфиденциальность и защита данных являются одним из четырех основных возникающих рисков в генеративном ИИ. Новый вебинар с участием многократного CISO из списка Fortune 100 и генерального директора layerX, решения для расширения браузера, посвящен этому критическому риску.

На протяжении всего вебинара докладчики объяснят, почему безопасность данных представляет собой риск, и рассмотрят способность DLP-решений защищать от них или их отсутствие. Затем они расскажут о возможностях, требуемых решениями DLP, чтобы обеспечить предприятиям выгоду от производительности, которую могут предложить приложения GenAI, без ущерба для безопасности.

Риски для бизнеса и безопасности приложений с генеративным ИИ​

Риски безопасности GenAI возникают, когда сотрудники вставляют конфиденциальные тексты в эти приложения. Эти действия требуют тщательного рассмотрения, поскольку вставленные данные становятся частью обучающего набора ИИ. Это означает, что алгоритмы ИИ извлекают уроки из этих данных, включая их в свои алгоритмы для генерации будущих ответов.

Существует две основные опасности, связанные с таким поведением. Во-первых, непосредственный риск утечки данных. Конфиденциальная информация может быть раскрыта в ответе, сгенерированном приложением на запрос другого пользователя. Представьте сценарий, в котором сотрудник вставляет проприетарный код в генеративный ИИ для анализа. Позже другой пользователь может получить этот фрагмент кода как часть сгенерированного ответа, что поставит под угрозу его конфиденциальность.

Во-вторых, существует долгосрочный риск, связанный с хранением данных, соблюдением требований и управлением. Даже если данные не будут немедленно предоставлены, они могут храниться в обучающем наборе ИИ в течение неопределенного периода. Это поднимает вопросы о том, насколько надежно хранятся данные, кто имеет к ним доступ и какие меры принимаются для обеспечения того, чтобы они не были раскрыты в будущем.

Использование GenAI увеличилось на 44%​

Существует ряд конфиденциальных типов данных, которые подвержены риску утечки. Основными из них являются утечка финансовой информации о бизнесе, исходного кода, бизнес-планов и личных данных. Это может нанести непоправимый ущерб бизнес-стратегии, привести к потере внутренних IP-адресов, нарушению конфиденциальности третьих сторон и конфиденциальности клиентов, что в конечном итоге может привести к деградации бренда и юридическим последствиям.

Данные вызывают озабоченность. Исследование, проведенное layerX на собственных пользовательских данных, показывает, что использование сотрудниками приложений generative AI увеличилось на 44% в течение 2023 года, при этом 6% сотрудников вставляют конфиденциальные данные в эти приложения, 4% еженедельно!

Где DLP-решения не дают результатов​

Традиционно DLP-решения разрабатывались для защиты от утечки данных. Эти инструменты, которые на протяжении многих лет стали краеугольным камнем стратегий кибербезопасности, защищают конфиденциальные данные от несанкционированного доступа и передачи. Решения DLP особенно эффективны при работе с файлами данных, такими как документы, электронные таблицы или PDF-файлы. Они могут отслеживать поток этих файлов по сети и отмечать или блокировать любые несанкционированные попытки переместить их или предоставить общий доступ к ним.

Однако ландшафт безопасности данных меняется, как и методы утечки данных. Одной из областей, в которой традиционные DLP-решения терпят неудачу, является контроль вставки текста. Текстовые данные можно копировать и вставлять на разные платформы, не задействуя одни и те же протоколы безопасности. Следовательно, традиционные DLP-решения не предназначены для анализа или блокирования вставки конфиденциального текста в приложения с генеративным ИИ.

Более того, решения CASB DLP, подмножество технологий DLP, имеют свои собственные ограничения. Как правило, они эффективны только для санкционированных приложений в сети организации. Это означает, что если сотрудник вставит конфиденциальный текст в несанкционированное приложение ИИ, CASB DLP, скорее всего, не обнаружит или не предотвратит это действие, что сделает организацию уязвимой.

Решение: GenAI DLP​

Решением является генеративное ИИ DLP или веб-DLP. Генеративное ИИ DLP может непрерывно отслеживать действия по вставке текста на различных платформах и приложениях. Он использует алгоритмы ML для анализа текста в режиме реального времени, выявляя шаблоны или ключевые слова, которые могут указывать на конфиденциальную информацию. Как только такие данные обнаружены, система может предпринять немедленные действия, такие как выдача предупреждений, блокировка доступа или даже полное предотвращение вставки. Такой уровень детализации в мониторинге и реагировании - это то, чего не могут предложить традиционные DLP-решения.

Веб-DLP-решения делают все возможное и могут идентифицировать любые действия, связанные с данными, в веб-местоположениях и из них. Благодаря расширенной аналитике система может различать безопасные и небезопасные веб-местоположения и даже управляемые и неуправляемые устройства. Такой уровень сложности позволяет организациям лучше защищать свои данные и обеспечивать безопасный доступ к ним и их использование. Это также помогает организациям соблюдать нормативные акты и отраслевые стандарты.

Что Gartner может сказать о DLP? Как часто сотрудники посещают приложения generative AI? Как выглядит DLP-решение GenAI? Узнайте ответы и многое другое, зарегистрировавшись на вебинар здесь.
 
Top