Новый отчет: Контент о сексуальном насилии над детьми и онлайн-риски для детей растут

Carding 4 Carders

Professional
Messages
2,731
Reputation
12
Reaction score
1,341
Points
113
Согласно недавнему отчету Thorn, технологической некоммерческой организации, миссия которой заключается в создании технологий для защиты детей от сексуального насилия, определенные онлайн-риски для детей растут. Исследования, представленные в отчете о новых онлайн-тенденциях в области сексуального насилия над детьми за 2023 год, указывают на то, что несовершеннолетние все чаще фотографируют себя сексуального характера и делятся ими. Эта деятельность может осуществляться по обоюдному согласию или принуждению, поскольку молодежь также сообщает о росте рискованных онлайн-взаимодействий со взрослыми.

"В нашем мире, связанном с цифровыми технологиями, материалы о сексуальном насилии над детьми легко и все чаще публикуются на платформах, которые мы используем в нашей повседневной жизни", - сказал Джон Старр, вице-президент по стратегическому воздействию Thorn. "Вредные взаимодействия между молодежью и взрослыми не изолированы от темных уголков Интернета. По мере того, как цифровое сообщество создает инновационные платформы, хищники используют эти пространства для эксплуатации детей и распространения этого вопиющего контента ".

Эти и другие тенденции, описанные в отчете о новых онлайн-тенденциях, согласуются с тем, о чем сообщают другие организации по защите детей. По данным кибертрансляции Национального центра по делам пропавших и эксплуатируемых детей (NCMEC), за последние пять лет количество файлов с материалами о сексуальном насилии над детьми (CSAM) увеличилось на 329%. Только в 2022 году NCMEC получила более 88,3 миллиона файлов CSAM.

Увеличению количества сообщений могут способствовать несколько факторов:
  1. Все больше платформ внедряют инструменты, такие как продукт Thorn Safer, для обнаружения известных CSAM с помощью хеширования и сопоставления.
  2. Онлайн-хищники становятся все более наглыми и используют новые технологии, такие как чат-боты, для расширения масштабов своего соблазнения. С 2021 по 2022 год NCMEC зафиксировал увеличение на 82% сообщений о онлайн-соблазнении детей для совершения сексуальных действий.
  3. Количество самогенерируемых CSAM (SG-CSAM) растет. Только с 2021 по 2022 год Фонд Internet Watch отметил рост SG-CSAM на 9%.
Этот контент представляет потенциальный риск для каждой платформы, на которой размещается пользовательский контент, будь то фотография профиля или обширное облачное хранилище.

Только технологии могут решить масштаб этой проблемы​

Хэширование и сопоставление - одна из важнейших технологий, которую технологические компании могут использовать, чтобы помочь защитить пользователей и платформы от рисков размещения этого контента, а также помочь остановить вирусное распространение CSAM и циклы повторной виктимизации.

Каждый год в Интернете публикуются миллионы файлов CSAM. Большая часть этих файлов относится к ранее зарегистрированным и проверенным CSAM. Поскольку контент известен и ранее добавлялся в хэш-лист НПО, его можно обнаружить с помощью хэширования и сопоставления.

Что такое хэширование и сопоставление?​

Проще говоря, хеширование и сопоставление - это программный способ обнаружения CSAM и пресечения его распространения в Интернете. Обычно используются два типа хеширования: перцептивное и криптографическое хеширование. Обе технологии преобразуют файл в уникальную строку чисел, называемую хэш-значением. Это похоже на цифровой отпечаток для каждого фрагмента контента.

Обнаружение CSAM


Для обнаружения CSAM контент хэшируется, а полученные значения хэшей сравниваются со списками хэшей известных CSAM. Эта методология позволяет технологическим компаниям идентифицировать, блокировать или удалять этот незаконный контент со своих платформ.

Расширяется список известных CSAM​

Хэширование и сопоставление - основа обнаружения CSAM. Поскольку оно основывается на сопоставлении со списками хэшей ранее зарегистрированного и проверенного контента, количество известных значений хэша CSAM в базе данных, с которыми компания сопоставляет, имеет решающее значение.

Обнаружение CSAM


Safer, инструмент для упреждающего обнаружения CSAM, созданный Thorn, предлагает доступ к большой базе данных, объединяющей более 29 миллионов известных хэш-значений CSAM. Safer также позволяет технологическим компаниям делиться друг с другом списками хэшей (по имени или анонимно), еще больше расширяя список известных CSAM, что помогает предотвратить их вирусное распространение.

Устранение CSAM из Интернета​

Чтобы искоренить CSAM из Интернета, каждая технологическая компания и НПО должны сыграть свою роль. "Платформы для размещения контента являются ключевыми партнерами, и Thorn стремится предоставить технологической индустрии инструменты и ресурсы для масштабной борьбы с сексуальным насилием над детьми", - добавила Старр. "Речь идет о защите наших детей. Речь также идет о том, чтобы помочь технологическим платформам защитить своих пользователей и самих себя от рисков, связанных с размещением этого контента. При наличии правильных инструментов Интернет может стать безопаснее".

Обнаружение CSAM


В 2022 году Safer хэшировала более 42,1 миллиарда изображений и видео для своих клиентов. В результате на их платформах было обнаружено 520 000 файлов известных CSAM. На сегодняшний день Safer помогла своим клиентам идентифицировать более двух миллионов фрагментов CSAM на своих платформах.

Чем больше платформ используют инструменты обнаружения CSAM, тем больше шансов, что тревожный рост материалов о сексуальном насилии над детьми в Интернете можно обратить вспять.
 
Top