Man
Professional
- Messages
- 2,963
- Reaction score
- 486
- Points
- 83
Правоохранители опасаются, что использование генеративных инструментов для создания контента с сексуальной эксплуатацией детей усложнит поиск реальных жертв и борьбу с насилием во всем мире ИИ-программы, известные как диффузионные модели, могут в считанные секунды создать любое изображение по простому запросу, чем активно теперь пользуются педофилы. На «специализированных» форумах в даркнете следователи обнаружили тысячи порноизображений детей, и некоторые из них могли быть реальными жертвами.
В то же время есть изображения, которые используют на фото детей, не существующих в реальности – и это вызвало большую дискуссию о том, нарушают ли их авторы тогда вообще федеральные законы о защите детей? В Минюсте США отвечают утвердительно, хотя ни один реальный пример обвинения не привели.
Такие инструменты как DALL-E, Midjourney и Stable Diffusion используют миллиарды изображений, взятых из интернета для генерации собственных работ – и некоторые действительно включают фото реальных детей, взятых с фотосайтов или личных блогов.
В то же время есть изображения, которые используют на фото детей, не существующих в реальности – и это вызвало большую дискуссию о том, нарушают ли их авторы тогда вообще федеральные законы о защите детей? В Минюсте США отвечают утвердительно, хотя ни один реальный пример обвинения не привели.
Такие инструменты как DALL-E, Midjourney и Stable Diffusion используют миллиарды изображений, взятых из интернета для генерации собственных работ – и некоторые действительно включают фото реальных детей, взятых с фотосайтов или личных блогов.