Количество материалов детской порнографии, сгенерированных с помощью ИИ, выросло на 380% за год. Изображения стали «значительно более реалистичными»

Материалы, содержащие сексуализированное насилие над детьми, начали появляться в свободном онлайн-доступе. Эксперты говорят, что некоторые порнофейки не отличить от реальных изображений.
Редакция «Правил жизни»
Редакция «Правил жизни»

Изображения с сексуализированным насилием над детьми, созданные искусственным интеллектом (ИИ), становятся «значительно более реалистичными». По данным британской организации Internet Watch Foundation, контролирующей безопасность в интернете, количество таких материалов возросло на 380% за год. Об этом пишет The Guardian.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В 2024 году Internet Watch Foundation получила 245 сообщений о детской порнографии, созданной с помощью ИИ. Для сравнения: в 2023-м был зафиксирован только 51 случай. В общей сложности представители организации нашли 7644 подобных изображения, а также «небольшое количество видеороликов».

Большая часть такого контента относится к «категории А». Этим термином обозначают наиболее «экстремальные» материалы, включающие в себя изображение «проникающих сексуализированных действий» или садизм. Среди ИИ-материалов, которые удалось обнаружить Internet Watch Foundation, 39% относились к «категории А».

«Качество видеороликов, создаваемых с помощью искусственного интеллекта, улучшилось в геометрической прогрессии, и по мере развития технологии все типы изображений, создаваемых при участии ИИ, стали значительно более реалистичными», — заявили в Internet Watch Foundation.

Более того, по данным фонда, изображения с сексуализированным насилием над детьми, сгенерированные с помощью ИИ, все чаще появляются не только в даркнете, доступном через специализированные браузеры, но и в свободном онлайн-доступе. Причем некоторые подобные материалы настолько реалистичны, что их не могут отличить от порнофейков даже обученные аналитики.

Internet Watch Foundation также уточнила, что за 2024 год количество сайтов, на которых была размещена детская порнография, созданная нейросетями, увеличилось на 6%, до 291 273.

Вместе с этим распространяется и новая тревожная тенденция: в США подростки все чаще используют ИИ для создания и распространения обнаженных фотографий своих одноклассников. Подробнее о «новой форме травли» мы рассказывали здесь.