Согласно исследованиям, количество противоправного контента, связанного с насилием над детьми, продолжает расти, и искусственный интеллект (ИИ) играет в этом значительную роль. В данной статье рассматривается, как злоумышленники используют современные технологии для создания контента, связанного с насилием над детьми.
Доступ к интернету и его последствия
Казахстан занимает одно из ведущих мест по уровню интернет-проникновения в Центральной Азии, где около 90% взрослого населения имеет доступ к сети. Дети начинают пользоваться интернетом в раннем возрасте: по данным исследования ЮНИСЕФ "Kazakhstan Kids Online" 2023 года, 46% детей впервые выходят в сеть в возрасте от пяти до восьми лет, а треть — в девять-двенадцать лет. Таким образом, к моменту поступления в среднюю школу, дети уже имеют значительный опыт онлайн-взаимодействия.
Исследование показывает, что 92% опрошенных детей ежедневно используют смартфоны для выхода в интернет, а более половины из них проводят два и более часа в день на играх или общении с друзьями. Это увеличение активности детей в сети на 20% за последние несколько лет вызывает серьезные опасения.
"По данным ЮНИСЕФ, 33% населения Казахстана — это дети (6,7 миллиона человек), и более половины из них активно используют интернет. Возраст первого выхода в сеть снижается: если раньше это были дети восьми-девяти лет, то сейчас — четыре-пять лет", — говорит основательница НПО "TechnoWomen" Азиза Шужеева.
Таким образом, более 3,3 миллиона детей в Казахстане активно потребляют разнообразный контент и общаются в социальных сетях, несмотря на то, что большинство платформ запрещает регистрацию до 13 лет. Однако 60% детей в возрасте девяти-десяти лет и 66% одиннадцати-двенадцати лет уже имеют аккаунты в соцсетях, многие из которых открыты для просмотра.
Угрозы в интернете: кибербуллинг и нежелательный контент
Интернет для детей в Казахстане в первую очередь ассоциируется с социальными сетями и развлекательными платформами. Исследования показывают, что 94% детей считают, что в интернете много полезного контента, однако существует и множество вредоносных материалов.
Сексуализированный контент представляет собой серьезную проблему: каждый пятый опрошенный ребенок хотя бы раз за год сталкивался с ним, а 7% — на регулярной основе. Более того, каждый двадцатый ребенок столкнулся с нежелательным сексуальным контактом онлайн.
Каждый четвертый ребенок, переживший неприятный опыт в сети, никому не рассказал об этом, а те, кто делился, чаще всего обращались к друзьям, а не к родителям.
"Чаще всего нежелательный сексуальный контакт в интернете исходил от знакомых: родственников, сверстников или друзей", — отмечает Шужеева.
Роль ИИ в сексуальной эксплуатации детей
С появлением генеративного ИИ возникли новые риски. Ранее для создания материалов с сексуальным насилием требовался реальный ребенок, теперь же достаточно публичной страницы несовершеннолетнего с несколькими фотографиями. Процесс настройки нейросети на конкретного человека занимает всего 15 минут.
"С помощью алгоритмов генерируются фейки, включая видео с изображениями конкретных детей в сексуальных контекстах. Это серьезная проблема, и исследований о влиянии на психику ребенка практически нет", — подчеркивает Шужеева.
Британская организация Internet Watch Foundation (IWF) зафиксировала резкий рост контента с ИИ, связанного с сексуальным насилием над детьми. В первой половине 2025 года было обнаружено 1 286 видеороликов, что в 643 раза больше по сравнению с предыдущим годом.
В 11 странах 1,2 миллиона детей сообщили о том, что их изображения были подвергнуты манипуляциям с помощью ИИ для создания откровенных сексуальных дипфейков.
Мировая статистика цифрового насилия над подростками
Проблема цифрового насилия вызывает беспокойство правозащитников. Например, в Великобритании за месяц было обнаружено почти 14 000 изображений, предположительно сгенерированных ИИ, с сексуальным насилием над детьми. В Корее правоохранительные органы сообщили о десятикратном увеличении преступлений на сексуальной почве с использованием ИИ с 2022 по 2024 год.
"Подростки гораздо более продвинуты в технологиях и могут легко формулировать соответствующие запросы для ИИ. Важно обучать их правилам безопасного поведения в сети", — говорит Андрей Сиденко, руководитель направления по детской онлайн-безопасности.
Как ИИ обучается генерировать порнографию
Некоторые ИИ-модели обучались на реальных фотографиях и видео с насилием над детьми, что приводит к тому, что травма реального ребенка встраивается в синтетический контент. Данные, на которых обучались публичные модели генерации изображений, содержали материалы сексуального насилия, попавшие туда при автоматическом сборе информации из интернета.
Для выявления и блокировки запрещенного контента нейросети должны обучаться на примерах, что требует ручной маркировки огромных массивов данных. Часто такие задачи передаются на аутсорсинг в страны с низкой оплатой труда, где могут работать даже несовершеннолетние.
Мировой опыт борьбы с ИИ-преступлениями
На данный момент ни одна страна не может считаться образцом в контроле этой сферы. Однако в США был принят закон Take It Down, вводящий уголовную ответственность за распространение материалов с несовершеннолетними, включая ИИ-сгенерированные. В Великобритании введен новый состав преступления за создание и распространение инструментов для генерации материалов сексуального насилия над детьми.
Ситуация в Казахстане
В Казахстане за первую половину 2025 года было зарегистрировано 65 тысяч репортов о контенте, связанном с потенциальной сексуальной эксплуатацией детей. Однако не все из них касаются порнографии. Например, система может классифицировать как таковые фотографии с обнаженными детьми, сделанные в рамках культурных мероприятий.
С начала 2025 года через систему "Кибернадзор" в Министерство культуры и информации было направлено 2 766 материалов порнографического содержания для блокировки. Ответственность за изготовление, хранение и распространение порнографических материалов, включая те, что с участием несовершеннолетних, предусмотрена статьей 311 Уголовного кодекса.
Что делать дальше?
Эксперты подчеркивают, что простое блокирование технологий не решит проблему. Необходимо массовое обучение пользователей, развитие алгоритмов блокировки противоправного контента и ужесточение цифрового законодательства. Важно также развивать киберполицию с конкретными механизмами и быстрыми алгоритмами решения проблем.
"Нужно учить детей цифровой гигиене и безопасному поведению в сети. Чем раньше начнем, тем лучше", — заключает Шужеева.
Казахстан принял закон об искусственном интеллекте, согласно которому весь сгенерированный контент должен маркироваться. Однако реализация этого закона требует четкого механизма и понимания, что именно нужно регулировать.