24 сентября 2025 года Мажилис принял закон "Об искусственном интеллекте". Впереди ещё рассмотрение в Сенате, однако, как показывает практика, на следующих этапах обычно больших изменений не происходит.
Закон вводит ряд ограничений для нейросетей в Казахстане, включая запреты на создание дипфейков и защиту прав потребителей. Корреспондент изучила закон и выделила основные моменты.
Сначала разберём базовые понятия.
Виды нейросетей
В законе указываются три вида нейросетей:
Первый — вспомогательный искусственный интеллект
Нейросеть помогает, но все решения принимает сам человек.
Второй вид — полуавтономный ИИ
Он принимает решения в рамках заданных параметров, но человек всё равно может вмешаться и изменить результат.
Третий тип — полностью автономный искусственный интеллект
Нейросеть принимает решения сама, без контроля и вмешательства человека.
Системы поделят и по уровню риска:
- Минимальный риск — если сбой почти не повлияет на пользователей.
- Средний — когда сбой может снизить эффективность работы, привести к убыткам.
- Высокий риск — случаи, когда проблемы с нейросетями способны вызвать ЧС, серьёзный ущерб для экономики, обороны, безопасности, инфраструктуры или жизни людей.
Документ предлагает категоризировать уровень опасности, указывая, что:
"Отнесение систем искусственного интеллекта к минимальной, средней либо высокой степени риска осуществляется её собственником и (или) владельцем в соответствии с правилами классификации объектов информатизации".
Системы высокого риска будут включены в список критически важных объектов, которые подлежат особой защите.
Запреты для ИИ: анализ эмоций, дискриминация и уязвимости
Закон вводит табу для искусственного интеллекта. В Казахстане будет запрещено создавать и запускать те виды ИИ, которые:
- Манипулируют людьми — воздействуют на подсознание и вынуждают принимать решения, способные причинить вред.
- Используют уязвимость — эксплуатируют возраст, инвалидность или социальное положение человека для создания угрозы или причинения вреда.
- Оценивают "социальное поведение" — ведут рейтинги граждан или групп по их личным характеристикам.
- Собирают биометрию из интернета — формируют базы лиц по случайным фото и видео.
- Дискриминируют — классифицируют людей по расе, религии, политическим взглядам или другим признакам.
- Считывают эмоции — анализируют настроение человека без его согласия.
- Следят в реальном времени — распознают лица в общественных местах онлайн (кроме отдельных случаев, прописанных в законе).
- Создают запрещённый контент — материалы, которые нарушают законодательство Казахстана.
"Системы искусственного интеллекта должны создаваться и эксплуатироваться таким образом, чтобы обеспечивать равенство и справедливость, с признанием достоинства каждого человека, его равной ценности и прав, исключая любую дискриминацию на основе расы, пола, возраста, религии или любых других социальных, культурных и индивидуальных характеристик", — говорится в документе.
При обсуждении закона депутат Екатерина Смышляева подчеркнула, что сам ИИ не признаётся субъектом права, и ответственность за все решения по-прежнему будут нести те, кто прибегает к его помощи, то есть люди.
Запрет на анализ эмоций
Депутат Екатерина Смышляева сообщила, что ИИ запретят анализировать эмоции людей. Это не означает, что с чатом нельзя будет общаться как с психологом.
Вице-министр цифрового развития Дмитрий Мун объяснил, что важно разделять полезное и рискованное считывание эмоций. Например, нейросети могут помогать госорганам понимать настроение обращений граждан.
Однако системы, которые считывают эмоции для манипуляции, будут под запретом.
Дипфейки и права потребителей
Закон вводит обязательную маркировку синтетического контента, созданного нейросетями. Создатели фото, видео или текста должны указывать, что они сгенерированы при помощи ИИ.
Потребителей теперь обязательно нужно предупреждать о том, что им оказывается услуга или продаётся товар, созданные при помощи ИИ.
Авторские права и ИИ
Согласно новому закону, произведения, полностью созданные ИИ без участия человека, не защищены авторским правом. Если человек не вложил своё творчество, то и права на такой контент у него не возникает.
Креативные запросы пользователей к нейросетям могут считаться охраняемыми. Чтобы обучать нейросети, им нужно "скармливать" много информации, что неизбежно приводит к проблемам с авторским правом.
Авторам дадут право запретить использование их контента для обучения нейросетей. Если автор ставит запрет, его произведение нельзя будет использовать для обучения.
"Использование произведений для обучения модели искусственного интеллекта допускается только в том случае, если автор или правообладатель не наложили запрет в машиночитаемой форме", — добавила депутат Смышляева.
Если кто-то всё-таки использует охраняемый авторским правом контент, это будет конфликт между гражданами или организациями, и автор может подать в суд.
"Допустим, я написал сказку про Пиноккио. Вы взяли моё произведение, через GPT написали сказку и назвали её 'Буратино'. Вы начинаете зарабатывать на этом. Я имею право подать на вас в суд, потому что вы на базе моего произведения начинаете зарабатывать и мне не платите", — добавил Мун.
Когда заработают эти запреты для ИИ?
На старте, то есть сразу после принятия закона, глобальных ограничений не будет. Регулирование внедрят позже через подзаконные акты и нормативные документы.
Вице-министр Мун отметил, что важно не запрещать всё заранее, а создавать правила игры.
"Можно закон построить так: вот ты можешь условно каждый шаг описать и сказать, если ты так не делаешь, то всё плохо. А можно наоборот — просто сказать: если у тебя были плохие намерения, и они были доказаны, тогда вот это условно запрещено. Мы пошли по второму подходу. Запрещаем то, что точно плохо. Всё остальное пока разрешаем и потом будем дорегулировать требованиями, подзаконками. Но принципы основные пишем".
Запреты заработают после того, как закон подпишет Президент.
Интересно, что 18 сентября этого года в Казахстане создали Министерство искусственного интеллекта и цифрового развития, которое будет курировать вопросы, связанные с ИИ.