В Казахстане вступит в силу второй в мире закон об искусственном интеллекте: проанализируй ИИ

Искусственный интеллект, ИИ, AI, интеллектуальные компьютерные программы, интеллектуальная компьютерная программа, современные технологии, цифровизация , фото - Новости Zakon.kz от 24.11.2025 19:08 Фото: unsplash
Библиотека данных, модель искусственного интеллекта, текстовый запрос, синтетические результаты деятельности систем ИИ… с объяснения этих понятий начинается текст Закона РК "Об искусственном интеллекте". Zakon.kz пишет о том, что он представляет собой и каких изменений ждать казахстанцам.

Сейчас уже никто не вспомнит, когда конкретно появился ИИ… Но закон любит точность, и де-юре есть четкая дата: 1 августа 2024 года, когда вступил в силу первый в мире закон об искусственном интеллекте – Artificial Intelligence Act. Когда формально началась новая ИИ-эпоха.

Второй по счету после ЕС юрисдикцией, где появился такой отдельный специальный закон, стал Казахстан. 17 ноября 2025 года Закон РК "Об искусственном интеллекте" был подписан президентом РК, а 18 января 2026 года будет введен в действие. Точнее, пакет НПА. Кроме Закона РК "Об искусственном интеллекте", это также изменения и дополнения в другие законодательные акты РК по вопросам ИИ и цифровизации, а также поправки в КоАП.

Закон сам по себе небольшой – 31 статья – что, учитывая безграничную и расширяющуюся как Вселенная тему, заставляет думать, что он будет не раз дополняться. Но с чего-то же надо начинать?!

Учиться, делать промпты и еще раз учиться

И для начала в статье 1 Закона дается перечень важнейших понятий, что одновременно является короткой вводной, как вообще ИИ действует.

"Искусственный интеллект – функциональная способность к имитации когнитивных функций, характерных для человека, обеспечивающая результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их".

Таково отныне официальное (юридическое) определение ИИ. Всё начинается с программы:

"Модель искусственного интеллекта – программный продукт, разработанный для выполнения специализированных задач и способный адаптироваться к изменяющимся условиям, обучаться на основе накопленного опыта и оптимизировать процессы и результаты своей деятельности".

Ключевое слово – обучаться:

"Обучение модели искусственного интеллекта – процесс обработки представленных или накопленных данных с целью формирования или совершенствования способности модели выполнять интеллектуальные задачи".

Следующий вопрос – где учиться. Ясное дело – в библиотеке:

"Библиотека данных – совокупность структурированных и (или) сгруппированных данных, пригодных для обучения моделей искусственного интеллекта".

Итак, модель ИИ обучилась (на самом деле ее обучили, напитали данными), чтобы в дальнейшем работать. Впрочем, как известно, ум учится всю жизнь, искусственный – не исключение.

Возникает действующая система ИИ, состоящая из самого "объекта информатизации, функционирующего на основе одной или нескольких моделей ИИ", и пользователей системы искусственного интеллекта. Т.е. системы – не просто модели, к примеру, литературная нейросеть Claude 3.5 Sonnet или музыкальная Suno AI, но и те товарищи, которые ими пользуются. Почему?

Пользователю система ИИ нужна "для выполнения конкретной функции и (или) задачи". Он делает "текстовый запрос – запрос, выраженный в письменном виде или электронной форме, задание или иное сообщение пользователя, направляемое в систему искусственного интеллекта". В результате своего промпта пользователь получает результат деятельности системы искусственного интеллекта: информацию, решение, действия, работы, услуги. И не только простой результат, но и:

"Синтетические результаты деятельности систем искусственного интеллекта – изображение, видео, аудио, тексты или их комбинации, созданные или измененные системой искусственного интеллекта, имитирующие внешность, голос, поведение физического лица или события, которые фактически не происходили".

Но при этом, что характерно, благодаря запросам продолжается обучение ИИ. Такой вот ликбез, который предлагает статья 1 Закона. Однако это лишь вводная часть, а закон – это инструмент для того, чтобы регулировать действия в реальных запутанных ситуациях, определять пути для решения конкретных проблем. Которых до принятия закона обозначено не было. Поэтому обратимся к отдельным нормам.

Кто автор произведения, сгенерированного с участием ИИ

Когда закон "Об искусственном интеллекте" еще только задумывался, уже тогда перед разработчиками стояли две важнейшие задачи. О них сказано в Концепции правовой политики РК (пункт 4.13.) от 15.10.2021, когда в Казахстане впервые и подняли эту тему:

"Необходимость правового регулирования искусственного интеллекта и робототехники определяется в первую очередь решением вопроса распределения ответственности за вред, причиненный их действиями, а также решением проблемы определения принадлежности права интеллектуальной собственности на произведения, созданные с участием искусственного интеллекта".

Поговорим сейчас о второй проблеме. В казахстанском законе об ИИ есть статья 23 "Авторское право". Приведем полный текст этой статьи, состоящей из 5 пунктов:

  1. "Произведения, созданные с использованием систем искусственного интеллекта, охраняются авторским правом только в случае наличия творческого вклада человека в их создание.
  2. Текстовые запросы, направляемые в системы искусственного интеллекта, являющиеся результатом интеллектуальной творческой деятельности человека, признаются объектами авторского права в соответствии с законодательством РК об авторском праве и смежных правах.
  3. Использование произведений для обучения моделей искусственного интеллекта не относится к случаям свободного использования произведений в образовательных или научных целях, предусмотренным законодательством РК об авторском праве и смежных правах.
  4. Использование произведений для обучения моделей искусственного интеллекта не предполагает их использования в формах, относящихся к личным неимущественным и имущественным (исключительным) правам автора, включая воспроизведение, распространение, переработку, публичный показ, исполнение, сообщение в эфир или по кабелю, доведение до всеобщего сведения и иные действия, предусмотренные законодательством РК об авторском праве и смежных правах.
  5. Использование произведений для обучения моделей искусственного интеллекта допускается только при отсутствии запрета со стороны автора или правообладателя, выраженного в машиночитаемой форме".

Итак, что мы видим? Авторские права на произведения, созданные с участием ИИ, принадлежат в одних случаях пользователям, в других – собственникам (создателям) систем ИИ. Зависит от того, используются данные для обучения "моделей ИИ" или в других целях.

Когда авторские права на созданный с участием ИИ контент принадлежат собственникам (создателям)? Представим, что какой-нибудь Google или Open AI разработали то, что называется LLM, large language model, большую языковую модель с триллионом токенов (то есть смысловых единиц), притом самообучающуюся. То есть с каждым ее использованием она улучшается, совершенствует связи и оттачивает оттенки смыслов.

Но использование бывает двух видов. Первый – когда используются данные для самообучения. Всякая оцифрованная информация, к которой у нейронных сетей есть доступ через интернет, – это, по сути, пища для ИИ. Или строительный материал, из которых они и состоят.

Программное обеспечение находится в собственности разработчиков (или правообладателей). И если хозяева тех данных, за счет которых LLM эволюционирует, "машиночитаемо" не запретили ими пользоваться, всё – включая контент, который они создадут своими задачами – принадлежит собственникам созданной системы ИИ (пункт 5 статьи 23).

Однако, если запросы, промпты задают пользователи, это уже их авторское участие. И они имеют право интеллектуальной собственности на те произведения, которые создали с помощью системы. Что логично: ведь для того они продуктом и пользуются.

Логично-то логично, но есть одно темное место. Из содержания упомянутой статьи 23 (пункта 2) Закона РК "Об искусственном интеллекте" следует, что объектами авторского права признаются только текстовые запросы, промты, поскольку они являются "результатом интеллектуальной творческой деятельности человека". Т.е. сделавшие запросы пользователи, бесспорно, обладают авторскими правами на них – промты, а вот насчет ответов ИИ такой однозначности нет.

Напомним, сказано лишь (в пункте 1 статьи 23 Закона): "Произведения, созданные с использованием систем искусственного интеллекта, охраняются авторским правом только в случае наличия творческого вклада человека в их создание".

Но ведь творческий вклад имеется как со стороны пользователя, так и со стороны создателя-собственника, поэтому они, скажем так, – соавторы. На практике это означает, что пользователи – авторы промптов могут использовать созданные произведения с участием ИИ как собственность, однако владельцы систем ИИ всегда могут заявить о своих правах тоже.

Чтобы не было "бунта машин"

В статье 17 Закона сформулирован правовой режим систем искусственного интеллекта. В чем его суть?

Все системы ИИ в зависимости от степени воздействия на безопасность пользователей, общества и государства подразделяются на системы:

  1. минимальной степени риска – нарушение или прекращение их функционирования окажет минимальное влияние на пользователей;
  2. средней степени риска – разного рода сбои могут причинить моральный вред или нанести материальный ущерб;
  3. высокой степени риска – нарушение или прекращение функционирования чреваты возникновением чрезвычайных ситуаций социального или техногенного характера.

Последний риск из перечисленных – тот самый эксплуатируемый в антиутопиях "бунт машин", приводящий к "значительным негативным последствиям для обороны, безопасности, международных отношений, экономики, отдельных сфер хозяйства, пользователей, инфраструктуры РК, жизнедеятельности физических лиц". И потому системы ИИ высокой степени риска приравниваются к государственным в части соблюдения требований по обеспечению информационной безопасности.

Кроме того, на территории РК запрещаются создание и эксплуатация систем искусственного интеллекта, обладающих одной из следующих функциональных возможностей:

  1. использование подсознательных, манипулятивных или иных методов, искажающих поведение физического лица и ограничивающих способность принимать осознанные решения или вынуждающих принимать против воли и во вред;
  2. использование моральной и (или) физической уязвимости физического лица из-за возраста, инвалидности, социального положения и любых иных обстоятельств с целью причинения вреда;
  3. оценка и классификация физических лиц в течение определенного периода времени на основе их социального поведения или личных характеристик;
  4. сбор и обработка персональных данных с нарушением законодательства РК о персональных данных и их защите;
  5. классификация физических лиц на основе их биометрических данных для формирования выводов об их расе, политических взглядах, религиозной принадлежности и по любым иным обстоятельствам (критериям) в целях использования для какой-либо дискриминации физического лица;
  6. определение эмоций физического лица без его согласия, за исключением случаев, предусмотренных законами РК;
  7. создание и распространение запрещенных законами РК результатов деятельности систем искусственного интеллекта.

В принципе, правовой режим ИИ в казахстанском законе схож с тем, что установлен первым в мире европейским AIA – Artificial Intelligence Act. Что объяснимо. Однако есть и отличия.

Например, в Европе запрещается удаленная биометрическая идентификация физических лиц в реальном времени, в общественных местах. Такой запрет в Европе действует с 2021 года: это не столько про искусственный интеллект, сколько про "западные демократические стандарты". При этом, однако, табу не распространяется на ИИ-системы, используемые в военных и прочих "специальных" целях.

В Казахстане нашли другое – в плане юридической техники – решение. Т.е. изначально такой запрет был прописан, а именно в пп. 7) пункта 3 статьи 18 того законопроекта, который датирован январем 2025 года и который, собственно, поступил в работу в Мажилис, будучи презентован 3 марта 2025 года.

Однако в финальной редакции Закона РК "Об искусственном интеллекте" этот подпункт исключили: сама по себе удаленная биометрическая идентификация физических лиц не запрещена. Но если такая система ИИ относится к высокой степени риска (а других такого рода и быть не может), то приравнивается к государственной со всеми вытекающими.

Корректировку сделали еще и потому, что в целях национальной безопасности систему распознавания лиц с участием ИИ в Казахстане внедрили еще год назад, в 2024-м.

Полностью автономные системы искусственного интеллекта

Кроме того, в финальной редакции закона "Об искусственном интеллекте" разрешили использовать "полностью автономные системы искусственного интеллекта". В изначальном варианте такой запрет был. Почему это важно и что скрыто всего за несколькими словами?

ИИ для своей работы нуждается в библиотеках данных, и с самого своего появления он искал данные в интернете, совершая т.н. облачные вычисления. Практически неограниченный доступ ко всем оцифрованным данным – это, конечно, плюс. Другой плюс для государства и граждан: системы ИИ, точнее, их владельцев и пользователей, можно контролировать.

Но есть и жирный минус – критическая зависимость от качества работы интернета. Тем более – от его наличия. И даже от того, нет ли перебоев с электричеством в сетях. Другой минус – возможность утечек и атак.

Поэтому, когда позволил прогресс, появились системы ИИ, которые работают не с облачными, а с собственными мощностями, установленными на автономный модуль. Меньше данных, но для некоторых функций вполне достаточно. Зато защита и независимость от внешних факторов.

Примеры: автоматизированные заводы и склады, системы безопасности на "чувствительных" объектах (шахты, электростанции, оборона и т.д.), медицинские аппараты, беспилотный транспорт. В общем, много всего – и чем дальше, тем будет больше.

Но в Казахстане могло и не быть. В пункте 3 статьи 18 упомянутого выше изначального варианта законопроекта об ИИ был обозначен запрет на такого рода модели ИИ:

"На территории РК запрещается создание и выпуск в обращение полностью автономных систем искусственного интеллекта".

В финальной редакции, т.е. в принятом и подписанном 17 ноября 2025 года Законе РК "Об искусственном интеллекте", из текста нормы (перемещенной в пункт 3 статьи 17) выделенные слова убрали, оставив запрет лишь для систем ИИ с особенными функциональными возможностями (использование манипулятивных методов, определение эмоций физического лица без его согласия и прочие технологии, о которых шла речь в предыдущей главе).

А значит, полностью автономные системы ИИ в Казахстане разрешены. Что, безусловно, позволит эффективнее развивать экономику ИИ.

Почему так произошло?

Первоначально законопроект был больше нацелен на создание безопасной цифровой среды – короче, против мошенников в этой сфере. Выше мы уже говорили, что функционирование нейросети через интернет позволяет (государствам, надгосударственным структурам) ее контролировать, что на первый взгляд облегчает обеспечение безопасности.

Но с развитием семимильными шагами ИИ стал очевиден его экономический потенциал, и это отразилось на целях по развитию законодательства:

"Регулирование искусственного интеллекта должно быть нацелено на его развитие, а не ограничение. Широкое внедрение этой высокой технологии открывает огромные возможности, которыми мы должны непременно воспользоваться".Цитата из интервью Президента Казахстана "Цель – укрепить экономику и суверенитет"

К слову, о том, что запрет полностью автономных систем ИИ никак не гармонирует с этими поставленными задачами, Zakon.kz публиковал статью. Просто констатируем – норму отредактировали.

Кстати, ввиду нередких, к сожалению, утечек персональных данных из разного рода баз это еще большой вопрос, что безопаснее: облачные или автономные системы ИИ.

Наказание за дипфейки и отсутствие маркировки: сделано ИИ

В завершении – об ответственности. А именно, поправками в КоАП вносится новая статья 641-1 "Нарушение законодательства РК в сфере искусственного интеллекта". Оно может быть совершено в виде:

  • необеспечения собственниками или владельцами систем искусственного интеллекта информирования пользователей о синтетических результатах деятельности системы искусственного интеллекта, которые могут ввести их в заблуждение;
  • неосуществления собственниками или владельцами систем искусственного интеллекта управления рисками систем искусственного интеллекта высокой степени риска, повлекшего негативное воздействие на здоровье или благополучие людей, создание или распространение запрещенной, ложной информации, дискриминацию или нарушение прав человека и причинение иного вреда, если это действие (бездействие) не содержит признаков уголовно наказуемого деяния.

Другими словами, любой контент, созданный с участием ИИ, надо будет маркировать. Такое требование содержится в Законе РК "Об искусственном интеллекте" в статье 21:

"Пользователи должны быть проинформированы о том, что товары, работы и услуги произведены или оказываются с использованием систем искусственного интеллекта. Распространение синтетических результатов деятельности систем искусственного интеллекта допускается только при условии их маркировки в машиночитаемой форме и сопровождения визуальной либо иной формой предупреждения".

Иначе – штраф:

  • на физических лиц – в размере 15 МРП,
  • на субъектов малого предпринимательства или некоммерческие организации – в размере 20 МРП,
  • на субъектов среднего предпринимательства – в размере 30 МРП,
  • на субъектов крупного предпринимательства – в размере 100 МРП.

Ну вот и дождались: за дипфейки будут наказывать. Информационное пространство заполонил ложный контент, будь то созданные для развлечения посредством ИИ несуществующие музыкальные каверы, немыслимые видео и фото, нафантазированные ИИ статьи, так и – что опаснее – подделки, предназначенные для мошенничества.

Но есть одно "но".

Привлекать к ответственности будут лишь собственников (владельцев) систем ИИ. А если фейки "грузит" в интернете пользователь, с ним как? Пока не вполне понятно. Проблема в том, что найти каждого пользователя – немалый труд. Возможно, поэтому и пошли по другому пути: государство обязывает собственников систем ИИ отвечать за художества своих пользователей. А уж компании, в свою очередь, пусть разбираются с ними сами. Найти своих клиентов и отключить от какого-нибудь чата для них труда не составит.

Однако наличие границ между юрисдикциями (пользователь – в РК, а собственник – где-нибудь в США) несколько осложняет эту схему.

Зато разобрались в другом вопросе. Повторим, помимо принятия собственно закона об ИИ, вносятся сопутствующие правки и в "сопредельные" (в данном вопросе) НПА.

Например, Закон РК "О масс-медиа" дополняют нормой (пункт 7 статьи 14) следующего содержания:

"Распространение продукции масс-медиа, созданной с использованием системы искусственного интеллекта, допускается только в случае обеспечения информирования о такой продукции в соответствии с Законом РК "Об искусственном интеллекте".

Речь об упомянутой выше маркировке. Заметьте, под словом масс-медиа понимаются не только средства массовой информации, но и т.н. интернет-ресурсы (пп. 20) статьи 1 Закона РК "О масс-медиа").

Интернет-ресурс – это необязательно интернет-издание, т.е. деятельностью которого являются сбор и распространение информации. Есть и такие, у которых иные цели и задачи. Интернет-ресурс, согласно определению, данному в Законе РК "Об информатизации" (пп. 46) статьи 1), это просто:

"Информация (в текстовом, графическом, аудиовизуальном или ином виде), размещенная на аппаратно-программном комплексе, имеющем уникальный сетевой адрес и (или) доменное имя и функционирующем в интернете".

А значит, любой интернет-ресурс обязан соблюдать определенные требования, предъявляемые к масс-медиа соответствующим законом, в том числе что касается ИИ. И не выдавать, условно говоря, искусство за реальность. Сфабрикованное с помощью ИИ – за созданные человеческим трудом тексты, фотографии, графику, музыку, видео...

Масс-медиа – пользователи, а не собственники систем ИИ. Поэтому их нельзя привлечь к ответственности по новой статье 641-1 КоАП. Однако отсутствие сопровождающей материалы должной маркировки означает ни много ни мало распространение ложной информации, за что предусмотрена ответственность статьей 456-2 КоАП. Это влечет штрафы:

  • 20 МРП – на пользователей онлайн-платформ;
  • 30 МРП – на блогеров, малый бизнес, некоммерческие организации;
  • 50 МРП – на субъектов среднего предпринимательства;
  • 100 МРП – на крупный бизнес.

Если же заведомо ложной информацией причинен существенный вред правам и законным интересам граждан, организаций, общества, государства, создана опасность нарушения общественного порядка – например, дипфейк с политическим окрасом – это уже уголовная ответственность (пп. 3) части 2 статьи 274 УК). Наказывается штрафом до 3000 МРП, а то и лишением свободы до 3 лет.

Разумеется, надо еще доказать, что было использование ИИ. Но первый шаг сделан.

Поделитесь новостью
Поделитесь новостью:
Следите за новостями zakon.kz в:
Если вы видите данное сообщение, значит возникли проблемы с работой системы комментариев. Возможно у вас отключен JavaScript
Сообщите об ошибке на странице
Ошибка в тексте: