Станет ли закон "Об искусственном интеллекте" основой для развития ИИ-технологий в Казахстане

Фото: pixabay
Казахстан будет, возможно, второй по счету юрисдикцией – после Европейского союза, где примут специальный закон "Об искусственном интеллекте". Сейчас проект обсуждают в Мажилисе. Но насколько он отвечает колоссальным планам на развитие сферы ИИ, которые озвучены в Послании президента РК?

Значительная часть Послания главы государства от 8 сентября 2025 года посвящена масштабному внедрению технологий искусственного интеллекта в Казахстане. Среди поручений президента РК: создание нового отдельного министерства ИИ, принятие Цифрового кодекса, создание Центра регуляторного интеллекта, который должен навести порядок в огромном массиве законодательства, регулирующего предпринимательскую деятельность.

Задачи по развитию сферы искусственного интеллекта в Казахстане поставлены президентом РК несколько лет назад и остаются на его личном контроле.

3 марта 2025 года проект Закона РК "Об искусственном интеллекте" презентован в Мажилисе. С началом очередной парламентской сессии обсуждение должно вступить в решающую фазу. Напомним, какую задачу поставил глава государства на совещании по вопросам развития искусственного интеллекта 11 августа 2025 года с участием премьер-министра РК, Администрации президента РК и глав центральных исполнительных органов:

"Необходимо разработать закон, максимально благоприятный для привлечения инвестиций и внедрения технологий. В октябре мы должны добиться конкретных результатов по данному вопросу".

Вопрос в том, насколько законопроект в нынешнем виде соответствует поставленным задачам: привлечение инвестиций и внедрение технологий. Данная статья – попытка проанализировать и ответить на этот вопрос.

В своем Послании глава государства говорил и о повсеместном внедрении ИИ в различные сферы экономики, и о необходимости привлечения инвестиций (и не только в традиционные сырьевые отрасли). Что взаимосвязано, ведь именно от инвесторов, кроме финансовых вложений, ожидается привнесение в Казахстан самых передовых технологий. А значит, инвесторов нужно привлекать – и такая возможность заложена в Послании:

"В случае необходимости можно предусмотреть преференции для инвесторов, работающих в области высоких технологий".

Но это не единственное условие: инвесторам важен стабильный и предсказуемый политический и регуляторный климат.

Об этом же, в принципе, говорится и в законопроекте – в пп. 3) пункта 2 статьи 3 указано, что одной из основных его задач является "создание благоприятных условий для привлечения инвестиций в развитие сферы искусственного интеллекта".

Но конкретный механизм создания благоприятных условий законопроектом не предусмотрен.

А это что значит?

Казахстан с населением 20 миллионов человек с точки зрения крупных цифровых компаний – очень небольшая юрисдикция. Принимая решение о выходе на новый рынок, инвестор кроме потенциальной прибыльности оценивает, сможет ли он запустить свои сервисы, не изменяя их существенно под локальную регуляторику.

Если соответствие "не очень", то порой инвестору разумнее отказаться от рынка, чем адаптироваться под новые сложные условия, создавая для себя риски нарушения законодательства (и штрафных санкций). Так, компания OpenAI, разработчик ChatGPT, предупредила в свое время о том, что может уйти из Европы при принятии AI Act в ограничивающей развитие технологии редакции.

А теперь – к деталям.

ИИ – это не только ChatGPT

Законопроект презентован как основной в сфере искусственного интеллекта, а это означает, что разработчики в любой сфере будут "примерять" его положения под свои продукты и сервисы.

Искусственный интеллект – технология, применимая практически к любой деятельности, но это не означает, что правовое регулирование применения ИИ в разных сферах идентично.

Поясним на примерах. Искусственный интеллект активно используется, к примеру, в медицине: работе медицинской техники, разработке медицинских препаратов, диагностике, составлении персонализированных планов лечения и т.д. Один из основных принципов применения ИИ в медицине – обоснованность решений в отношении конкретного пациента данными, строго сегментированными по полу и возрасту.

Это значит, что диагноз в отношении ребенка должен быть сделан на основании обобщенных данных детей. А диагноз, например, рака яичников – на основании данных о женщинах. Сегментация производится и по месту проживания (жители Приаралья имеют искаженную структуру ДНК, которая вызывает рак пищевода), а также по национальному или расовому признаку (у азиатов более низкие риски ожирения, чем у европейцев).

Согласно же законопроекту (принцип справедливости и равенства, статья 6):

"Системы ИИ должны создаваться и эксплуатироваться таким образом, чтобы обеспечивать равенство и справедливость, исключая любую дискриминацию на основе расы, пола, возраста, религии или любых других социальных, культурных и индивидуальных характеристик".

Но ведь этот принцип можно истолковать как запрет на использование сегментированных данных! И тогда ИИ-медицина будет бессильна…

Скоринговые системы, основанные на сегментированных данных, используются и во многих технологических компаниях, которые работают с BigData. К примеру, каршеринговые компании дают автомобиль только водителям, достигшим определенного возраста, имеющим стаж и водительскую лицензию, не совершивших большого числа ДТП и пр. А водителям, которых лишили водительских прав, не дают. Дискриминация – да? Запретить дискриминацию – пустить за руль всех.

Далее. Мажилисмены поднимали вопрос об ограничении использования ChatGPT в школах. Это, впрочем, мировая проблема, решение которой уже предложено UNESCO. Глава государства в Послании подчеркнул, что формирование компетенций в области искусственного интеллекта должно начинаться еще со школьной скамьи. В этой связи "для учащихся школ необходимо подготовить программу и учебные материалы по основам искусственного интеллекта".

Однако проектом закона не установлены критерии к сервисам на основе ИИ для образовательных учреждений.

Еще один важный социальный аспект использования ИИ – высокие риски невостребованности людей в связи с заменой их роботами и технологиями. Казахстан – социальное государство, это закреплено в Конституции. Страна гарантирует своим гражданам социальное обеспечение и социальную помощь в установленных законом случаях. Соответственно, рано или поздно в Трудовой кодекс будут внесены требования о защите работников в связи с внедрением технологий ИИ.

Но почему это не сделано прямо сейчас? Почему вместе с основным законом поправки сразу не вносятся во все необходимые отраслевые акты?

Можно перечислить еще ряд сфер, в отношении которых критерии использования ИИ законопроектом не предусмотрены и в отношении которых будущий закон даже близко не может быть применим.

Вообще, он как будто бы разработан только для очень узкого использования ИИ в качестве опасной игрушки (ChatGPT) физическими лицами в интернете либо при пользовании сервисами цифровых компаний: равенство и справедливость, достоинство каждого человека, право быть информированным, защита персональных данных… Но ведь сфера применения искусственного интеллекта намного шире. Почему законодатель так ограничил свои задачи и предмет регулирования закона?

ИИ – это в первую очередь инструмент для созидания – "для улучшения качества жизни человека и повышения эффективности экономики". И в казахстанском законопроекте эта цель определена как основополагающая (в статье 3). Однако среди принципов регулирования общественных отношений в сфере искусственного интеллекта (статья 4) нет ни одного, направленного на "повышение эффективности экономики".

И фактически это приведет к следующему.

В дальнейшем в закон будут вноситься поправки под каждую новую задачу, а также исключения о том, что его положения не применяются к отдельным сферам и отношениям. Закон, по сути, будет отсылочным: для каждой отдельной сферы станут разрабатывать специальный закон об искусственном интеллекте в автомобильной промышленности, в селекционной деятельности, медицине и т.д.

А инвесторам и разработчикам ИИ после принятия якобы основного закона придется, возможно, продолжительное время находиться в неопределенности, ожидая, пока "дополнительные" законы не будут сформулированы для каждой сферы деятельности. О какой тогда регуляторной стабильности может идти речь?

В целом, при прочтении текста законопроекта создается… общее впечатление опасности.

Например: "Системы искусственного интеллекта должны создаваться и эксплуатироваться с соблюдением требований безопасности и надежности, исключающих возможность непредвиденных последствий или злоупотреблений". Или: "В целях предотвращения потенциальных угроз необходимо проводить управление рисками и принимать меры для исключения таких угроз" (статья 11 законопроекта).

Как будто речь идет об оружии. (Но, кстати, даже в Законе РК "О государственном контроле за оборотом оружия в РК" требования к безопасности оружия и патронов сформулированы более нейтрально юридически взвешенно.)

Зато не замечают рисков для бизнеса в другом моменте. В качестве меры государственной поддержки для казахстанских разработчиков рассматривается создание Национальной платформы искусственного интеллекта, которая будет предоставляться государственным учреждениям, бизнесу, науке и т.д. для разработки и реализации в контролируемой среде инновационных решений на основе ИИ. Условия такого сотрудничества будут определены приказом уполномоченного органа – по всей видимости, уже министерством ИИ.

Однако во время обсуждения законопроекта в Мажилисе казахстанский бизнес высказывал вполне обоснованное опасение, что со временем крупные технологические компании, которые уже успели накопить солидные объемы данных, могут обязать передавать такие данные Платформе. Ведь ИИ может выдавать полноценные решения, только если он "напитан" огромным объемом данных.

Цель – развитие ИИ, а не его ограничение

Процитируем президента РК:

"Нужно сформулировать принципы ответственного использования искусственного интеллекта, а также этические аспекты. Но регулирование искусственного интеллекта должно быть нацелено на его развитие, а не ограничение. Широкое внедрение этой высокой технологии открывает огромные возможности, которыми мы должны непременно воспользоваться".

Казахстанские разработчики закона за основу взяли Artificial Intelligence Act, который был принят с целью создания безопасного цифрового пространства и уже серьезно затормозил развитие технологий в Европе. В итоге в феврале 2025 года на Саммите по искусственному интеллекту руководитель Цифрового управления ЕС сделала заявление о том, что Artificial Intelligence Act будет пересматриваться в целях упрощения регулирования.

Отдельные положения AI Act почти полностью перенесены в казахстанский законопроект. Так, пунктом 3 статьи 18 установлен запрет систем искусственного интеллекта, обладающих определенными функциональными возможностями. Перечень запретов довольно объемный, можно перейти по ссылке. Пояснения этому разработчики не представили.

Вообще, это плохая практика, которой часто злоупотребляют казахстанские разработчики законов, – использовать опыт других стран в Казахстане без его должного анализа и адаптации.

К примеру, проектом закона запрещается удаленная биометрическая идентификация физических лиц в реальном времени, в общественных местах. Такой запрет в Европе действует с 2021 года и не связан исключительно с использованием технологии ИИ. Такие запреты были внедрены в поддержку высоких (как утверждается) демократических стандартов в Европе.

В Казахстане же в 2024 году в целях обеспечения национальной безопасности внедрена система распознавания лиц, причем проект совместно разработан МВД, КНБ и МЦРИАП (один из разработчиков законопроекта).

Под запрет также попадают роботы-автоответчики, которые компании долго учили быть вежливыми и подстраиваться под эмоции собеседника так, чтобы он в итоге остался довольным. Какие риски или угрозы при этом создаются и для кого – непонятно.

Этой же статьей 18 (пункт 3) законопроекта устанавливается полный запрет на создание и выпуск в обращение полностью автономных систем искусственного интеллекта, а это значит, что в РК не будут допустимы: полностью автоматизированные склады и сельскохозяйственная техника; ИИ, ежедневно анализирующий состояние шахт, не будет оповещать об угрозах шахтеров; пациенты лишатся возможности использовать современные аппараты, диагностирующие рак на самых начальных стадиях; заводы по сборке авто не будут полностью автоматизированы и пр.

В Послании президент РК дал поручение развивать беспилотный транспорт, но и это не будет возможным. Продолжать можно долго. (Кстати, мы не нашли ни в одном публичном источнике причину и цель перечисленных запретов. Разработчики их просто констатируют.)

Если принятый закон будет содержать указанные запреты, это серьезно затормозит развитие технологий в стране и заставит разработчиков (включая казахстанских) выбирать другую юрисдикцию.

А ведь вышеперечисленные ограничения – это риски не только для государства (нацбезопасности) и бизнеса, который планирует использовать ИИ. А для всех пользователей, т.е. для населения, защита которого декларирована как одна из главных задач законопроекта.

Так, целый блок его положений, направленный на защиту пользователей, на практике станет расширением возможностей для совершения киберпреступлений – речь о требовании о предоставлении пользователям систем ИИ полной информации об эксплуатационных и иных характеристиках и ограничениях системы; о синтетических результатах генеративной системы ИИ, которые могут ввести их в заблуждение; эксплуатационных характеристиках системы ИИ и пр. А ведь мошенники – они тоже пользователи и имеют право на получение такой подробной информации…

Но это еще не все трудности, с которыми придется столкнуться бизнесу. На собственников и владельцев систем искусственного интеллекта возлагается ряд обязанностей:

По проекту закона не проводился анализ регуляторного воздействия (поскольку проект инициирован депутатами), чтобы проверить возлагаемую нагрузку на бизнес. Под регулирование подпадут любые компании любого сектора и масштаба, поскольку ИИ будет внедряться повсеместно. И если это звучит не так пугающе для крупных технологических компаний, то для небольшого медицинского центра это может быть очень сложной задачей. А где найти такое количество профессиональных специалистов, которые будут сопровождать использование ИИ?

Президент во время очередного "разбора полетов" на совещании по вопросам развития искусственного интеллекта 11 августа привел в пример Дональда Трампа, который отменил любые ограничения для разработчиков, включая отмену всех законов, устанавливающих избыточное регулирование с целью сделать США мировым лидером в определении ИИ повестки. Трамп предоставил разработчикам максимальную свободу и сместил важность с этики ИИ на конкурентоспособность.

Возможно, казахстанским законотворцам следует более внимательно относиться к выбору ориентиров при разработке цифрового законодательства. Европейские документы – хорошая основа для законов в сфере защиты прав человека, но для развития сферы технологий лучше использовать примеры стран – технологических лидеров.

Искусственный интеллект
Законопроекты
2025 год

Читайте также

Следите за новостями zakon.kz в:

Популярные новости

Нацбанк Казахстана выступил с важным заявлением по курсу тенге

Символ Огненной Лошади: что ждать от 2026 года и кому повезет

Жителям Алматы обещают долгожданный снег

"Кроме первого и последнего": какой этаж лучше выбрать при покупке квартиры – советы риелтора

Инженеры показали, каким будет самый глубокий в мире автомобильный тоннель