Екатерина
Шокурова
10.02.2026

Минцифры создаст площадку для тестирования ИИ на безопасность для их внедрения на критически важных объектах страны. Эксперты предупреждают, что такая проверка может быть неэффективной: ИИ слишком непредсказуем в своих решениях.

Для систем искусственного интеллекта (ИИ) высокого и критического уровня риска потребуется получать сертификат на соответствие требованиям безопасности Федеральной службы по техническому и экспертному контролю (ФСТЭК) и Федеральной службы безопасности (ФСБ). Это следует из законопроекта правительства "О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты" (копия есть у РБК, ее подлинность подтвердил источник РБК на IT-рынке).

Тестирование на соответствие ИИ-систем этим требованиям будет проходить на специальном полигоне, созданном Минцифры, рассказал источник РБК, знакомый с деталями инициативы, и подтвердил другой собеседник в IT-отрасли. Если тестирование пройдет успешно, системы будут допущены к использованию на объектах критической информационной инфраструктуры (к ней относятся сети связи и информационные системы госорганов, энергетических, транспортных, финансовых, телекоммуникационных и ряда других компаний). По словам еще одного собеседника, с предложением создать полигон для тестирования к министерству пришли игроки рынка информационной безопасности, но детали он обсуждать не стал.

Новый законопроект вводит четыре уровня критичности ИИ-систем:

  • минимальный, когда системы не оказывают существенного влияния на права и безопасность (например, рекомендательные системы);
  • ограниченный, когда системы должны сообщать пользователям о том, что они работают с нейросетью;
  • высокий, когда системы используются на объектах критической информационной инфраструктуры;
  • критический, когда системы угрожают жизни или здоровью человека, безопасности государства, а также разработки, способные к принятию решений без вмешательства человека.

Определять уровень критичности той или иной системы будет новая структура — Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Также центр будет вести реестр допущенных к критической информационной инфраструктуре систем. Требования для получения обязательного сертификата ФСБ и ФСТЭК для критических и ИИ-систем с высоким уровнем будут установлены позже отдельным документом, пояснил один из собеседников РБК. Одним из них станет наличие ИИ-системы в реестре российского или евразийского софта.

Кроме того, законопроект вводит запрет на использование на критической информационной инфраструктуре ИИ-систем, права на которые принадлежат иностранным лицам. Такие меры, по мнению авторов документа, обеспечат технологический суверенитет и защитят от риска передачи ценных данных спецслужбам и разведке недружественных стран.

Представитель Минцифры на вопрос о полигоне для тестирования ИИ ответил лишь, что "в настоящее время министерство не разрабатывает законопроект", связанный с подобным полигоном, отказавшись от дальнейших комментариев.

Как в России регулируют ИИ

По оценке аналитической компании Smart Ranking, в 2025 году объем рынка ИИ в России вырос на 25–30% и составил 1,9 трлн руб. При этом 95% выручки от монетизации ИИ пришлось на топ-5 компаний: "Яндекс" (500 млрд руб.), "Сбер" (400 млрд руб.), "Т-Технологии" (350 млрд руб.), VK (119 млрд руб.) и "Лабораторию Касперского" (более 49 млрд руб.).

Вопрос необходимости регулирования работы ИИ в России начали активно обсуждать в 2024 году, но в начале 2025-го вице-премьер Дмитрий Григоренко заявил, что правительство в ближайшие два года не планирует вводить законодательство для этой сферы. Тем не менее в феврале этого года представитель аппарата Григоренко сообщил, что законопроект о регулировании ИИ будет внесен на обсуждение до конца месяца. По его словам, документ будет рамочным, введет базовые для отрасли понятия и не будет ограничивать компании в развитии ИИ. Более жестким регулирование будет для отраслей, от которых зависит безопасность граждан и государства: в медицине, критической инфраструктуре, обороне, госбезопасности, госуправлении и др. Для систем, которые используются в этих сферах, введут требования о регистрации компании-разработчика в России и наличии центров обработки данных в стране. Сама модель должна быть российской, числиться в специальном реестре, обучаться на российских датасетах, проходить проверки качества и безопасности и проходить сертификацию для госинформсистем и критической информационной инфраструктуры.

Также законопроектом планируют ввести ответственность пользователей за распространение ИИ-контента: это станет отягчающим обстоятельством, например при вмешательстве в выборы, умышленной манипуляции, подрыве доверия к институтам власти и др. Операторов ИИ-моделей обяжут сообщать пользователям о взаимодействии с ИИ и маркировать ИИ-контент. Также планируется закрепить авторские права разработчиков и владельцев данных на ИИ-продукты "при наличии творческого вклада". Летом 2025-го был опубликован законопроект о проведении эксперимента по внедрению генеративного ИИ в госуправлении, по которому эту технологию будут использовать для обработки документов, анализа данных и работы с типовыми обращениями граждан, для проверки резюме кандидатов на госслужбу, анализа законопроектов Госдумы на ошибки и др.

Предложение ввести обязательную сертификацию отдельных ИИ-систем ранее озвучила рабочая группа, которая занималась разработкой регулирования ИИ (в нее вошли представители крупных российских банков, компаний, вузов и различных объединений). Группа предлагала ввести следующие категории для систем ИИ: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Системы с неприемлемым уровнем риска, то есть создающие угрозу безопасности личности, общества и государства, а также нарушающие основополагающие права и свободы человека и гражданина, предлагалось запретить. Для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) предлагалось ввести обязательную госрегистрацию и сертификацию. Для систем с ограниченным уровнем риска предлагали ввести внутренний контроль качества и добровольную сертификацию.

Что изменит инициатива

По данным "Сбера", в госуправлении и критической инфраструктуре ИИ сейчас применяется для систематизации документов и автоматизации рутинных процессов. Например, в энергетике технологию используют для прогнозной аналитики и управления нагрузкой; в ЖКХ — для предсказания аварий на сетях; в транспортной инфраструктуре — для анализа пассажиропотоков и управления движением; для анализа данных с датчиков на промышленном оборудовании (электростанции, нефте- и газопроводы) — для предсказания поломок, рассказал РБК гендиректор ГК "Ультиматек" Павел Растопшин. Для таких целей, по его словам, обычно внедряются ИИ-системы немецкой Siemens или французской Schneider Electric.

По мнению Растопшина, идея сертификации ИИ-систем для критической инфраструктуры понятна — это нужно для безопасности значимых для страны объектов. При этом на практике реального механизма, как именно сертифицировать ИИ-системы, нет, оговорился он. "Существуют так называемые строгие модели — они работают не на основе ИИ, а на математических уравнениях и способны предсказывать то или иное событие. Такие модели можно проверить и сертифицировать, так как их "поведение" предсказуемо в отличие от нейросетей. В результате перед регулятором встанет вопрос: либо установить запретительный режим для любых ИИ-разработок в критической информационной инфраструктуре, что заморозит цифровизацию ряда отраслей, либо искать новые принципы регулирования", — рассуждает глава "Ультиматека". Он отметил, что непонятно, как сертифицировать нейросеть, "чьи решения необъяснимы, а ошибки непредсказуемы". "Ее невозможно проверить на все случаи жизни, а значит, нельзя гарантировать безопасность традиционными методами", — указал Растопшин.

Осторожность государства в части сертификации ИИ для критической информационной инфраструктуры и запрета зарубежных моделей выглядит оправданной, так как сейчас технологию нередко внедряют на волне хайпа, не до конца понимая последствия, говорит директор департамента реализации инфраструктурных проектов "Софтлайн Решения" (входит в ГК Softline) Виталий Попов. "Когда речь идет о зарубежных ИИ-системах, особенно публичных, мы не до конца понимаем, что у них внутри: на каких данных они обучались, какую логику используют и как именно формируются ответы", — рассуждает эксперт. В то же время, по словам Попова, у жесткого ограничения использовать зарубежный ИИ есть "очевидные минусы": "Это шаг назад с точки зрения развития. Если резко сказать, что этого нельзя делать, у кого-то просто перестанут работать процессы, и все придется переделывать в аварийном режиме. Многие компании уже используют зарубежные ИИ-решения, включая open source модели (софт, распространяемый на условиях свободного лицензионного договора, когда пользователь получает право использовать программу в любых не запрещенных законом целях; имеет доступ к исходному коду программы для его изучения или переработки, внесения изменений, в отличие от проприетарного, то есть несвободного ПО, принадлежащего правообладателю. — РБК). Также остается и вопрос качества — сможем ли мы без потерь перейти на российские решения и будут ли они закрывать те же задачи так же эффективно". По словам Попова, большинство российских ИИ-систем строится на архитектурах и моделях, выросших из глобального open source и крупнейших зарубежных языковых моделей. "Дообучение, локализация и адаптация под российские данные меняют продукт на уровне применения, но не обрывают связь с исходной технологической базой. Поэтому запрет, основанный на юридическом происхождении, скорее всего, просто закроет прямой доступ к наиболее зрелым и сильным зарубежным моделям, но саму технологическую зависимость не устранит", — считает он.

Не все зарубежные решения одинаково опасны: open source модели, такие как Llama (разработчик — компания Meta Platforms, признана в России экстремистской организацией и запрещена) или французская Mistral, могут быть развернуты локально и использоваться безопасно, считает директор Центра развития ИИ-продуктов IT-экосистемы "Лукоморье" (входит в "Ростелеком") Денис Романов. Если говорить о полной цепочке создания ИИ-систем — от чипов до данных, полностью независимого ИИ на данный момент в России не существует, отметил эксперт. По его словам, некоторые российские решения используют открытые зарубежные модели, например Llama, в качестве основы. "Но ключевой фактор — не происхождение архитектуры, а контроль над развертыванием, данными и обновлениями. Если модель развернута локально, обучена на отечественных данных и не зависит от внешнего программного интерфейса, риски минимальны", — уверен Романов.

Жесткое регулирование ИИ неуместно, так как рынок находится на начальном этапе развития, считает гендиректор VisionLabs (входит в МТС) Дмитрий Марков. Оно может привести к тому, что технология перестанет развиваться, и российские разработчики станут менее конкурентоспособны как на внутреннем, так и на международном рынке. Это, в свою очередь, приведет к оттоку ведущих разработчиков из страны, указал Марков.

Новости из связанных рубрик