ИИ в госсекторе. Как новые требования ФСТЭК меняют рынок

11 апреля 2025 г. Федеральная служба по техническому и экспортному контролю (ФСТЭК) утвердила приказ №117, который заменил действовавший с 2013 г. приказ №17. Документ на нормативном уровне внес требования к системам искусственного интеллекта. Среди ключевых новаций - обязанность контролировать достоверность ответов нейросетей (так называемые галлюцинации), фильтровать пользовательские запросы и исключить применение облачных ИИ-сервисов для обработки данных, составляющих гостайну, и информации ограниченного доступа.
1 марта 2026 г. приказ вступил в силу. К этому моменту рынок получил лишь общие формулировки из документа - методики, разъясняющие техническую реализацию требований, так и не выпущены.
Параллельно с этим с 1 января 2026 г. вступил в силу Федеральный закон №250-ФЗ, запрещающий использование иностранных средств защиты информации (СЗИ) на объектах критической информационной инфраструктуры (КИИ). Таким образом, госзаказчики и операторы КИИ оказались перед необходимостью одновременно выполнять два требования: переходить на отечественные сертифицированные СЗИ и внедрять новые механизмы защиты ИИ-систем, методическая база для которых отсутствует.
В сентябре 2025 г. первый заместитель директора ФСТЭК Виталий Лютиков сообщил, что ведомство разрабатывает отдельный стандарт по безопасной разработке систем искусственного интеллекта.
Документ должен был стать дополнением к действующему ГОСТ Р 56939-2024 и учесть специфические риски машинного обучения: "галлюцинации" моделей, утечки данных через промпты, отравление обучающих выборок и adversarial-атаки (состязательные атаки - когда злоумышленник специально изменяет входные данные для нейросети так, чтобы она ошиблась, но человек этих изменений не заметил). Виталий Лютиков обещал представить проект стандарта для общественного обсуждения до конца 2025 г. По состоянию на март 2026 г. документ так и не опубликован.
Директор по развитию искусственного интеллекта ПАО "Группа Астра" Станислав Ежов отметил более интенсивную работу по переупаковке проектов: "С марта 2026 г. приказ №117 уже действует, а требования к ИИ в госсистемах впервые прямо закреплены в пунктах 60 и 61, поэтому заказчики идут с очень практичными вопросами: можно ли оставить текущую архитектуру, чем заменить внешние сервисы, как организовать проверку ответов модели и кто несет ответственность за ошибки".
Станислав Ежов рассказал, что полугодовая оценка защищенности для зрелых заказчиков не стала сюрпризом, но для многих это переход от разовой аттестации к постоянному циклу контроля: "В самих требованиях закреплено, что расчет и оценка показателя защищенности информации проводятся не реже одного раза в шесть месяцев, поэтому главный вопрос сейчас не зачем, а как встроить это в процессы без роста бюрократии и с понятной стоимостью владения".
Станислав Ежов считает, что сильнее всего приказ окажет влияние на проекты, где ИИ строился на недоверенной или внешней инфраструктуре: "С 1 марта 2026 г. для госсектора введены ограничения на использование недоверенных ИИ-технологий, обязательный контроль корректности ответов и запрет на передачу разработчику ИИ информации ограниченного доступа, поэтому рынок не столько останавливает запуски, сколько переносит их в локальный, управляемый и проверяемый контур".
Руководитель отдела продвижения продуктов ООО "Код Безопасности" Павел Коростелев пояснил, что требования, которые содержит приказ, касаются не использования конкретных средств защиты, а безопасной эксплуатации сервисов с искусственным интеллектом на различных этапах их жизненного цикла. "Часть решений "Кода Безопасности" может применяться для обеспечения защиты отдельных аспектов таких компонентов", - сказал он.
Павел Коростелев говорит, что уровень зрелости в госсекторе в использовании публичных сервисов зачастую не настолько высок, чтобы это стало критической проблемой: "Более того, требование развертывания приватных версий публичных сервисов для обработки критической информации выглядит вполне логичным и технически реализуемым. По сути, это переход от SaaS-модели к внутреннему приложению. В этом смысле сервисы на базе искусственного интеллекта и большие языковые модели не отличаются от любых других бизнес-приложений".
Коммерческий директор "Дар" (входит в ГК "Корус Консалтинг") Константин Смирнов считает, что само требование проводить аудит на предмет защищенности систем каждые полгода - это логичный шаг: "Например, только в 2025 г. из общедоступных ИИ-сервисов в России утекло в 30 раз больше данных, чем в 2024 г. Однако нельзя сказать, что требование ФСТЭК стало неожиданностью для рынка: в той или иной степени эту проблему учитывали и вендоры, и заказчики, которые и ранее закладывали эти риски в решения и проекты".
Директор департамента прикладных решений "Ланит-Терком" (входит в группу компаний "Ланит") Дмитрий Медведев сообщил, что заказчики отреагировали быстро и прагматично: "Основной фокус на том, как реализовать требования на практике. К нам обращаются с вопросами о допустимых архитектурах в условиях возможной недоступности облачных ИИ-сервисов, о том, какие решения подпадают под регулирование и как выстроить контроль достоверности ответов нейросетей. Ключевые вопросы и обсуждения - необходимость в сжатые сроки пересобрать уже запущенные проекты, особенно с облачными компонентами, а также найти наиболее оптимальные инструменты для валидации результатов ИИ. Рынок не остановился, но перешел в режим быстрой адаптации".
Заместитель производственного директора по качеству ООО "Энтри тек" (N3.Tech) Анна Зинченко сообщила, что компания работает с госсектором уже более 20 лет, поэтому системно отслеживает изменения в законодательстве и требования регуляторов: "Работа по приведению госсистем к новым требованиям информационной безопасности началась нами задолго до вступления приказа в силу. Это ряд совместных организационных и технических действий как с нашей стороны, так и со стороны заказчика. Новые требования приказа были восприняты, с одной стороны, с интересом и достаточно позитивно, потому что повышение уровня безопасности информации, обрабатываемой в системах, - это один из ключевых аспектов для госсектора. Но с другой стороны, мы столкнулись с большим количеством обращений из-за неопределенности, пока нет четких рекомендаций от регуляторов, перечня необходимых мер защиты и понятного порядка работы с уже заключенными контрактами".
Одним из ключевых нововведений документа стал прямой запрет на использование облачных ИИ-сервисов для обработки критической информации. Заместитель руководителя направления Т1 ИИ (ИТ-холдинг Т1) Сергей Карпович сказал, что это требование технически реализуемо, но для многих клиентов оно в первую очередь означает смену привычной модели потребления технологий. "Публичные сервисы удобны и быстры в подключении, однако при работе с защищаемой информацией они становятся неконтролируемой точкой риска, поэтому их использование закономерно ограничивается", - отметил Сергей Карпович.
Архитектор по направлению "Машинное обучение и искусственный интеллект" "Софтлайн Решения" (ГК Softline) Максим Милков подчеркнул, что в государственном секторе передача данных в сторонние облачные нейросети и ранее была табу из-за строгих требований к конфиденциальности обрабатываемой информации. "Организации, которые внедряли технологии машинного обучения, изначально проектировали архитектуру с расчетом на развертывание моделей исключительно в закрытом контуре", - сказал он.
Технический директор MD Audit (SL Soft FabricaONE.AI, акционер - ГК Softline) Юрий Тюрин отметил, что введение требований к контролю достоверности и ограничение на использование облачных ИИ-сервисов заметно влияют на архитектуру проектов: "В первую очередь это приводит к пересмотру подходов: решения, которые изначально строились на внешних облачных моделях, требуют переработки или переноса в закрытый контур. Часть проектов может замедлиться, особенно на этапе пилотов, где активно использовались облачные сервисы. Однако массовой остановки не происходит: скорее идет адаптация. Компании начинают делать акцент на локальных или изолированных решениях, а также на механизмах верификации ответов ИИ, например, через дополнительные проверки, ограничение областей применения или участие человека в принятии решений. В результате проекты становятся более сложными с точки зрения архитектуры, но при этом лучше соответствуют требованиям безопасности и контролируемости, что критично для госсектора".
Руководитель лаборатории развития и продвижения компетенций кибербезопасности ООО "Газинформсервис" Ксения Ахрамеева сказала, что компания старается подходить к безопасности системно и к новым требованиям приказа ФСТЭК №117 начали готовиться заранее: "Моя коллега Лидия Виткова недавно выступала на форуме "Цифровой маяк" с интересной метафорой: она сравнила системы ИИ с автомобилями - безопасность на дороге обеспечивается не только технической исправностью машины, но и правилами дорожного движения, обучением водителей, инфраструктурой и контролем. В сфере ИИ такого комплексного подхода пока не хватает, и новые правила как раз начинают выстраивать эту экосистему. В рамках этого подхода мы уже предлагаем рынку инструменты самообследования для специалистов по ИБ, чтобы они могли объективно оценить готовность своей организации к защите ИИ. У нас есть и технические наработки, которые позволяют закрыть требования приказа без лишней спешки, а если нужно что-то доработать под конкретного заказчика - делаем это аккуратно, чтобы все работало стабильно".

