Image from Freepik
Депутаты "Справедливой России" внесли в Госдуму два законопроекта о маркировке видеоматериалов, созданных с помощью искусственного интеллекта. За отсутствие метки авторы инициативы предлагают наказывать штрафами от 10 тыс. до 500 тыс. руб.
© ComNews
17.11.2025

Федеральный закон о внесении изменений в ФЗ от 27 июля 2006 г. №149 "Об информации, информационных технологиях и о защите информации" дает определение понятию "синтетический материал" и обязывает его маркировать. Синтетический видеоматериал - видео, созданное или обработанное с применением технологий ИИ, в результате чего получается визуальное изображение, имитирующее реальные объекты, лица, события или действия.

Маркировка, согласно законопроекту, будет указывать, что материал создан или обработан с помощью ИИ. Для этого нужно на видном месте разместить текст "Создано с использованием искусственного интеллекта" или "Сгенерировано ИИ", а также оставить в метаданных материала машиночитаемую метку со сведениями о применении ИИ, датой создания метки и идентификатором владельца ресурса. Обозначение должно быть видно на протяжении всего видео, а метка - сохраняться при копировании и скачивании.

Ответственность за отсутствие маркировки депутаты предлагают возложить на владельцев сайтов и видеохостингов, на которых размещен контент. Отсутствие маркировки будет считаться административным правонарушением.

Согласно пояснительной записке, закон нужен для прозрачности и достоверности информации в цифровом пространстве и защиты пользователей от манипулирования с помощью дипфейков и другого ИИ-контента.

Второй законопроект определяет административную ответственность для владельцев сайтов, на которых размещен немаркированный ИИ-контент. Для граждан штраф может составить от 10 тыс. до 50 тыс. руб., для должностных лиц - от 100 тыс. до 200 тыс. руб., для юридических лиц - от 200 тыс. до 500 тыс. руб. Также штрафы предполагают ввести за маркировку, не соответствующую требованиям закона.

https://www.comnews.ru/content/242080/2025-10-30/2025-w44/1008/otlichit-pravdu-feiika-mincifry-rf-soberet-mezhvedomstvennuyu-gruppu-dlya-markirovki-kontenta

Технический директор MD Audit (ООО "МД Аудит" - ГК Softline) Юрий Тюрин сказал ComNews, что массовое внедрение маркировки ИИ-контента технически возможно, но потребует комплексной экосистемы: инструментов маркировки, единых требований к меткам и механизмам проверок. При этом более вероятным выглядит внедрение автоматической маркировки и детекторов генерации на цифровых платформах.

Но для внедрения массовой маркировки, по словам Юрия Тюрина, есть барьеры: отсутствие единых стандартов и разнородность ИИ-инструментов. "Также маркировка зависит от добросовестности авторов: полностью автоматизированная проверка не гарантирует 100%-ной точности, особенно при контенте, частично созданном человеком". Заместитель исполнительного директора центра компетенций НТИ по большим данным МГУ Гарник Арутюнян среди барьеров выделил разный уровень цифровой зрелости площадок и компаний, высокие затраты на адаптацию систем и отсутствие автоматизированных механизмов проверки.

В некоторых странах, по словам Юрия Тюрина, используется подход, при котором акцент делается на платформенной ответственности: крупные сервисы обязаны маркировать сгенерированный контент при загрузке, а пользователи - предупреждать о применении ИИ в чувствительных случаях.

"Некоторые страны вводили жесткие требования к ручной маркировке, но такие системы часто оказывались формальными: соблюдение проверять сложно, а санкции работают только для крупных площадок", - рассказал Юрий Тюрин.

Бизнес-аналитик компании "Наносемантика" (ООО "Лаборатория Наносемантика") Егор Кириллов считает, что эффективнее всего возлагать ответственность на создателей технологий. В мире существуют успешные модели: согласно европейскому закону об ИИ EU AI Act, обязанность возлагается на разработчиков ИИ. В то же время американские ИТ-гиганты (Adobe, Microsoft, OpenAI, Google) сами внедряют единый технический стандарт (C2PA), который добавляет в файл нестираемую информацию о его происхождении.

"Для России же наиболее жизнеспособной, по мнению эксперта, может стать гибридная модель. Было бы эффективно обязать российских разработчиков встраивать в модели нестираемые цифровые метки по единому государственному стандарту и штрафовать не за отсутствие маркировки, а за создание и распространение злонамеренного контента - дипфейк-мошенничество, - где использование ИИ будет отягчающим обстоятельством", - считает Егор Кириллов.

Юрий Тюрин же уверен, что для России наиболее рабочей может стать модель, совмещающая автоматическую маркировку на уровне платформ и ручную маркировку в чувствительных сферах. По мнению Гарника Арутюняна, наиболее реалистично выглядит модель, при которой соцсети, маркетплейсы и крупные медиа будут просить авторов помечать ИИ-контент и вводить внутренние санкции при подозрении на ИИ. "Главное, чтобы охота на ведьм не началась", - добавил эксперт.

Однако внедрение маркировки может быть тяжело реализуемо, считает основатель ИИ-платформы "Артифика" (ООО "Монстр17") Алексей Нечаев. По его словам, современные модели генерации - ChatGPT, Sora, Qwen, Runway - создают контент высокого качества и их сложно отличить от настоящего (в том числе специальным инструментам для распознавания генераций). К тому же непонятно, что делать с контентом, в котором ИИ использовался частично: например, если реальное фото дообработано ИИ. "Как трактовать такой контент, которого уже 90%?" - задается вопросом Алексей Нечаев.

Уже несколько компаний сообщили, что разрабатывают технологии для распознавания материалов с искусственным интеллектом и их маркировки. В июне 2025 г. заместитель председателя правительства Российской Федерации Дмитрий Чернышенко заявил, что Институт системного программирования РАН создал маркировку для ИИ-контента и готовится ее внедрять.

Замглавы Министерства цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов в конце октября заявил, что ведомство создаст ра­бочую груп­пу по мар­ки­ров­ке кон­тен­та, которая зай­мет­ся раз­ра­бот­кой нор­ма­тивов для соз­да­ния зон до­верен­но­го кон­тен­та.

Депутаты уже несколько лет обсуждают законодательное регулирование ИИ-контента. Председатель Госдумы Вячеслав Володин в связи с этим анонсировал большие парламентские слушания по поводу искусственного интеллекта в конце 2025 г.

Более того, депутаты не первый раз вносят в Госдуму законопроекты против ИИ-фейков. В частности, в сентябре прошлого года депутаты внесли в Госдуму два законопроекта для борьбы с дипфейками.

https://www.comnews.ru/content/235226/2024-09-17/2024-w38/1007/deputaty-vnesli-dva-zakonoproekta-borbe-dipfeykami-odin-den

Новости из связанных рубрик