Искусственный интеллект получит имя

ВЭФ-2025. На фото (в центре): старший партнер адвокатского бюро "Дубровская, Кузнецова и партнеры" Марина Дубровская (фото ComNews)
4 сентября на ВЭФ-2025 старший партнер адвокатского бюро "Дубровская, Кузнецова и партнеры" Марина Дубровская поделилась мыслями о развитии искусственного интеллекта (ИИ) и его влиянии на правовую сферу. Она рассказала, что рабочая межфракционная группа Госдумы сформировала новое определение ИИ, которое будет включено в федеральный закон.
"Искусственный интеллект - это любая система данных, программное обеспечение или аппаратное средство, обладающее способностью обрабатывать данные и информацию способом, напоминающим разумное поведение, с использованием методов машинного обучения или статистических методов для генерации контента, формирования прогнозов, рекомендаций или решений, способных оказывать влияние на реальную и виртуальную среду", - пояснила Марина Дубровская.
Она рассказала, что определение ИИ встречается в другом виде впервые в 2020 г., но это был экспериментальный закон, а теперь это то, что будет уже в новом федеральном законе, который, по ее мнению, обязательно будет принят. Марина Дубровская заверила, что разрабатываемый закон не станет запретительным, а будет направлен на регулирование и развитие ИИ. "Мы не планируем запрещать искусственный интеллект. Это утопия думать, что можно остановить его развитие", - подчеркнула Марина Дубровская.
Также она отметила, что авторское право изменится, но это не должно вызывать беспокойства: "ИИ открывает новые возможности для творчества и обучения. Новое поколение авторов сможет использовать огромные объемы знаний". Однако, по ее словам, важно обеспечить защиту персональных данных и безопасность при использовании ИИ. "Мы будем настаивать на защите прав граждан и компаний, а также на обеспечении безопасности страны", - заявила Марина Дубровская.
В заключение Марина Дубровская ответила на вопрос о правообладании ИИ: "Право обладать результатами творчества всегда будет у человека. ИИ не может конкурировать с людьми в этом аспекте".
Директор по работе с государственным сектором ООО "Элма" (Elma) Полина Павлова рассказала, что в работе компания опирается на российский Кодекс этики ИИ, который является одним из самых проработанных в мире и уже подписан более чем 900 организациями: "Его ключевые принципы - человекоцентричность, справедливость, прозрачность и безопасность - полностью совпадают с нашей внутренней идеологией. Мы рассматриваем ИИ не как угрозу, а как инструмент, который при грамотном использовании позволяет значительно повысить эффективность и переложить рутинные операции на машину".
Риски при работе с ИИ
Технический директор ООО "МД Аудит" (MD Audit, входит в ГК Softline) Юрий Тюрин рассказал, что основные риски при работе с ИИ связаны с качеством данных и непрозрачностью алгоритмов: "Ошибки в обучающих выборках приводят к некорректным прогнозам и рекомендациям. Дополнительно стоит отметить угрозу утечек персональных данных и возможность использования ИИ для социальной инженерии - от поддельных изображений до фишинговых атак с реалистичными текстами. Для бизнеса критичны также юридические аспекты: неопределенность с авторскими правами, ответственность за решения, принятые на основе ИИ, и сложность аудита. В совокупности это требует постоянного мониторинга, валидации моделей и внедрения процедур объяснимого ИИ".
Генеральный директор ООО "Диджитал Маркетс" Илья Назаров отметил, что генеративные модели на текущий момент не несут прямых рисков для взрослого дееспособного человека: "Вместе с тем они могут использоваться как инструмент формирования контента для мошенников в части генерации провокационных текстов, работы с возражениями. С моей точки зрения, особое внимание стоит уделять тому, чтобы не допустить бесконтрольного внедрения и распространения MCP-серверов (от Model Context Protocol - сервисы или коннекторы, которые предоставляют моделям искусственного интеллекта доступ к каким-либо ресурсам, инструментам или данным в стандартизированном виде - прим. ComNews) в архитектурах ИИ-агентов, так как подобные сервисы могут нести риски как для частного, так и для корпоративного использования".
Все по закону
Секретарь Консорциума исследований безопасности технологий искусственного интеллекта Дмитрий Служеникин рассказал, что есть несколько вариантов термина ИИ: "В частности, в национальной стратегии, во втором антифродовом пакете мер против кибермошенничества, в части правок в УК РФ, есть вариант из проекта Концепции регулирования ИИ до 2030 г., вариант из законопроекта рабочей группы Госдумы, в которой состоит Марина Дубровская, вариант из проекта Концепции реестра доверенных ИИ-решений, вариант из ГОСТ-Р 71476-2024 "Концепция и терминология ИИ". В последнее время появилось множество определений ИИ. И это не исчерпывающий список, он не включает международные вариации. Поэтому пока не совсем понятно, что именно планируют регулировать депутаты, возможно, стоит все-таки привлекать представителей точных наук, для формализации".
Директор проектов ИТ-экосистемы "Лукоморье" (ООО "РТК ИТ плюс") Екатерина Ионова рассказала, что развитие цифровизации в России во многом сдерживается действием устаревшей нормативной базы: "Во многих отраслях по-прежнему применяются акты, принятые десятилетия назад и не учитывающие современные технологии. Существенным ограничением является также жесткое регулирование в области обработки персональных данных, в частности, требования ФЗ-152 о локализации данных. Это серьезно осложняет использование облачных платформ. Отдельной проблемой выступает правовая неопределенность в отношении ИИ. Пока отсутствуют четкие нормативные механизмы, определяющие ответственность за решения, принятые алгоритмами, что особенно критично в задачах предиктивной аналитики".
Генеральный директор АНО "Национальный центр компетенций по информационным системам управления холдингом" (НЦК ИСУ) Кирилл Семион отметил, что в существующих нормативных актах содержательно описаны все вопросы, связанные с искусственным интеллектом: "Если оценивать их содержание с точки зрения возможностей регулирования, а не ввода запретов, то, по сути, основные вопросы, которые отражены в этих нормативных актах, касаются соблюдения коммерческих интересов владельцев данных, прав граждан в области безопасности личных данных, определения объекта интеллектуальной собственности, подлежащего защите".
Заместитель генерального директора по научной работе АО "СиСофт Девелопмент" Михаил Бочаров рассказал, что с 1 сентября в Китае вступил в силу закон о маркировке контента и изделий, связанных с использованием искусственного интеллекта. "Я считаю, что эта законодательная норма должна быть внесена и в наше законодательство, и уже пользователь должен выбирать - готов он рисковать при приобретении продукта, позиции которого сделаны с использованием искусственного интеллекта. Это как раз может очень четко определить контингент пользователей и сферы применения ИИ", - заключил Михаил Бочаров.
