Photo by Luizpuodzius
Госдума РФ рассмотрит законопроект о защите голоса человека от неправомерного использования. Поводом послужили неоднократные мошеннические действия, ложные звонки от лиц - обладателей голоса и противоправные применения голоса без согласия его владельца.
© ComNews
29.01.2024

Об инициативе по защите голоса человека на пресс-конференции в Москве рассказал сенатор РФ, заместитель председателя совета по развитию цифровой экономики при Совете Федерации Артем Шейкин.

"Мы видим, что синтез голоса используется в различных направлениях. Пока у нас законодательно не закреплено понятие "голос гражданина". По аналогии с нормой в гражданском праве "охраны изображения гражданина" мы предлагаем расширить эту норму и добавить в нее "голос". Его обнародование должно допускаться только с согласия гражданина", - пояснил Артем Шейкин.

Также сенатор коснулся вопроса маркировки при использовании синтезированного голоса: "Компания должна уведомлять, что следующая информация использована при помощи искусственного интеллекта (ИИ). Кроме того, необходимо создание специального отдела, который будет заниматься вопросами функционирования и использования нейросетей. Отдел будет рассматривать жалобы, обращения граждан. В результате обнаружения правонарушений нужно будет удалять или блокировать запрещенный контент".

Исполнительный директор Ассоциации лабораторий по развитию искусственного интеллекта (АЛРИИ) Вячеслав Береснев поддержал позицию Артема Шейкина: "Ситуация с защитой биометрических данных, голоса и других данных, используемых нейронными сетями, сложна, поскольку стоит на стыке сразу нескольких направлений законодательства и требует взвешенной и консолидированной позиции. Излишние ограничения безусловно приведут нас к технологическому отставанию, но без них мы рискуем потеряться в мире цифровых двойников и иллюзий. Из-за новизны, сложности и массы потенциальных последствий шаги государства в этой сфере осторожны и, как может показаться, неторопливы".

Коммерческий директор системного интегратора X-Com Сергей Косецкий предложил вариант применения инициативы: "Вопрос регулирования технологии Deep Fake остро стоит на повестке дня. Инициатива призвана направить ее применение в законодательное русло. Одним из инструментов этого может быть обсуждаемая маркировка продуктов генеративного ИИ, для чего достаточно внедрить в алгоритм автоматический генератор уникальных меток контента. Это не потребует от разработчиков значительных временных и финансовых затрат, но кратно снизит применение ИИ в преступных целях".

Менеджер продуктов российской компании - разработчика сервисов и решений в области информационной безопасности Innostage Евгений Сурков рассказал, какие шаги нужно предпринять для реализации инициативы: "Массовая генерация дубликатов голоса граждан возможна благодаря легкости получения необходимых для этого образцов (например, через звонок с незнакомого номера). Чтобы усложнить сбор этих образцов, необходимо реализовать ряд дорогостоящих технических мер и совершенствование законодательной базы. Потребуется обеспечить четкую привязку номеров к конечному бенефициару - физическому/юридическому лицу либо группе лиц, исключить анонимизацию номера, выстроить процесс проверки лиц, с номеров которых производятся массовые обзвоны, на противоправные действия. Когда будут закрыты эти лазейки, останется вопрос защиты от утечек из электронных баз, используемых для хранения записей с голосом граждан - например, в службе поддержки различных компаний".

Директор центра разработки компании Artezio, специализирующейся на решениях по цифровой трансформации бизнеса, Дмитрий Паршин считает, что полностью избавиться от мошеннических действий невозможно: "С эффективными инструментами количество мошеннических действий после нововведений по защите голоса снизится значительно, так как увеличится риск раскрытия и наказания для злоумышленников. Кроме того, у потенциальных жертв будет больше возможностей проверить подлинность голоса и защитить права в случае нарушения. Однако полностью исключить возможность мошенничества невозможно, так как технологии синтеза голоса постоянно совершенствуются. Уже в 2025 г. мы придем к тому, что отличить подделку от оригинала на 100% будет практически невозможно без сложных инструментов и лабораторного исследования".

Новости из связанных рубрик