В России на государственном уровне стоит задача создать институты поддержки комплексной функциональной надежности и безопасности технологий искусственного интеллекта (ИИ) с использованием сертифицированных отечественных программно-аппаратных и вычислительных средств. Решение вышеуказанных задач позволит создать отечественный институт сертификации и комплексные надежные технологии искусственного интеллекта. Этот, а также ряд других вопросов применения ИИ практически во всех сферах жизни - регулировании, безопасности, бизнесе, образовании, науке, религии - обсуждались на международном форуме "Этика искусственного интеллекта: начало доверия" при поддержке правительства РФ.
Константин
Скурат
© ComNews
01.11.2021

Форум стал первой в России специализированной площадкой для выработки принципов этики в данной сфере. Участники мероприятия обсудили не только текущую ситуацию и влияние искусственного интеллекта на традиционные сферы жизни, но и связанные с его использованием риски. Центральным событием форума стало подписание Кодекса этики искусственного интеллекта, разработанного с учетом требований Национальной стратегии развития искусственного интеллекта на период до 2030 г. (см. новость ComNews от 27 октября 2021 г.).

За пленарным заседанием форума последовал ряд специализированных дискуссий, на которых подняли вопросы применения ИИ практически во всех сферах жизни - регулировании, безопасности, бизнесе, образовании, науке, религии. В дискуссиях приняли участие представители власти, деловых кругов, ученые, представители РПЦ и международные эксперты.

Участники сессии "Этика искусственного интеллекта (ИИ) в государстве", где модератором дискуссии выступила руководитель направления исследований и аналитики центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС Екатерина Потапова, подняли вопросы этических принципов внедрения технологий ИИ в госсекторе.

"Государство как регулятор в первую очередь должно заботиться об интересах граждан, следить, чтобы технологии были этичными, недискриминирующими. В 2020-2021 гг. государства и компании собирают данные в таких объемах, которые прежде однозначно выглядели бы как грубое нарушение приватности. В то же время технологии дают слишком много возможностей государству, чтобы их игнорировать. Важно сделать так, чтобы эти возможности не были использованы во вред гражданам", - отметила Екатерина Потапова.

О том, какие риски возникают при принятии решений с помощью ИИ в госуправлении, рассказала эксперт центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС, руководитель проектного направления "Цифровое право" ЦПУР Ольга Шепелева. По ее словам, неэтичное использование интеллектуальных систем может привести к дискриминации отдельных групп людей, в том числе неумышленной. Кроме того, существуют риски непрозрачности результатов и склонности пользователей некритично полагаться на рекомендации ИИ. Эксперт перечислила факторы, усиливающие риски, - избыточный оптимизм относительно использования ИИ, вопросы к качеству данных и нехватка квалифицированных специалистов.

Форум стал площадкой и для обмена опытом использования искусственного интеллекта в регионах России. На сессии "Опыт этики ИИ в регионах" выступали Дмитрий Онтоев, начальник аналитического управления Департамента информационных технологий Москвы - города, где уже реализуют порядка 70 проектов в области ИИ, а также представители Кемеровской области, Кузбасса, Татарстана, Якутии и Ульяновской области.

"Мы совместно с центром стратегических разработок создали ассоциацию по внедрению искусственного интеллекта в публичном секторе. Самое первое решение, с которого мы начали в области ИИ, - это роботизация голосовых сервисов, это платформа естественного языка. В прошлом году начали ее создавать, могу сказать, что результат очень серьезный. Время пребывания абонента на линии сократилось почти в два раза, а количество непринятых вызовов снизилось с 50% до 2%, и среднее время ожидания абонента измеряется в секундах", - сказал министр цифрового развития и связи Кузбасса Максим Садиков.

"У нас в проекте "Безопасный город" участвует порядка 20 тыс. камер, которые расположены в общественных местах. Они снимают все пространство, и для получения, например, одного из сервисов - "Поиск свободного парковочного места" пользователь просто в чат-боте отправляет запрос, и ему приходит фотография свободного места. Фотография может содержать большое количество персональных данных - номера автомобилей, лица людей. Мы применяем платформенное решение, которое позволяет обезличить эти данные, "замазывать" номера, лица, образы людей", - рассказал о региональном опыте руководитель Центра цифровой трансформации Республики Татарстан Динар Самигуллин.

Врио начальника Главного управления научно-исследовательской деятельности Министерства обороны Российской Федерации Александр Осадчук отметил, что в России на государственном уровне стоит задача создать институты поддержки комплексной функциональной надежности и безопасности технологий искусственного интеллекта с использованием сертифицированных отечественных программно-аппаратных и вычислительных средств.

"Решение вышеуказанных задач позволит создать отечественный институт сертификации и комплексные надежные технологии искусственного интеллекта. Очень приятно, что мы реально смогли внести необходимые изменения, которые касаются выполнения требований Стратегии национальной безопасности и требования по созданию национальной школы развития технологий искусственного интеллекта", - сказал он.

При обсуждении правового аспекта в рамках трека "Нормативное регулирование искусственного интеллекта" вновь был поднят вопрос доверия, а информированность и осведомленность названы главными инструментами его повышения.

"Нам необходимо до потенциальных пользователей и до людей, которые уже сейчас активно пользуются системами, доводить информацию, чтобы они лучше понимали, что может предоставить эта система, на что рассчитывать не стоит, где границы применимости и основные аспекты функционирования. Мне кажется, это здорово продвинет общество в решении вопросов доверия, поскольку, если мы понимаем, как это работает, мы можем этому доверять", - заявил на дискуссии директор департамента стратегического развития и инноваций Минэкономразвития Рустам Тихонов.

"Хотел поддержать правильность подхода, связанного с саморегулированием. Это может быть предпосылкой к работе там, куда государство еще не добралось. С другой стороны, это может быть неким дополнением для государства: там, где государственное регулирование вообще не будет появляться, может быть саморегулирование. Искусственный интеллект активно вторгается в жизнь. Качественный скачок будет, когда мы начнем передавать искусственному интеллекту управление или право самому принимать решения", - сказал замглавы Минцифры РФ Александр Шойтов, выступая на сессии "Этика и Big Data".

Замминистра добавил, что в сфере ИИ доверенные защищенные технологии пока только формируются. Говоря о взаимодействии компаний, внедряющих соответствующие технологии, Александр Шойтов отметил, что считает важным дать им возможность обмениваться опытом. По его словам, нужны механизмы, площадки где внедряющие ИИ компании могли бы взаимодействовать с теми, кто может дать соответствующие решения в области доверенности и безопасности.

Кодекс этики ИИ предусматривает создание комиссии, которая будет следить за его реализацией. Об этом сообщил начальник Центра регулирования искусственного интеллекта Сбербанка Андрей Незнамов на сессии "Механизмы внедрения этики ИИ".

"Создание определенной комиссии, которая будет следить за реализацией кодекса, кодексом предусмотрено. В равной степени кодексом предусмотрено создание двух комиссий отдельных участников рынка, а также комитетов или комиссий внутри конкретного актора. Таким образом, у нас будет условно три вида комиссий", - отметил он, добавив, что еще одним механизмом регулирования будет назначение уполномоченных по этике, а также существует такой механизм, как создание лучших практик работы с технологиями ИИ.

Отдельное внимание на форуме уделили подготовке кадров для работы с искусственным интеллектом. Участники дискуссии "Этика ИИ в образовании" сошлись во мнении, что без качественных программ и платформ подготовки кадров развитие ИИ в стране невозможно. При этом именно искусственный интеллект может позволить экономике России стать одним из мировых лидеров в ближайшие годы. По словам заместителя директора центра "Искусственный интеллект" МГТУ им. Баумана Александра Чесалова, ИИ постоянно трансформирует сферу образования, однако программы подготовки специалистов в этой сфере в стране пока не так распространены, и ощущается кадровый голод.

Как, считает ректор научно-технологического университета "Сириус" Максим Федоров, важно при подготовке специалистов обучать их не только созданию качественного продукта, но и прогнозированию развития и внедрения своих разработок. "С первого дня мы вовлекаем в проект, но этого недостаточно, то есть практический опыт внедрения недостаточен. Важно еще, чтобы они понимали все нюансы, связанные с этикой внедрения, понимали гуманитарно-социальный аспект", - пояснил он.

Глава комитета цифровых технологий Совета Европы Кристиан Бартолин в своем выступлении на сессии "Международный опыт этики ИИ" сказал, что, наряду с недостаточно высоким уровнем доверия и нехваткой квалифицированных кадров, также существует проблема, связанная с деталями применения искусственного интеллекта, особенно в отношении отдельных людей. "Развитие ИИ, цифровых технологий, алгоритмов дает возможности, о которых мы и не могли раньше мечтать. Нужно, чтобы мы не мешали разработке ИИ. В то же время мы должны строго следить за этим и регулировать в части систем ИИ, которые могут тем или иным образом негативно повлиять на фундаментальные права человека, на то, как функционирует демократия", - уточнил он.

Представители религиозных организаций в рамках дискуссии "Религия и искусственный интеллект" обратили внимание на ответственность разработчиков искусственного интеллекта и тех, кто его внедряет.

Среди причин возникновения страха россиян в отношении ИИ руководитель направления регуляторной поддержки экосистемы МТС Елена Сурагина перечисляет пять основных: во-первых, люди не понимают этого явления и поэтому его боятся, что естественно; во-вторых, люди понимают явление ИИ и поэтому ограничивают его; в-третьих, это избыточное сгущение красок, демонизация в некоторой степени; в-четвертых, люди в принципе склонны преувеличивать опасность; и последнее - люди боятся "живого неживого".

Тем не менее, считает директор по развитию технологий искусственного интеллекта ООО "Яндекс" Александр Крайнов, все перечисленные страхи постепенно отойдут в сторону.

"В будущем все перестанут относиться к искусственному интеллекту как к чему-то невероятному. Когда наконец наступит понимание, что это такое, все страхи уйдут. Причем страхи уйдут не потому, что кто-то прозреет. Просто произойдет естественная смена поколения", - заключил он.

Вместе с тем, как отметил старший вице-президент по инновациям фонда "Сколково" Кирилл Каем, системы искусственного интеллекта пока достаточно слабы.

"Следующие лет 15, если оптимистично, нам надо не забывать, что в первую очередь речь идет о слабом искусственном интеллекте и о прикладных решениях или узком искусственном интеллекте. Это означает, что следующие 10-15 лет мы все-таки будем иметь в руках решения, которые не обладают сознанием, в отличие от общего или сильного искусственного интеллекта. Мне кажется, Кодекс должен быть динамичным документом, его принятие сейчас - это такой экспериментально этический режим", - заявил он.

По мнению Кирилла Каема, документ в будущем обязательно нужно пересматривать, в том числе в рамках саморегулируемых систем. Он добавил, что набор кейсов, тех самых практик, конкретных решений, которые будут накапливать ошибки, позволит соблюсти баланс между максимальной эффективностью решения и соблюдением норм.

Заместитель руководителя Аналитического центра при правительстве РФ - руководитель Центра экспертизы по реализации федерального проекта "Искусственный интеллект" Сергей Наквасин в заключительной дискуссии "Механизмы внедрения этики ИИ" обозначил ключевые идеи участников, прозвучавшие на всех сессиях форума.

"Важно сделать так, чтобы те ценности, которые мы обсудили, воплотились в жизнь, чтобы то, что делают разработчики искусственного интеллекта, соответствовало нашим представлениям об этике искусственного интеллекта. Если компания создает комфортный продукт или услугу для людей, она становится этическим лидером, и этот успех хотят повторять другие", - отметил Сергей Наквасин.

Новости из связанных рубрик