Редколонка / ноябрь 2021
Человек и AI - кто для кого опаснее

Елизавета
Неупокоева

корреспондент ComNews.ru
© ComNews
01.11.2021

На минувшей неделе крупные технологические компании России приняли Кодекс этики в сфере искусственного интеллекта (ИИ, или AI). Правда, пытаясь установить правила, авторы документа не определили, что именно они понимают под термином ИИ. Несмотря на то что Кодекс подается как саморегулирование рынка, прямое участие в его разработке приняли различные структуры государства, начиная с администрации президента РФ. Желание государства уже на раннем этапе контролировать развитие ИИ понятно, хотя большой вопрос: кого от кого нужно защищать - людей от ИИ или робота (например, беспилотный автомобиль) от агрессивных действий человека.

В 1942 году фантаст Айзек Азимов сформулировал в одном из рассказов три закона, или правила, поведения для роботов: "Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред"; "Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону"; "Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам".

Собственно, этими правилами можно было и ограничиться. Но пандемия коронавируса ускорила цифровизацию, и все больше компаний из различных отраслей начинают использовать системы искусственного интеллекта или элементы таких систем. Ко­декс эти­ки в сфе­ре искусствен­но­го ин­теллек­та раз­ра­ботал Аль­ян­с в сфе­ре ИИ. До­кумент под­пи­сали Сбер, "Яндекс", МТС, VK, "Газ­пром нефть", РФПИ, а также другие ком­па­нии и науч­но-ис­сле­дова­тельские организа­ции.

По данным ВЦИОМ, лишь 48% россиян доверяют ИИ. Большая часть жителей России с подозрением относятся к искусственному интеллекту и опасаются "восстания машин". Кодекс призван не только помочь компаниям разобраться в этическом регулировании деятельности, связанной с ИИ, но и может способствовать тому, что россияне со временем станут лучше относиться к новым технологиям.

Кодекс, на первый взгляд, учитывает все проблемные этические аспекты взаимодействия человека и машины. В нем говорится о человекоориентированном гуманистическом подходе как главном принципе, уважении свободы воли человека, ответственном отношении. Несколько пунктов Кодекса посвящены информационной безопасности. Кроме того, в этом документе прописано, что ответственность за применение систем ИИ всегда несет человек, а применять искусственный интеллект нужно там, где это принесет пользу людям.

Отдельный пункт в Кодексе посвящен недискриминации. Организации, разрабатывающие ИИ, должны удостовериться, что применяемые ими алгоритмы не влекут умышленную дискриминацию отдельных лиц или групп лиц. Действительно, в эпоху толерантности необходимо позаботиться, чтобы даже система не могла дискриминировать человека.

Но недостаточно перенести на ИИ отношения, сложившиеся в человеческом обществе, и зафиксировать, что он должен быть "толерантным", "гуманным" и т.д. Логично было бы позаботиться и о том, чтобы защитить машину от влияния человека. Пока мы боимся теоретического "восстания машин", люди вовсю подрезают на дорогах беспилотные автомобили и разбирают роботов-курьеров. Аналитики не раз отмечали, что враги беспилотников - это любопытство и хулиганство. Так что людям нужно позаботиться не только о безопасности от машин, но и о безопасности для машин.

При этом Кодекс, пытаясь защитить человека от дискриминации со стороны ИИ, не дает определения понятию "искусственный интеллект". Но ИИ - понятие маркетинговое, объединяющее десятки различных технологий. И если уж авторы Кодекса решили задать вектор этике в сфере ИИ, то неплохо было бы для начала договориться, что понимать под этим термином.

Документ не имеет обязательного статуса, ограничиваясь рекомендациями. Но при этом Кодекс вводит инструменты контроля - в частности, институт регуляторов. Могут создаваться коллегиальные отраслевые органы - внутренние комиссии по этике в сфере ИИ для рассмотрения актуальных или спорных вопросов в сфере этики ИИ. Кроме того, в целях исполнения Кодекса создается комиссия по его реализации. На местах предусмотрено создание позиции уполномоченного по этике ИИ.

По сути, Кодекс декларирует появление "мягкой силы", которая будет указывать компаниям из разных отраслей экономики, как им развивать искусственный интеллект. Но кто будет отбирать людей в эти комитеты и комиссии и по какому принципу? И извечный вопрос - кто будет контролировать контролеров?

Принятие участниками определенного сектора кодексов, меморандумов и иных согласованных между собой правил является показателем цивилизованности рынка. Именно к такому саморегулированию призывал игроков ИТ-рынка первый заместитель руководителя администрации президента РФ Сергей Кириенко на встрече "IT-суббота без галстуков" 22 мая этого года на площадке форума РИФ (см. новость ComNews от 24 мая 2021 г.). По его словам, государство готово выстраивать нормативно-правовую базу на основе правил и договоренностей, которые участники рынка приняли по собственной инициативе. При этом Сергей Кириенко признал, что государство почти всегда, вмешиваясь в специфический рынок, делает это топорнее, чем это могли бы сделать сами его игроки. "Мы вынуждены устанавливать правила сразу во многих сферах, и возникает ощущение: вот раньше не было такого правила, а теперь есть, значит, государство "жестит". Как от этого уйти? Выход - в саморегулировании. Прекрасный пример - антипиратский меморандум. Ссылки на пиратский контент удаляются "Яндексом" по представлению правообладателей", - сказал тогда Сергей Кириенко.

Однако в ситуации с рынком ИИ декларированный Сергеем Кириенко подход нарушен: государство сразу вмешалось в договоренности участников рынка. Документ разработан при поддержке администрации президента РФ, Аналитического центра при правительстве, Минэкономразвития, он прошел экспертное и публичное обсуждение на площадках АНО "Цифровая экономика", Совета Федерации, Общественной палаты. Это сразу порождает вопросы, добровольно ли участники рынка приняли Кодекс и сколь свободны они были в выборе формулировок. Можно предположить, что государство на раннем этапе включилось в работу по теме ИИ, чтобы избежать ошибок, которые были допущены, например, с регулированием интернета.

Резоны власти понятны: если с самого начала применять "мягкую силу", то впоследствии не потребуется жесткий контроль. Безусловно, подобные инициативы перекрывают кислород саморегулированию рынка, однако не только российский опыт, но и, например, история последних месяцев, творящаяся с Facebook, однозначно намекает нам, что власть не терпит конкуренции в любой стране мира и во всех средах, в том числе и виртуальной. Вопрос с развитием ИТ-сферы в дальнейшем будет стоять только о степени контроля и его завуалированности.