Руслан
Алигаджиев

генеральный директор "Биорг" (ИТ-кластер "Сколково")
© ComNews
14.12.2023

Кто и зачем хочет обуздать технологию ИИ, под каким предлогом это делают и какие выводы из этого может вынести Россия? Какие угрозы ИИ реальны с точки зрения бизнеса? Какую роль может играть технология в жизни людей, чтобы польза от нее была очевидна, а риски минимальны? Об этом рассказал ComNews Руслан Алигаджиев, генеральный директор "Биорг" (ИТ-кластер "Сколково").

Саммит по безопасности или заговор больших технологических компаний

В мире задумались, как регулировать искусственный интеллект (ИИ) после того, как генеративная нейросеть ChatGPT компании OpenAI год назад продемонстрировала прорывные возможности по изготовлению контента. Сообщество заговорило о революции в мире креативных профессий и о мерах безопасности, которые надо принять накануне появления сильного (общего) ИИ.

1-2 ноября 2023 года правительство Великобритании организовало международный саммит по безопасности в сфере ИИ (AI Security Summit). Мероприятие прошло в знаковом месте - Блетчли-парке, где группа сильнейших шифровальщиков во главе с Аланом Тьюрингом взламывала коды и шифры нацистов. В первый день подписали международную декларацию Блетчли, в которой США, Британия, Европейской союз и Китай, всего 28 стран, признают, что ИИ несет катастрофические угрозы для человечества, и согласны предпринимать совместные шаги по нивелированию угроз.

Часть СМИ окрестила саммит как дипломатический прорыв, часть посмеялась, что единственным практическим результатом стало решение провести еще больше саммитов. Другие подчеркнули, что в мире нарастает нешуточная конкуренция за лидерство в сфере регулирования ИИ.

Примечателен финт по демонстрации лидерства со стороны США, которые максимально использовали инфоповод англичан для прогрева собственной ИИ-повестки. 30 октября, прямо накануне саммита, вице-президент Соединенных Штатов Камала Харрис выступила в посольстве США в Лондоне, где рассказала, что Штаты запускают собственный Институт безопасности в сфере ИИ (к слову, в Британии такой институт основали семь лет назад), что к политической декларации США по ответственному использованию ИИ в военных целях присоединилась 31 страна и прочее. Что, помимо экзистенциальных рисков для человечества в будущем, ИИ уже сегодня несет совершенно конкретные риски, с которыми надо бороться, - угрозу демократии, риск угнетения незащищенных групп населения.

В этот же день, 30 октября, президент США Байден подписал административный указ "О безопасном, надежном и заслуживающем доверия использовании ИИ". Администрация дала поручения всем органам власти разработать стратегии внедрения ИИ в повседневную жизнь, учитывая защиту прав и свобод граждан, а с ведущими международными партнерами договориться о единых стандартах применения ИИ-технологий.

В августе 2023 года Китай принял довольно строгие правила регулирования в сфере ИИ - хотя их и смягчили по сравнению с изначальным вариантом. Например, в Поднебесной требуется специально маркировать контент, созданный при помощи генеративного ИИ, чтобы не распространялись дипфейки. Всего 24 правила регулирования ИИ.

Кому выгодно контролировать?

Существует мнение, что вся глобальная шумиха по поводу угроз, которые ИИ представляет для человечества - это ловкий трюк большого брата. Вроде как технологически корпорации хотят таким образом спровоцировать правительства на максимальное регулирование ИИ-технологий. Причина в том, что они не хотят конкурировать с молодыми, но талантливыми разработчиками открытого программного кода. Так выражается борьба коммерческого сектора с open-sourсe-моделями ИИ. Риски ИИ с открытым кодом в руках пользователей, которых нельзя контролировать, обсуждали и на британском саммите. За закрытыми дверями.

Правда это или нет, похоже, что даже в передовых технологических компаниях не существует единого мнения о рисках ИИ. Обсуждают, что одной из возможных причин сенсационного и жесткого увольнения гендиректора Open AI Сэма Альтмана стали его серьезные разногласия с ведущим исследователем компании Ильей Суцкевером по вопросу угроз ИИ. Якобы Альтман относился к ним слишком легкомысленно.

Что нам с этого и что происходит у нас?

В России и СНГ тоже нарастает деятельность по поводу возможного сдерживания угроз со стороны технологии искусственного интеллекта.

В 2023 году Объединенный институт проблем информатики Национальной академии наук Белоруссии выиграл грант и разрабатывает проект модельного закона об ИИ для стран СНГ. Цель законотворчества - формализовать правила внедрения искусственного интеллекта в жизнедеятельность населения.

В России самый известный на сегодняшний день документ - "Кодекс этики в сфере ИИ", к которому присоединились уже около 270 организаций. К нему же присоединилась и Белоруссия. Документ планируют обновлять каждые три года - пять лет.

В целом для развития и промышленного внедрения ИИ-технологий у нас есть достаточное количество институтов, ассоциаций - это и АРПП "Отечественный софт", АЛРИИ. При НИУ ВШЭ работает Национальный центр развития ИИ при правительстве РФ (НЦРИИ), по инициативе Минпромторга основан Федеральный центр прикладного развития ИИ. При Минпромторге, Минздраве, Минстрое и Минтрансе планируют запустить рабочие группы по искусственному интеллекту.

Возможно, что при большом числе рабочих групп и организаций не хватает определенной централизации. Можно продолжить логику всеобщих усилий по развитию и регулированию ИИ и предложить создать своеобразное министерство или иное ведомство по развитию искусственного интеллекта - по аналогии с западными институтами безопасности ИИ. Это необязательно будет какой-то физический орган власти. Оно вполне может стать сетевой организацией, сочетающей в себе лучшую экспертизу от государства, ведущих научно-исследовательских, правовых институтов, центров компетенций и, конечно, бизнеса и представителей союзных государств.

Важная миссия развития и регулирования ИИ в том, чтобы не задушить перспективную технологию, соблюдать баланс между разработкой и интересами общества, между американским "пусть делают, не надо мешать" и европейским "давайте все запретим".

В чем реальные риски для людей: глазами бизнеса

Согласно недавнему отчету IBM, ИИ не лишит человека работы, а просто изменит то, как мы работаем. Успешными в новых условиях будут сотрудники, которые научатся применять ИИ в повседневной деятельности. Они и выиграют конкуренцию у менее подкованных в цифровом смысле коллег.

Действительно, это очень похоже на правду. ИИ до сих пор хорошо справляется со вполне типовыми, повторяющимися, рутинными задачами, которые, как правило, и хотят автоматизировать: производственный цикл или извлечение данных из документов. Если ваша работа заключается только в том, чтобы переносить паспортные данные из бумажных документов в систему - да, вы можете ее потерять. В целом угроза человеческому труду преувеличена. И не в последнюю очередь по причине стоимости технологий. Часто бывает так, что человеческий труд даже на рутинных процедурах - дешевле.

Как сделать, чтобы ИИ работал корректно и не создавал проблем

Во-первых, ИИ надо непрерывно обучать. Для этого требуется качественно размечать наборы данных, наблюдать за результатами обучения, контролировать и корректировать их. С должной степенью аккуратности выполнять подобную работу могут только люди. Разрешить ИИ обучаться автоматически на открытых данных в интернете - то же самое, что дать ребенку телефон и планшет и оставить его самостоятельно потреблять контент. В лучшем случае какой-нибудь обученный по такой методике чат-бот начнет материться или угрожать - прецеденты уже были.

В технологических компаниях понимают риски неконтролируемого обучения ИИ. Так, "Яндекс" популяризирует профессию AI-тренеров для обучения собственного GPT. Компания Amazon уже давно запустила платформу Mechanical Turk - где люди помогают обучаться нейросетям. Как мы видим, ИИ обучают с помощью краудсорсинговых моделей, распределенной сети "операторов", так называемой силы толпы.

Во-вторых, ИИ не должен принимать решение за человека. Что ИИ действительно может - это выступать цифровым помощником человека. Назовем это третьей системой принятия решений. На рынке оцифровки и распознавания есть запрос на таких помощников - системы на базе технологий обработки естественного языка. Например, технология для анализа смысловых сущностей в тексте технических заданий выдаст потенциальному покупателю предложение по нужному продукту или прибору, которые в наличии у поставщика. Характерно, что система не принимает решение за человека, а рекомендует ему: как поступать, в итоге решает сам покупатель. Итоговую консультацию всегда можно провести с менеджером компании.

Или возьмем недавнюю инновацию Росреестра - цифрового помощника регистратора Еву. Система выполняет за государственного служащего перечень формальных юридических проверок, сообщая на выходе мнение, можно ли дальше пропускать документы на оформление сделки с землей или недвижимостью. Но финальное решение принимает сам регистратор. Система значительно экономит ему время на рутинные процедуры.

Перспектива ИИ: платформенное развитие и электронный помощник

Гибридный подход к применению ИИ, когда человеческий интеллект и искусственный работают вместе в рамках единой платформы, - долговременный технологический тренд. Наша компания видит это на примере рынка оцифровки документов: даже современные нейросети не справляются со спецификациями различных документов, поэтому к финальной обработке результатов, как правило, подключают людей - так называемых верификаторов. Их задача - вручную распознавать и внести в базу данных информацию, с которой не справился ИИ, дообучить нейросеть.

Платформенный подход отвечает и критериям безопасности: когда человек принимает финальное решение или в любой момент может проверить результат работы системы. Тот же ChatGpt можно рассмотреть как систему "человек+ИИ": только качественный промт-инжиниринг позволят раскрыть всю пользу генеративной нейросети. Не хватает только некой верификации этого процесса.

В подобной парадигме уже начинает действовать бизнес. Например, одна их ведущих консалтинговых компаний Ernst and Young в сентябре 2023 года объявила, что запускает платформу для трансформации бизнеса через консалтинг и применение ИИ-технологий. Платформа объединяет потенциал ИИ и экспертизу людей. ИИ-технология рассматривается в качестве инструмента, который должен находиться в умелых руках.

Кстати, совсем недавно о чем-то подобном сказал глава Минцифры Максут Шадаев, имея в виду, конечно, в первую очередь платформу "ГосТех": "Решений, когда каждый пытается что-то реализовать, будет все меньше и меньше, и все больше мы с вами будем делать общие решения... Мы считаем, что на следующий цикл до 2030 года все-таки платформизация станет основным трендом".

Уверен, что многие преимущества ИИ, совсем не только в области распознавания и генерации данных, мы увидим, когда человек и машина будут работать рука об руку.

Вывод

Глобальные правила регулирования ИИ могут создавать неконкурентные преимущества для больших технологических компаний. В России и Белоруссии существуют ведущие организации, которые курируют развитие ИИ. Для централизованной работы со всеми организациями и центрами компетенций в России можно создать специальное сетевое министерство. Возможно, что нашей стране, учитывая, что нам ближе путь этического понимания применения технологий, стоит поощрять этичную разработку программного обеспечения с открытым кодом. Применять ИИ на практике следует на базе платформенных решений, где работу нейросетей может контролировать человек.