Ассоциация менеджеров провела совместное заседание комиссии по бизнес-этике и комитета по информационным технологиям на тему "Этика внедрения искусственного интеллекта". Важность этой темы связана с тем, что именно наличие этических рамок у системы ИИ позволит повысить уровень доверия, отсутствие которого является одним из основных препятствий для внедрения соответствующих технологий.

© ComNews
14.02.2022

Чем активнее технологии ИИ применяются, тем больше недоверия их использование вызывает. Председатель комитета по информационным технологиям Ассоциации менеджеров Владимир Вертоградов также в качестве болевых точек указал вопрос ответственности, точнее ее отсутствия, у систем ИИ, несмотря на то что они могут принимать довольно значимые решения вроде блокирования платежных карт или просто отмены транзакций. Вызывают вопросы и особенности настройки тех же голосовых ботов, которые в некоторых сервисах доставки говорят с явным акцентом или используют излишне фамильярный стиль, что многим кажется неуместным.

Управляющий директор центра регулирования AI Сбербанка Андрей Незнамов обратил внимание, что ни в одной стране нет законодательства по регулированию ИИ. Кодекс этики в сфере искусственного интеллекта является инструментом квазирегулирования. Его необходимо развивать и совершенствовать, но альтернатива ему - только жесткое регулирование.

Руководитель дирекции стратегии, исследований и аналитики АНО "Национальные приоритеты" Юлия Грязнова обратила внимание, что ИИ не является субъектом. К тому же это зонтичный термин, который объединяет очень большое количество разных технологий, практически непонятных обычным людям. Появление Кодекса этики в сфере искусственного интеллекта, принятого в октябре 2021 г., является важным шагом, но этот документ затрагивает разработчиков, а не их продукты.

Что касается отношения жителей России к ИИ, то оно делится приблизительно поровну между позитивным и негативным. Основным положительным последствием использования ИИ видят устранение рутинных скучных операций. Главной же причиной недоверия является то, что эти технологии плохо изучены, люди их просто не понимают. Кроме того, опасения вызывает высокая вероятность ошибок и сбоев, а также использование ИИ в корыстных целях и возможность утечки данных.

Довольно значительная масса людей опасаются вытеснения людей роботами. Причем у женщин, а также у более возрастных категорий, такие опасения еще выше.

Также люди не готовы, чтобы ИИ принимал решения без участия человека, особенно в таких сферах, как образование и здравоохранение. Но при этом в промышленности, науке или на транспорте возможность использования ИИ вызывает намного меньше отторжения.

Руководитель направления по соблюдению деловой этики Unilever Арина Сергиевская назвала этические аспекты одними из важнейших при внедрении ИИ. Наиболее показательна транспортная сфера, где речь идет о жизни людей. Хотя и при использовании ИИ для задач маркетинга возникает много этических вопросов, в том числе и в отрасли производства потребительских товаров, прежде всего связанных с нарушением границ. И тут важно донести остроту проблемы, которую многие не осознают. Сложной юридической проблемой остаются моменты, связанные с обработкой персональных данных, и тут многие компании выработали свои политики комплаенс - такие же, как для экологических или антикоррупционных норм.

Руководитель группы регуляторной поддержки экосистемы блока по взаимодействию с органами государственной власти ПАО "МТС" Елена Сурагина назвала проблему этики ИИ вопросом этики людей, создающих ИИ. Тем самым это составная часть бизнес-этики. И любое ее нарушение ведет к потерям для бизнеса. Если вопросы использования ИИ никак не регулировать, то возникают такие проблемы, как дискриминация, манипулирование сознанием, нарушение частной жизни и другие негативные последствия, которые принято называть термином "электронный концлагерь". Обратной стороной является избыточное регулирование, которое тормозит развитие технологий. И количество разного рода инициатив по регулированию уже довольно велико. Необходимо выстраивать распределенную систему регулирования и саморегулирования, где этическое - один из элементов всей конструкции. Принятие Кодекса этики в сфере искусственного интеллекта, к которому присоединилось уже 40 компаний, является важным шагом. Следующий шаг - разработать механизмы его реализации.

Член правления, вице-президент по программным продуктам и решениям Sitronics Group Павел Дрейгер также назвал вопросы этики одним из факторов, влияющих на доверие к технологиям ИИ. Особенно если они используются в системах, где велика цена ошибки. К таковым относятся разработки Sitronics Group в области создания систем автономного вождения для судов и спутниковых систем дистанционного зондирования Земли.

Директор по государственным программам IBM в России и странах СНГ Олег Бяхов обратил внимание, что ИИ заменяет работу, а не рабочие места. Особенно в таких областях, где жесткий дефицит специалистов. Одной из таких сфер является информационная безопасность, где глобальный дефицит персонала составляет порядка 5 млн человек. Люди к тому же не в состоянии обработать большой объем данных. А только системы IBM обрабатывают более 70 млрд событий в день.

По мнению Олега Бяхова, вопрос этики ИИ делится на два компонента: ответственное отношение к данным и понятность работы алгоритмов. При выработке этических норм также необходимо использование коллективных инструментов. Именно игнорирование их привело к тому, что ряд сервисов той же IBM на базе Watson, в частности для медицины, не получили широкого распространения из-за недостаточного учёта в развитии этих сервисов этики взаимодействия внутри врачебных сообществ.

Не менее значимо и качество работы систем. А оно под большим вопросом из-за нехватки кадров. При этом порядка двух третей бизнеса не понимают, как проводить обучение нейросетей. Поэтому типичной проблемой является недостаточное качество и полнота датасетов. Тут показателен пример одной из систем распознавания лиц, которая чаще ошибалась при идентификации темнокожих и азиатов, особенно женщин, из-за того, что в датасете доминировали данные белых мужчин. При применении корректно составленных наборов данных уровень качества работы сравнялся.

Но в целом этические моменты необходимо закладывать уже на стадии проектирования. Иначе бизнес-риски многократно вырастут, что показал в том числе и опыт ряда проектов IBM, которые не были успешными именно из-за недостаточного внимания вопросам этики.

Руководитель направления комплаенса и этики бизнеса Московской биржи Вячеслав Андрюшин сравнил этику ИИ с обычной этикой человеческих отношений. В ходе обработки данных можно выявить целый комплекс ситуаций, в том числе таких, как супружеские измены или появление серьезных проблем со здоровьем. И вопрос о том, сообщать об этом или нет, является весьма серьезным и не имеет однозначного решения.

Новости из связанных рубрик