Представители академического сообщества призвали активнее работать над актуализацией и разработкой новых отечественных стандартов в области искусственного интеллекта (ИИ). Недостаточно активная работа уже начинает сказываться на результатах, в том числе и финансовых, в ходе внедрения и эксплуатации систем с использованием ИИ.
© ComNews
26.08.2022

На IX Международном форуме технологического развития "Технопром-2022" большое внимание уделялось теме внедрения решений с использованием искусственного интеллекта (ИИ). Она стала сквозной для нескольких секций, где обсуждался практический опыт внедрения и эксплуатации таких решений в различных отраслях.

Ректор Научно-технологического университета "Сириус", директор Научного центра информационных технологий и искусственного интеллекта Максим Федоров обозначил сразу три группы рисков, которые пока не привлекают широкого внимания, однако становятся все более значимыми при реализации проектов. Это прежде всего недостаток стандартов. Более того, нет даже точного определения ИИ, что уже приводит к сложностям для компаний, кто претендует на господдержку для разработчиков таких систем. Комитет ТК-164 просто не успевает создавать новые и актуализировать уже имеющиеся стандарты в области ИИ. Максим Федоров призвал активнее включаться в работу этого комитета, прежде всего представителям вузов, тем более что разработка стандартов является крайне полезным навыком для студентов и аспирантов.

Отсутствие стандартов создает и вполне реальные проблемы в ходе эксплуатации уже успешно внедренных и работающих систем. На это посетовал заместитель министра транспорта Новосибирской области Вячеслав Невежин, рассказывая о проекте внедрения системы контроля нарушений на железнодорожных переездах. Эта система успешно работает уже три года и показала свою высокую эффективность. Вместе с тем выявленного нарушителя невозможно наказать, поскольку ИИ с точки зрения законодательства не является полноценным средством фиксации нарушений.

Два других риска связаны с использованием нейросетей. Они обучаются на наборах данных, и качество их работы сильно зависит от качества данных, которое часто является недостаточным. Максим Федоров также обратил внимание, что в готовые наборы данных все чаще включают разного рода "шум" и закладки, которые приводят к тому, что нейросети перестают адекватно работать. Примером тому является грим, нанесение которого на лицо снижает точность систем распознавания лиц. Заместитель директора по научной работе ФАУ "СИБНИИА" Дмитрий Смирнов посетовал, что довольно часто ведут себя не вполне адекватно и системы моделирования, используемые при проектировании авиационной техники. Данное обстоятельство требует проводить тщательную валидацию таких моделей, что замедляет процесс испытаний авиационной техники.

И наконец, третьей группой рисков, по мнению Максима Федорова, является отсутствие методов точного контроля работы нейросетей. Данная проблема уже приводила к сбоям и даже авариям. При этом до решения данной объективно сложной математической задачи пока далеко.

Новости из связанных рубрик