Валентин Рябцев, сооснователь компании Wale.ai
Валентин
Рябцев

сооснователь компании Wale.ai
© ComNews
06.07.2023

ChatGPT и подобные ему большие языковые модели изменили наше отношение к технологиям за считаные месяцы. Все крупные мировые компании как одна анонсируют внедрение искусственного интеллекта (ИИ) в продукты и рабочие процессы. В связи с этим у руководителей ИТ-компаний и владельцев цифровых продуктов появляется дополнительная работа - современный бизнес требует быстрого внедрения новомодной технологии, из-за чего игнорируются важнейшие риски, способные повлечь за собой определенные сложности для любого бизнеса.

В данной статье я расскажу о некоторых из таких рисков и попробую доказать, что лучший способ относиться к инновациям - делать это с полной ответственностью.

Виды рисков и ошибок при внедрении ИИ

1. Несоответствие ожиданиям

Самой безобидной, но в то же время самой распространенной ошибкой при внедрении ИИ является несоответствие решения поставленной задаче. Пытаясь успеть за текущей волной популярности ИИ, некоторые руководители готовы в корне изменить устоявшиеся процессы и зарекомендовавшие себя продукты компании, чтобы показать стремление идти в ногу со временем. На внедрение "ИИ ради ИИ" зачастую тратятся несопоставимые финансовые и человеческие ресурсы компании, но, к сожалению, большинство таких инициатив не могут увенчаться успехом.

Разработка и внедрение собственного ИИ - это долгий и дорогостоящий процесс, к которому необходимо обращаться в том случае, когда существующие технологии и решения не могут справиться с поставленной задачей. Неслучайно многие специалисты по ИИ разделяют мнение, что, если есть возможность не внедрять ИИ - лучше не делать этого, потому что интеграцию ИИ зачастую можно сравнить с забиванием гвоздей микроскопом.

2. Безопасность ваших данных

Еще один риск, связанный с внедрением ИИ, - это безопасность данных. Как ни странно, далеко не все компании осознают, что передача ценных данных в руки третьих сторон может доставить немало проблем, что и произошло с корпорацией Samsung в апреле текущего года. Из-за невнимательного подхода к внедрению ИИ в рабочий процесс в общий доступ утек секретный исходный код и запись закрытой конференции. Научившись на своих ошибках, Samsung сразу же установила строгие ограничения по использованию ИИ.

Еще одним примером может послужить случай, произошедший с пользователями ChatGPT. Из недавнего отчета Group-IB стало известно, что в скрытых сегментах интернета продается более 100 тысяч взломанных аккаунтов пользователей ChatGPT. Учитывая, что мошенники могут получить доступ к истории сообщений и персональным данным всего за пару кликов, стоит более ответственно подходить к использованию конфиденциальной информации при эксплуатации ChatGPT или любого другого ИИ.

3. Получение прав на данные для тренировки модели ИИ

Не секрет, что некоторые значимые разработчики больших языковых моделей (например, OpenAI) не полностью раскрывают массивы данных, используемые для тренировки моделей ИИ. Это связано с тем, что наборы таких данных, как правило, создаются без получения необходимых разрешений от их владельцев. Крупное фотоагентство Getty Images уже выявило незаконное использование 12 млн своих фотографий и подало в суд на генератора картинок - компанию Stability AI Ltd. Похожая ситуация произошла и с социальной сетью Twitter.

4. "Предвзятость" ИИ

Общеизвестно, что модели ИИ имеют такую же степень предвзятости, как и данные, на которых они обучаются. Так как ИИ не умеет "думать" и воспроизводить независимые мысли, то ему не избежать ошибок и противоречивых суждений, заложенных в тренировочном корпусе данных. В частности, существует несколько примеров (Microsoft, IBM), когда модели ИИ по распознаванию лиц показывали неудовлетворительные результаты при анализе темнокожих людей, при этом отлично справляясь с анализом лиц европейской внешности. Кроме того, модели ИИ были уличены в проявлении предвзятости при расчете кредитного рейтинга женщин, найме персонала женского пола и автоматическом предложении расистских запросов в поисковой строке.

5. "Галлюцинации" ИИ

Однако даже обучение генеративной модели на качественном, непредвзятом и многократно проверенном массиве данных не гарантирует стопроцентную достоверность ответов, сгенерированных нейросетью. Нынешние модели ИИ пока не владеют целостной картиной мира, в связи с чем могут возникать так называемые галлюцинации, то есть искажения фактов в ответах модели.

На данный момент практически невозможно искоренить появление таких "галлюцинаций", разве что только снизить их частоту. В связи с этим внедрение языковых моделей без человеческого контроля в сферы, где требуется максимально возможная точность ответа (медицина, производство, юриспруденция) и цена ошибки велика, происходит в разы медленнее, чем хотелось бы. В то же время ИИ показывает себя наилучшим образом в связке с человеком, помогая ему с первичным анализом и проверкой данных, закладывая фундамент для принятия ключевых решений.

Заключение

Необходимо осознавать, что все перечисленные риски могут нанести серьезный финансовый и репутационный удар для компаний, безответственно относящихся к внедрению передовых технологий. Например, повторная утечка персональных данных может обойтись в 500 млн руб.

Чтобы добиться успеха в проектах с участием ИИ, необходимо найти золотую середину между скоростью внедрения и возможными рисками. В идеале на выходе должен получиться прозрачный процесс, предусматривающий получение прав на обработку и хранение данных для обучения модели, ее постоянную доработку путем проверки качества и непредвзятости массива данных, а также открытость перед пользователями в отношении применения и хранения их персональных данных.