Риски при внедрении ИИ: ответственный подход к инновациям

Рябцев
сооснователь компании Wale.ai
ChatGPT и подобные ему большие языковые модели изменили наше отношение к технологиям за считаные месяцы. Все крупные мировые компании как одна анонсируют внедрение искусственного интеллекта (ИИ) в продукты и рабочие процессы. В связи с этим у руководителей ИТ-компаний и владельцев цифровых продуктов появляется дополнительная работа - современный бизнес требует быстрого внедрения новомодной технологии, из-за чего игнорируются важнейшие риски, способные повлечь за собой определенные сложности для любого бизнеса.
В данной статье я расскажу о некоторых из таких рисков и попробую доказать, что лучший способ относиться к инновациям - делать это с полной ответственностью.
Виды рисков и ошибок при внедрении ИИ
1. Несоответствие ожиданиям
Самой безобидной, но в то же время самой распространенной ошибкой при внедрении ИИ является несоответствие решения поставленной задаче. Пытаясь успеть за текущей волной популярности ИИ, некоторые руководители готовы в корне изменить устоявшиеся процессы и зарекомендовавшие себя продукты компании, чтобы показать стремление идти в ногу со временем. На внедрение "ИИ ради ИИ" зачастую тратятся несопоставимые финансовые и человеческие ресурсы компании, но, к сожалению, большинство таких инициатив не могут увенчаться успехом.
Разработка и внедрение собственного ИИ - это долгий и дорогостоящий процесс, к которому необходимо обращаться в том случае, когда существующие технологии и решения не могут справиться с поставленной задачей. Неслучайно многие специалисты по ИИ разделяют мнение, что, если есть возможность не внедрять ИИ - лучше не делать этого, потому что интеграцию ИИ зачастую можно сравнить с забиванием гвоздей микроскопом.
2. Безопасность ваших данных
Еще один риск, связанный с внедрением ИИ, - это безопасность данных. Как ни странно, далеко не все компании осознают, что передача ценных данных в руки третьих сторон может доставить немало проблем, что и
Еще одним примером может послужить случай, произошедший с пользователями ChatGPT. Из
3. Получение прав на данные для тренировки модели ИИ
Не секрет, что некоторые значимые разработчики больших языковых моделей (например, OpenAI) не полностью раскрывают массивы данных, используемые для тренировки моделей ИИ. Это связано с тем, что наборы таких данных, как правило, создаются без получения необходимых разрешений от их владельцев. Крупное фотоагентство Getty Images уже выявило
4. "Предвзятость" ИИ
Общеизвестно, что модели ИИ имеют такую же степень предвзятости, как и данные, на которых они обучаются. Так как ИИ не умеет "думать" и воспроизводить независимые мысли, то ему не избежать ошибок и противоречивых суждений, заложенных в тренировочном корпусе данных. В частности, существует несколько примеров (
5. "Галлюцинации" ИИ
Однако даже обучение генеративной модели на качественном, непредвзятом и многократно проверенном массиве данных не гарантирует стопроцентную достоверность ответов, сгенерированных нейросетью. Нынешние модели ИИ пока не владеют целостной картиной мира, в связи с чем могут возникать так называемые галлюцинации, то есть искажения фактов в ответах модели.
На данный момент практически невозможно искоренить появление таких "галлюцинаций", разве что только снизить их частоту. В связи с этим внедрение языковых моделей без человеческого контроля в сферы, где требуется максимально возможная точность ответа (медицина, производство, юриспруденция) и цена ошибки велика, происходит в разы медленнее, чем хотелось бы. В то же время ИИ показывает себя наилучшим образом в связке с человеком, помогая ему с первичным анализом и проверкой данных, закладывая фундамент для принятия ключевых решений.
Заключение
Необходимо осознавать, что все перечисленные риски могут нанести серьезный финансовый и репутационный удар для компаний, безответственно относящихся к внедрению передовых технологий. Например, повторная утечка персональных данных может обойтись
Чтобы добиться успеха в проектах с участием ИИ, необходимо найти золотую середину между скоростью внедрения и возможными рисками. В идеале на выходе должен получиться прозрачный процесс, предусматривающий получение прав на обработку и хранение данных для обучения модели, ее постоянную доработку путем проверки качества и непредвзятости массива данных, а также открытость перед пользователями в отношении применения и хранения их персональных данных.
