Владислав
Стрекопытов
04.05.2023

Ученые сравнили ответы реальных врачей и медицинских чат-ботов на запросы пациентов. Оказалось, что советы искусственного интеллекта (ИИ) часто кажутся людям более понятными, информативными и корректными. Почему к рекомендациям "виртуального доктора" все же следует относиться с осторожностью — в материале РИА Новости.

Медицина в эпоху ИИ

Практические приложения на основе генеративного ИИ развиваются стремительно, в том числе в медицине. Сегодня искусственный интеллект помогает врачам расшифровывать результаты рентгенографических, МРТ, КТ и других исследований, анализирует истории болезни пациентов, создает шаблоны рецептов и рекомендаций.

Пандемия COVID-19 ускорила внедрение цифрового здравоохранения и телемедицины. С одной стороны, это упростило доступ к медицинской помощи, с другой — привело к снижению ее качества и нарушению регламентов. ИИ частично освобождает врачей от рутинной бумажной работы и готовит информацию, но за диагноз и лечение все равно отвечает человек.

Благодаря медицинским чат-ботам на основе ChatGPT пациенты получили возможность напрямую обращаться к "виртуальному доктору". Эта сфера пока никак не регламентирована. Ученые пытаются найти оптимальные варианты сочетания ИИ с опытом и знаниями специалистов.

"В более отдаленной перспективе я могу представить себе некую технологию, при которой клиницисты присматривают за ИИ, как лечащие врачи — за своими стажерами, — пишет доктор медицинских наук, профессор Калифорнийского университета в Сан-Франциско Тева Брендер. — Мы должны четко осознавать риски, присущие любому новому направлению, тем более с экзистенциальными последствиями. Я с осторожным оптимизмом смотрю в будущее, когда ИИ позволит нам встать из-за компьютера и вернуться к тому, ради чего мы решили заняться медициной".

Цифровая эмпатия

Среди медиков распространено мнение, что конкуренция с ИИ им не страшна, поскольку машинный разум способен лишь механически интерпретировать данные и не в состоянии заменить пациенту общение с врачом. Американские исследователи под руководством доктора Джона Айерса из Калифорнийского университета в Сан-Диегопроверили профессионализм рекомендаций, генерируемых чат-ботом ChatGPT, а заодно оценили их "человечность".

В качестве исходных данных взяли 195 случайно выбранных вопросов пользователей онлайн-сообщества Ask a Doctor (r/AskDocs). Это сабреддит с аудиторией около 452 тысяч человек, где доктора проводят консультации.

Ответы ChatGPT на те же вопросы без указания источника вместе с рекомендациями реальных врачей представили на суд экспертов-медиков. В 79 процентах случаев специалисты отдали предпочтение вариантам ИИ.

"Там более детализированная и точная информация", — отметила одна из участниц эксперимента, практикующая медсестра из Сан-Диего Джессика Келли.

Рекомендации чат-бота были и более чуткими: эмпатия в 9,8 раза выше, чем у врачей. Это объясняется заранее запрограммированными лингвистическими приемами.

"Эмпатия — сложный эмоциональный и когнитивный процесс, — говорит доктор философии Эдивирира Десаприя, сотрудник медицинского факультета Университета Британской Колумбии в Канаде. — Это подразумевает активное слушание, искреннюю заботу, способность понимать тревоги пациентов, реагировать на них".

Профессор искусственного интеллекта в Университете Бата Нелло Кристианини в обсуждении статьи приводит такой пример: "Мой отец был врачом, и порой ему звонили посреди ночи. Утром я спрашивал, что случилось. Он отвечал, что люди боятся смерти и иногда им нужно просто услышать доктора. Не уверен, что чат-бот сможет или должен когда-либо взять на себя эту важную функцию".

Интеллектуальный помощник

Сгенерированные ИИ сообщения воспринимались как более информативные и чуткие прежде всего благодаря развернутости и подчеркнутому уважению к пациенту.

"Длинные ответы более популярны, это сказывается на рейтинге", — уточняет Десаприя.

Ученые считают, что использование ChatGPT в качестве помощника оправданно в клинических условиях. При дистанционном консультировании ИИ можно доверить шаблоны ответов, которые затем отредактируют специалисты. Это ускорит процесс, облегчит работу врачей и улучшит результаты лечения.

Такую систему уже внедряют в Медицинской школе Калифорнийского университета в Сан-Диего. Суперкомпьютерная инфраструктура Microsoft Azure позволяет врачам применять ChatGPT для создания черновика ответа при общении с пациентами.

Еще одно направление — электронные медицинские карты. Генеративный искусственный интеллект OpenAI GPT-4 предназначен для обработки и фиксации бесед врачей с больными.

Предвзятость и выдумывание "фактов"

Базой данных для Chat GPT обычно служат открытые источники в интернете. Но индивидуальные особенности пациента известны только лечащему врачу. В Медицинской школе Стэнфордского университетасопоставили инструкции по послеоперационному лечению от Chat GPT с теми, что дали специалисты при выписке из больницы.

Советы чат-бота оказались хуже: по понятности — на десять процентов, по эффективности — почти на 20.

Тем не менее у чат-ботов есть свои плюсы. Генеративный ИИ незаменим, когда нет возможности обратиться в клинику. Он учитывает последнюю научную информацию, а ответы адаптирует к разным уровням грамотности. Кроме того, обладает способностью к самообучению.

Из минусов — явление, которое назвали "предвзятостью автоматизации". Речь идет о склонности людей, в том числе специалистов, излишне доверять выводам ИИ при принятии решений.

Профессор автоматизированного мышления Университета Лидса Энтони Кон считает, что врач должен сохранять бдительность и всегда проверять рекомендации чат-бота.

"Большие языковые модели, такие как ChatGPT, нередко выдумывают "факты". Опасно полагаться только на искусственный интеллект, — предостерегает он. — С чат-ботом нужна осторожность. Это лишь вспомогательный инструмент медицинского работника".

Недавно ученые из Германии и Нидерландовоценили корректность диагностики рака молочной железы, проведенной врачами-рентгенологами с помощью автоматизированной программы чтения маммограмм. При заключении об отсутствии опухоли, выданном ИИ, выявляемость рака опытными врачами снизилась с 82 до 45 процентов, а стажерами — с 80 до 20.

Вывод: искусственный интеллект может существенно повысить качество медицинской помощи, но его надо умело применять и контролировать, а диагнозы и рекомендации по лечению тщательно проверять.

Новости из связанных рубрик