Анна
Швецова

кор­рес­пон­дент ComNews.ru
© ComNews
26.05.2025

На сессиях Петербургского международного юридического форума, который прошел на прошлой неделе, спикеры традиционно обсуждали один из главных вопросов, который волнует специалистов практически всех сфер: насколько сильно искусственный интеллект проникнет в сферу? Разговор шел не только о помощи нейросетей в документообороте или поиске информации. Участники обсуждали, сможет ли ИИ полноценно заменить судью, прокурора или адвоката.

И это не фантастика, как можно было бы подумать. В Китае нейросети уже активно используются в судебной системе. Каждый судья в стране должен консультироваться с интеллектуальной системой перед принятием решений. ИИ проверяет дела на наличие ссылок, рекомендует наиболее релевантные законы и постановления, составляет юридические документы, дает рекомендации. Конечно, система полностью не заменяет судью. Но если человек не согласен с машиной, он должен дать письменное объяснение почему.

Это дает результаты: ИИ ежедневно анализирует 100 тысяч дел. Система "умный суд" сократила нагрузку китайских судей на треть, а за три года сэкономила 300 млрд юаней. А еще искусственный интеллект не подвержен эмоциям, не предвзят, не устает и не берет взятки.

На Петербургском международном юридическом форуме судья Верховного суда Индии Викрам Натх сообщал, что применяет нейросети в судах. Там они помогают автоматизировать работу с документами и переводом (в Индии 22 официальных языка). В России работники судов также используют ИИ для рутинных задач: поиска информации, подготовки документов. Это значительно снижает нагрузку на сотрудников.

https://www.comnews.ru/content/239275/2025-05-20/2025-w21/1007/gosduma-…

Один из главных аргументов против ИИ заключается в том, что нейросети нередко галлюцинируют. В Америке юристы Стивен Шварц и Питер Лодук использовали цитаты из вымышленных дел - их им подсказал ChatGPT. В России в 2023 году из-за ошибки ИИ пострадал человек. В том году задержали ученого Александра Цветкова, потому что камера распознавания лиц посчитала, что его внешность на 55% совпадает с фотороботом преступника, который 20 лет назад убил несколько человек. Ученого отпустили из СИЗО только спустя 10 месяцев.

Но на это можно возразить: нейросети ошибаются, потому что все еще находятся в стадии развития. Через несколько лет, скорее всего, они станут в разы точнее и будут ошибаться даже реже, чем человек.

Еще один аргумент против ИИ: он не обладает эмпатией и поэтому не может судить людей. Но и тут можно ответить: большое ли значение имеют чувства подсудимого для судьи, который получил взятку? Или если на него оказывают давление.

Но все равно, хорошая ли эта идея, использовать ИИ в судах? На данный момент искусственный интеллект точно не может стать заменой судей. Да и в будущем этот сценарий пока не выглядит реалистичным. Все-таки в судах не всегда рассматривают морально однозначные случаи. В 2018 году началось дело трех сестер Хачатурян, которые убили отца. Он много лет применял к ним насилие, и, по словам защиты, девушки не могли обратиться к правоохранителям, потому что у мужчины были связи в органах. Тогда общественность разделилась. Одни считали, что сестер надо отпустить, потому что они находились в безвыходной ситуации. Другие утверждали, что убийство нельзя оправдывать и сестры заслуживают строгого наказания. Если люди не могли определить, кто прав, а кто виноват, можно ли поручать такие дела искусственному интеллекту? Он не обладает гибкостью, не видит контекст. Люди должны определиться, как они относятся к такого рода случаям, сформулировать моральную позицию, а не отдавать это на аутсорс искусственному интеллекту.

Также важно не забывать, что ИИ подчиняется создателям и тем, кто его обучает. И можем ли мы быть уверены, что ИИ получит правильные данные? И для кого они правильные. А что никто не сможет "залезть" в систему и что-то изменить?

Еще один аргумент против: если нейросеть станет помощником судьи, не приведет ли это к тому, что решения будут приниматься под влиянием машины? Ведь проще подтвердить доводы ИИ, чем писать объяснение в случае несогласия.

В любом случае, все более активное внедрение ИИ в судебную систему неизбежно и надо решать, что с этим делать. Можно начать с разработки этического кодекса ИИ специально для вопросов правоприменения, чтобы начать отвечать на вопросы, которые перед нами ставит новая реальность.