А судьИИ кто

Швецова корреспондент ComNews.ru
На сессиях Петербургского международного юридического форума, который прошел на прошлой неделе, спикеры традиционно обсуждали один из главных вопросов, который волнует специалистов практически всех сфер: насколько сильно искусственный интеллект проникнет в сферу? Разговор шел не только о помощи нейросетей в документообороте или поиске информации. Участники обсуждали, сможет ли ИИ полноценно заменить судью, прокурора или адвоката.
И это не фантастика, как можно было бы подумать. В Китае нейросети уже активно
Это дает
На Петербургском международном юридическом форуме судья Верховного суда Индии Викрам Натх сообщал, что применяет нейросети в судах. Там они помогают автоматизировать работу с документами и переводом (в Индии 22 официальных языка). В России работники судов также используют ИИ для рутинных задач: поиска информации, подготовки документов. Это значительно снижает нагрузку на сотрудников.
https://www.comnews.ru/content/239275/2025-05-20/2025-w21/1007/gosduma-…
Один из главных аргументов против ИИ заключается в том, что нейросети нередко галлюцинируют. В Америке юристы Стивен Шварц и Питер Лодук использовали цитаты из вымышленных дел - их им подсказал ChatGPT. В России в 2023 году из-за ошибки ИИ пострадал человек. В том году задержали ученого Александра Цветкова, потому что камера распознавания лиц посчитала, что его внешность на 55% совпадает с фотороботом преступника, который 20 лет назад убил несколько человек. Ученого отпустили из СИЗО только спустя 10 месяцев.
Но на это можно возразить: нейросети ошибаются, потому что все еще находятся в стадии развития. Через несколько лет, скорее всего, они станут в разы точнее и будут ошибаться даже реже, чем человек.
Еще один аргумент против ИИ: он не обладает эмпатией и поэтому не может судить людей. Но и тут можно ответить: большое ли значение имеют чувства подсудимого для судьи, который получил взятку? Или если на него оказывают давление.
Но все равно, хорошая ли эта идея, использовать ИИ в судах? На данный момент искусственный интеллект точно не может стать заменой судей. Да и в будущем этот сценарий пока не выглядит реалистичным. Все-таки в судах не всегда рассматривают морально однозначные случаи. В 2018 году началось дело трех сестер Хачатурян, которые убили отца. Он много лет применял к ним насилие, и, по словам защиты, девушки не могли обратиться к правоохранителям, потому что у мужчины были связи в органах. Тогда общественность разделилась. Одни считали, что сестер надо отпустить, потому что они находились в безвыходной ситуации. Другие утверждали, что убийство нельзя оправдывать и сестры заслуживают строгого наказания. Если люди не могли определить, кто прав, а кто виноват, можно ли поручать такие дела искусственному интеллекту? Он не обладает гибкостью, не видит контекст. Люди должны определиться, как они относятся к такого рода случаям, сформулировать моральную позицию, а не отдавать это на аутсорс искусственному интеллекту.
Также важно не забывать, что ИИ подчиняется создателям и тем, кто его обучает. И можем ли мы быть уверены, что ИИ получит правильные данные? И для кого они правильные. А что никто не сможет "залезть" в систему и что-то изменить?
Еще один аргумент против: если нейросеть станет помощником судьи, не приведет ли это к тому, что решения будут приниматься под влиянием машины? Ведь проще подтвердить доводы ИИ, чем писать объяснение в случае несогласия.
В любом случае, все более активное внедрение ИИ в судебную систему неизбежно и надо решать, что с этим делать. Можно начать с разработки этического кодекса ИИ специально для вопросов правоприменения, чтобы начать отвечать на вопросы, которые перед нами ставит новая реальность.
