Владимир
Мироненко
29.05.2023

Стремительно набирающие популярность чат-боты на основе искусственного интеллекта могут выдавать за истину вымышленные факты, что приводит пользователей к ложным выводам. Эта особенность сыграла злую шутку с адвокатом Стивеном Шварцем (Steven Schwartz) из юридической фирмы Levidow, Levidow & Oberman, использовавшим ИИ-чат-бота ChatGPT в работе над делом своего клиента Роберто Мата (Roberto Mata).

Роберто Мата подал в суд на авиакомпанию Avianca в связи с получением травм из-за столкновения с сервировочной тележкой во время полёта в 2019 году, заявив о халатности со стороны её сотрудника. Стивен Шварц, адвокат Levidow, Levidow & Oberman, имеющий лицензию на адвокатскую практику в Нью-Йорке более трёх десятилетий, прибегнул к помощи ChatGPT для сбора данных о предыдущих подобных судебных процессах, итоги которых свидетельствовали бы в пользу его подзащитного.

Как выяснилось, ChatGPT предоставил ему вымышленные факты, из-за чего адвокату теперь грозит потеря лицензии. В конце апреля адвокаты Avianca из Condon & Forsyth направили судье Кевину Кастелю (Kevin Castel) Федерального окружного суда Южного округа Нью-Йорка письмо, в котором поставили под сомнение подлинность приведённых адвокатом дел.

Судья после проверки отметил в постановлении, что по крайней мере шесть дел, представленных Шварцем в качестве прецедентов, "кажутся фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними отсылками к источнику".

Шварц в письменном заявлении под присягой сообщил 25 апреля, что до этого дела он никогда не использовал ChatGPT в качестве источника юридической информации и, следовательно, "не знал о возможности того, что его содержание может быть ложным". Он добавил, что "очень сожалеет о том, что использовал генеративный искусственный интеллект для дополнения правового исследования, проведённого здесь, и никогда не будет делать этого в будущем без абсолютной проверки его подлинности".

Новости из связанных рубрик