Разделы

ChatGPT обманул опытнейшего адвоката, придумав прецеденты, которых в реальности не было. Теперь адвокату грозит наказание

Адвокат из США применял ChatGPT при подготовке судебного иска. Чат-бот оказался плохим помощником с «богатой фантазией». Юриста с тридцатилетним стажем, который, по собственному признанию, не знал, что разработка OpenAI склонна сообщать недостоверную информацию, вероятно, ждет наказание.

Плохой помощник юриста

Американский юрист Стивен Шварц (Steven Schwartz) использовал популярного диалогового чат-бота ChatGPT для подготовки документов по иску к компании Avianca, пишет New York Times. Попытка упростить свой труд с помощью алгоритмов искусственного интеллекта обернулась для адвоката катастрофой – разработка OpenAI снабжала его недостоверной информацией, о чем опытный юрист даже не догадывался. Теперь ему грозит наказание.

Сотрудник юридической фирмы Levidow, Levidow & Oberman Шварц , посвятивший последние 30 лет своей жизни адвокатской практике в Нью-Йорке, представлял интересы Роберто Маты (Roberto Mata) в судебном процессе против колумбийской авиакомпании Avianca.

Мата, по его собственному заявлению, в ходе полета получил травму по вине сотрудника компании-перевозчика в 2019 г. – бортпроводник ударил его в колено металлической тележкой, которая используется для обслуживания пассажиров в полете. Это побудило мужчину обратиться в суд с иском к Avianca при поддержке Levidow, Levidow & Oberman.

Дело, которого нет

Юристы Avianca решили в корне задушить разбирательство и попросили федерального судью Кевина Кастеля (Kevin Castel) отказать в рассмотрении дела на основании истечения срока исковой давности. Однако адвокаты пострадавшего пассажира сослались на прецедент – привели в пример сразу несколько похожих дел, рассмотрение которых в прошлом завершилось в пользу истца.

ChatGPT компании OpenAI подвел американского адвоката

В частности, в переданных Шварцем в суд документах значились такие дела как «Мартинес против Delta Air Lines», «Зикерман против Korean Air Lines» и «Варгезе против China Southern Airlines». Как выяснилось впоследствии, автор документов решил не тратить свое время на поиски по базам юридической информации вроде LexisNexis или Westlaw, а прибегнул к помощи диалогового чат-бота ChatGPT компании OpenAI. Тщательно перепроверять полученные от бота данные опытнейший юрист Шварц не стал, а сразу же внес ее в документы, которые затем были переданы в суд.

Неладное участники разбирательства заподозрили, когда ни представители ответчика, ни сам судья не сумели отыскать тексты решений по упомянутым в документах делам.

Беспрецедентная ситуация

Судья потребовал от Шварца объяснений, которые тот и представил в письменной форме. Из него следовало, что причина, по которой суд не преуспел в поиске дел, упомянутых адвокатом в документах, представители истца, оказалось предельно простой – в действительности они никогда не существовали, и ChatGPT их просто «выдумал», пытаясь поддержать позицию истца.

Адвокат выразил сожаление по поводу своего решения положиться на ИИ-сервис. Он заявил, что никогда до этого случая не использовал ChatGPT и поэтому был не в курсе того, что текст, генерируемый ботом, может содержать ложные сведения.

По словам Шварца, он пытался проверить подлинность выданных ботом данных – причем с помощью все того же бота: адвокат поинтересовался у ChatGPT, являются ли дела, на которые тот ссылается, реально существующими. Ответ диалогового бота был максимально емким и кратким: «Да».

Судья Кастель охарактеризовал ситуацию в которой юридические документы изобилуют «ложными судебными постановлениями, ссылками и цитатами» как беспрецедентную.

Суд назначил дисциплинарные слушание на 8 июня 2023 г., в ходе которого будут обсуждаться потенциальные санкции в отношении Шварца и его коллеги по юридической фирме Питера Лодуки (Peter LoDuca).

Что такое ChatGPT

ChatGPT – чат-бот с искусственным интеллектом на базе языковой модели GPT. Он работает с ноября 2022 г. и принадлежит американской компании OpenAI, в которую инвестирует корпорация Microsoft.

На текущем этапе развития ChatGPT умеет подавать информацию в простой и понятной форме, формулировать лаконичные ответы на заданные пользователем вопросы, касающиеся самого широкого круга тем.

В декабре 2022 г. CNews писал о том, что в Google не на шутку испугались ChatGPT, посчитав, что тот в перспективе мог бы лишить компанию значительной доли рекламной выручки.

Позднее выяснилось, что бот готов помочь написать дипломную работу, которая удовлетворит аттестационную комиссию российского вуза и вообще обрел немалую популярность среди студентов учебных заведений по всему миру.

Кроме того, нейросеть способна обнаруживать программные уязвимости, предлагать варианты их устранения и даже самостоятельно писать код, хоть и далеко не безупречно. Применение ChatGPT нашли и злоумышленники, использующие инструмент для создания вредоносного ПО и реализации фишинговых схем.

Дмитрий Степанов