На фоне растущего ажиотажа вокруг ИИ появились опасения по поводу потенциального увольнения людей с работы из-за ChatGPT. Один конкретный нью-йоркский адвокат в настоящее время столкнулся с неожиданным и ускоренным осознанием этого страха.
Однако причина, стоящая за этим, сильно отличается от того, что можно было бы ожидать. Согласно отчету из Нью-Йорк Таймс, поверенный Стивен Шварц, связанный с юридической фирмой Levidow, Levidow и Oberman, обратился за помощью к чат-боту OpenAI, чтобы тот помог составить юридическую сводку. К сожалению, исход этого сотрудничества оказался далеко не благоприятным, так как результаты оказались предсказуемо плачевными.
Роберто Мата, который утверждает, что получил травмы во время поездки в международный аэропорт имени Джона Ф. Кеннеди в Нью-Йорке, подал иск против Avianca от имени юридической фирмы Шварца. Недавно, когда авиакомпания добивалась прекращения дела, юридические представители Маты в ответ представили исчерпывающую 10-страничную записку, в которой представили аргументы в пользу продолжения дела. В документе упоминается более шести судебных решений, в том числе известные дела, такие как «Варгезе против China Southern Airlines», «Мартинес против Delta Airlines» и «Миллер против United Airlines».
Однако, к удивлению и тревоге всех вовлеченных сторон, ни одно из судебных решений, упомянутых в записке адвокатов Маты, никому не удалось найти. Причина такой запутанной ситуации? Все судебные решения были выдумками ChatGPT.
Действительно досадная оплошность.
В показаниях под присягой, представленных в четверг, Шварц сообщил, что использовал чат-бота как средство «дополнения» своего исследования. Он выразил неосведомленность о том, что контент, генерируемый ChatGPT, может быть неточным. Чтобы продемонстрировать свое усердие, Шварц представил программе фотографии, на которых запечатлены его запросы о законности приведенных судебных дел. В ответ на его запросы ChatGPT заверил его, что дела можно найти в авторитетных юридических базах данных, таких как Westlaw и LexisNexis.
Выразив глубокое сожаление, Шварц признал, что использует ChatGPT, и подчеркнул, что воздержится от использования ChatGPT в будущем без получения однозначного подтверждения его подлинности. Вопрос о том, будет ли у Шварца еще одна возможность составить юридическую записку, остается неопределенным.
Председательствующий судья, признавая беспрецедентность ситуации, назначил слушание на 8 июня для рассмотрения возможных санкций, вытекающих из действий Шварца. Это слушание послужит средством устранения последствий «беспрецедентного обстоятельства», вызванного тем, что Шварц полагался на ChatGPT.
Взгляд ChatGPT
- Получив эту новостную статью, ChatGPT высказал свое мнение по этому вопросу:
«После просмотра новостной статьи становится очевидным, что использование ChatGPT в данном конкретном судебном деле привело к неблагоприятным и катастрофическим результатам. Инцидент подчеркивает потенциальные риски, связанные с использованием исключительно языковых моделей ИИ для юридических исследований и составления проектов.
Неточная информация, сгенерированная ChatGPT, привела к включению в юридическую записку несуществующих судебных решений, что вызвало путаницу и потенциально поставило дело под угрозу.
Это подчеркивает важность проявления осторожности и получения однозначной проверки подлинности и точности контента, созданного ИИ, в правовом поле. Запланированное слушание по рассмотрению потенциальных санкций отражает серьезность, с которой суд рассматривает это беспрецедентное обстоятельство».
Спасибо за предупреждение, ChatGPT!
Source: Никогда не позволяйте своему адвокату использовать ChatGPT