Sąd w USA nałożył 5 tys. dol grzywny na prawników reprezentujących Roberto Matę. Mężczyzna skarżył linie lotnicze Avianca, po tym jak wózek z przekąskami zranił go na pokładzie samolotu. Steven Schwartz, prawnik z 30-letnim stażem, przygotowując się do sprawy skorzystał z aplikacji ChatGPT. Ta jednak zmyśliła orzeczenia sędziów ("halucynowała" - jak mówią specjaliści od AI), do których potem adwokat odwoływał się podczas rozprawy.
Sędzia oprócz grzywny nałożył na Schwartza i Petere'a LoDucę (drugiego adwokata, który reprezentował Matę) obowiązek wysłania listów do sędziów, których rzekome orzeczenia sfałszowane przez ChatGPT zostały wykorzystane w procesie - czytamy w "New York Times".
Sędzia w opinii napisał, że prawnicy pogwałcili fundamentalne zasady systemu prawnego USA. Podkreślił, że cytowanie fałszywych orzeczeń wyrządza wiele szkód. Strona przeciwna musi marnować czas i pieniądze, by ujawnić podstęp, a sądy są odrywane od innych ważnych spraw.
Ponadto zdaniem sędziego w ten sposób umacnia się cyniczne podejście do zawodów prawniczych i całego systemu. To z kolei może skutkować pojawieniem się pokusy, by poddawać w wątpliwość orzeczenia sądowe.
Sędzia nie zdecydował się wymuszać przeprosin wobec sędziów, których opinie sfałszowano. Uznał bowiem, że nieszczere przeprosiny nic nie znaczą i pozostawił tę sprawę w gestii Schwartza i LoDuci.
W jaki sposób Steven Schwartz został "oszukany" przez ChatGPT? Przygotowując się sprawy dotyczącej feralnego wypadku swojego klienta, prawnik postanowił ułatwić sobie życie i poprosił AI o znalezienie podobnych spraw pasażerów, którzy również zdecydowali się pozwać linię lotniczą.
ChatGPT spisał się znakomicie. Znalazł wiele inych przypadków, w których pozwani zostali przewoźnicy z całego świata - m.in. China Southern Airlines, KLM czy United Airlines. Schwartz zaufał AI i postanowił wykorzystać te sprawy w sądzie jako podparcie swoich argumentów. Problem w tym, że każda z nich została całkowicie zmyślona przez ChatGPT.
Pozew został szybko oddalony, bo ani obrońcy linii Avianca, ani sam sędzia prowadzący sprawę nie mogli znaleźć żadnego ze sporów, które przedstawił Schwartz. Adwokat został wezwany na przesłuchanie i podczas zeznań pod przysięgą, przyznał się, że wspomnianych spraw nie szukał samodzielnie, ale poprosił o to ChatGPT.
Tłumaczył, że nie miał pojęcia, że popularny chatbot może podać mu fałszywe informacje. Co więcej, jako dowód przedstawił zrzuty ekranu, pokazujące przebieg rozmowy z programem. Dodał, że w jednym przypadku zapytał AI, czy sprawa na pewno jest prawdziwa. Bot potwierdził.
Całą sprawą zajął się później trzyosobowy panel sędziowski Sądu Apelacyjnego. Z ich opinii wynikało, że przedstawione przez Schwartza i jak się później okazało zmyślone przez ChatGPT orzeczenia zawierały błędy w rozumowaniu i stylistyczne, które z reguły nie pojawiają się w dokumentach prawnych.
"Jego analiza prawna to bełkot. Podsumowanie historii proceduralnej spraw jest trudne do prześledzenia i jest na granicy nonsensu" - podsumowali sędziowie.
Sprawy Swartza i LoDuci nie skierowano do postępowania dyscyplinarnego. Odpowiedzialne za to organy mogą jednak same zdecydować się na taki krok. Zdaniem Stephena Gillera, profesora etyki prawniczej na New York University School of Law, adwokatom udało się uniknąć gorszego losu, dzięki rozgłosowi, jakiego nabrała sprawa. Jego zdaniem, obaj prawnicy będą już zawsze znani jako ci, których oszukał ChatGPT.