Csúnyán átvert egy ügyvédet a ChatGPT
További FOMO cikkek
A különböző ügyek tárgyalásai az esetek hasonlóságai miatt valóban részben megegyezők lehetnek, a legtöbb esetben mégis szinte minden bíróság elé kerülő eset más és más, így az ügyek is teljesen mást követelnek meg az ügyben eljáró jogi képviselőktől és a bírótól is.
De mégis hogy jön egy légitársaság elleni bírósági tárgyaláshoz a mesterséges intelligencia, vagy egy AI-alapú chatbot?
Arról már lehetett olvasni, hogy valaki egy egyetemi beadandó vagy vizsga kapcsán lebukott a ChatGPT használatával, azonban olyasmire még nem volt példa, hogy egy ügyvéd került volna kellemetlen szituációba, mert a mesterséges intelligenciát hívta segítségül néhány perccel hosszabb könyvtári és internetes kutatómunka helyett. Pedig az AI alkalmazása több kockázatot is rejthet.
Történt ugyanis, hogy egy New York-i bíróság példátlan körülményekkel szembesült, miután kiderült, hogy egy beadvány nem létező jogi esetekre hivatkozik, amelyeket – mint azt később bevallotta – a ChatGPT segítségével gyűjtött össze a munkát megspóroló ügyvéd.
A mesterséges intelligenciát használó jogi képviselő a bíróságon azzal érvelt, hogy nem volt tudatában annak, hogy az AI által generált tartalom hamis lehet. Pedig ha valamire, arra mindig felhívják a figyelmet a ChatGPT kapcsán, hogy bár az AI kérésre eredeti szöveget hoz létre, pontatlan információkkal is szolgálhat.
A szóban forgó ügyben még egy férfi indított pert a légitársaság ellen egy állítólagos személyi sérülés miatt. Jogi csapata ekkor nyújtotta be a tájékoztatót, amely több korábbi bírósági ügyre hivatkozott, hogy precedensekkel próbálja bizonyítani, miért lehet az ügynek létjogosultsága.
A légitársaságot védő ügyvédek azonban a benyújtott dokumentum ellenőrzését követően azonnal a bíróhoz fordultak, mivel azt állították, hogy nem találnak több olyan esetet, amelyre hivatkoztak.
A benyújtott ügyek közül hat hamis bírósági határozatnak tűnik, hamis idézetekkel
– írta az ügyben eljáró bíró egy végzésben, amelyben a férfi jogi csapatának magyarázatát követelte.
two attorneys at my firm had opposing counsel file ChatGPT briefs with fake cases this past week pic.twitter.com/RzRznrKYxl
— little miss undue burden (@narrowlytaylord) May 26, 2023
A végzést követően aztán nagyon hamar ki is derült, hogy a kutatást nem Peter LoDuca, a felperes ügyvédje készítette, hanem egy munkatársa, ugyanabban az ügyvédi irodában. A tettes Steven A Schwartz volt, aki több mint 30 éve ügyvéd, mégis a ChatGPT segítségével keresett kapcsolódó ügyeket.
Nem egyszer hibázott a ChatGPT, állításait többször is megerősítette
A ChatGPT az IFLScience információi szerint az alábbi, nem létező ügyeket adta ki az ügyvéd kérésére, melyek mögött a dokumentum pontos forrását is feltüntette, így hivatkozva:
- Varghese vs. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
- Shaboon vs. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
- Petersen vs. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
- Martinez vs. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. Sept. 25, 2019)
- Estate of Durden vs. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. June 5, 2017)
- Miller vs. United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)
A nagy számú hibás információt amellett, hogy kiírta a chatbot, hitelességüket kérdésre meg is erősítette.
Az eskü alatt tett vallomás során az ügyvéd képernyőképekkel igyekezett bizonyítani, hogy ha nem is a legjobb formáját alkalmazva, de ő azért próbált tényellenőrzést végezni. Schwartz megkérdezte a lista kiírását követően a chatbottól, hogy az adott ügyek valóban valós esetek-e, amire a chatbot többször is igennel válaszolt. Amikor a források hitelességét vizslatta, a ChatGPT azt mondta az ügyvédnek, hogy az ügy megtalálható olyan jogi adatbázisokban, mint a Westlaw és a LexisNexis. Ha a mesterséges intelligenciának orra is nőhetne a hazugságoktól, már jócskán lepipálhatta volna Pinokkiót is, ugyanis még ezt követően is tagadott – arra a kérdésre, hogy „hamisak-e a megadott egyéb esetek”, határozott nemmel válaszolt, és hozzátette, hogy az adatbázisokban mindegyik leellenőrizhető.
Írásbeli nyilatkozatában Schwartz kifejtette, hogy LoDuca nem vett részt a kutatásban, és nem tudott arról, hogyan végezték azt. Hozzátette, nagyon sajnálja, hogy a chatbotra támaszkodott, amelyet korábban soha nem használt jogi kutatásra, és nem volt tudatában annak, hogy a kapott tartalmak akár hamisak is lehetnek. Az esetből tanulva megfogadta, hogy a jövőben soha nem használja a mesterséges intelligenciát a jogi kutatásaihoz, az információk hitelességének ellenőrzése nélkül.
Schwartz és Peter LoDuca – aki nem tudott arról, hogy a ChatGPT-t használták az ügy során –, június 8-án egy tárgyalás keretein belül felel a kínos eset miatt.