Csúnyán átvert egy ügyvédet a ChatGPT

2023.06.04. 05:56
A ChatGPT húzott csőbe egy jóhiszemű ügyvédet, aki a mesterséges intelligenciát hívta segítségül egy légitársaság elleni perben, korábbi esetek felkutatására. Az AI több hamis, korábban sosem létező kapcsolódó esetet tárt a jogi képviselő elé, aki a kínos baki miatt most bíróság előtt felelhet jóhiszeműségéért.

A különböző ügyek tárgyalásai az esetek hasonlóságai miatt valóban részben megegyezők lehetnek, a legtöbb esetben mégis szinte minden bíróság elé kerülő eset más és más, így az ügyek is teljesen mást követelnek meg az ügyben eljáró jogi képviselőktől és a bírótól is. 

De mégis hogy jön egy légitársaság elleni bírósági tárgyaláshoz a mesterséges intelligencia, vagy egy AI-alapú chatbot? 

Arról már lehetett olvasni, hogy valaki egy egyetemi beadandó vagy vizsga kapcsán lebukott a ChatGPT használatával, azonban olyasmire még nem volt példa, hogy egy ügyvéd került volna kellemetlen szituációba, mert a mesterséges intelligenciát hívta segítségül néhány perccel hosszabb könyvtári és internetes kutatómunka helyett. Pedig az AI alkalmazása több kockázatot is rejthet. 

Történt ugyanis, hogy egy New York-i bíróság példátlan körülményekkel szembesült, miután kiderült, hogy egy beadvány nem létező jogi esetekre hivatkozik, amelyeket – mint azt később bevallotta – a ChatGPT segítségével gyűjtött össze a munkát megspóroló ügyvéd. 

A mesterséges intelligenciát használó jogi képviselő a bíróságon azzal érvelt, hogy nem volt tudatában annak, hogy az AI által generált tartalom hamis lehet. Pedig ha valamire, arra mindig felhívják a figyelmet a ChatGPT kapcsán, hogy bár az AI kérésre eredeti szöveget hoz létre, pontatlan információkkal is szolgálhat.

A szóban forgó ügyben még egy férfi indított pert a légitársaság ellen egy állítólagos személyi sérülés miatt. Jogi csapata ekkor nyújtotta be a tájékoztatót, amely több korábbi bírósági ügyre hivatkozott, hogy precedensekkel próbálja bizonyítani, miért lehet az ügynek létjogosultsága.

A légitársaságot védő ügyvédek azonban a benyújtott dokumentum ellenőrzését követően azonnal a bíróhoz fordultak, mivel azt állították, hogy nem találnak több olyan esetet, amelyre hivatkoztak.

A benyújtott ügyek közül hat hamis bírósági határozatnak tűnik, hamis idézetekkel

– írta az ügyben eljáró bíró egy végzésben, amelyben a férfi jogi csapatának magyarázatát követelte.

A végzést követően aztán nagyon hamar ki is derült,  hogy a kutatást nem Peter LoDuca, a felperes ügyvédje készítette, hanem egy munkatársa, ugyanabban az ügyvédi irodában. A tettes Steven A Schwartz volt, aki több mint 30 éve ügyvéd, mégis a ChatGPT segítségével keresett kapcsolódó ügyeket.

Nem egyszer hibázott a ChatGPT, állításait többször is megerősítette 

A ChatGPT az IFLScience információi szerint az alábbi, nem létező ügyeket adta ki az ügyvéd kérésére, melyek mögött a dokumentum pontos forrását is feltüntette, így hivatkozva: 

  • Varghese vs. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
  • Shaboon vs. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
  • Petersen vs. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
  • Martinez vs. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. Sept. 25, 2019)
  • Estate of Durden vs. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. June 5, 2017)
  • Miller vs. United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)

A nagy számú hibás információt amellett, hogy kiírta a chatbot, hitelességüket kérdésre meg is erősítette. 

Az eskü alatt tett vallomás során az ügyvéd képernyőképekkel igyekezett bizonyítani, hogy ha nem is a legjobb formáját alkalmazva, de ő azért próbált tényellenőrzést végezni. Schwartz megkérdezte a lista kiírását követően a chatbottól, hogy az adott ügyek valóban valós esetek-e, amire a chatbot többször is igennel válaszolt. Amikor a források hitelességét vizslatta, a ChatGPT azt mondta az ügyvédnek, hogy az ügy megtalálható olyan jogi adatbázisokban, mint a Westlaw és a LexisNexis. Ha a mesterséges intelligenciának orra is nőhetne a hazugságoktól, már jócskán lepipálhatta volna Pinokkiót is, ugyanis még ezt követően is tagadott – arra a kérdésre, hogy „hamisak-e a megadott egyéb esetek”, határozott nemmel válaszolt, és hozzátette, hogy az adatbázisokban mindegyik leellenőrizhető.

Írásbeli nyilatkozatában Schwartz kifejtette, hogy LoDuca nem vett részt a kutatásban, és nem tudott arról, hogyan végezték azt. Hozzátette, nagyon sajnálja, hogy a chatbotra támaszkodott, amelyet korábban soha nem használt jogi kutatásra, és nem volt tudatában annak, hogy a kapott tartalmak akár hamisak is lehetnek. Az esetből tanulva megfogadta, hogy a jövőben soha nem használja a mesterséges intelligenciát a jogi kutatásaihoz, az információk hitelességének ellenőrzése nélkül.

Schwartz és Peter LoDuca – aki nem tudott arról, hogy a ChatGPT-t használták az ügy során –, június 8-án egy tárgyalás keretein belül felel a kínos eset miatt.