
Photo by Saúl Bucio on Unsplash
Pogreške generirane umjetnom inteligencijom u sudskim dokumentima dovode do pravnih problema za odvjetnike
Izvještaj kojeg je jučer podijelio Reuters otkriva da halucinacije AI-a – greške i izmišljene informacije stvorene generativnim AI modelima – stvaraju pravne probleme na sudovima u Sjedinjenim Američkim Državama.
U žurbi? Evo brzih činjenica!
- Morgan & Morgan poslali su e-mail na 1.000 odvjetnika upozoravajući na rizike od AI.
- Nedavni slučaj priznanja odvjetnika Walmart-a da koriste AI za svoje slučajeve izazvao je uzbunu u pravnoj zajednici.
- Upotreba halucinacija chatbota u sudskim izjavama postala je učestali problem u posljednjih nekoliko godina.
Ovog mjeseca, odvjetnička tvrtka Morgan & Morgan poslala je e-mail upozorenje preko 1,000 odvjetnika o rizicima korištenja chatbota i lažnih slučajeva generiranih umjetnom inteligencijom.
Prije nekoliko dana, dva su odvjetnika u Wyomingu priznala da su u sudskim podnesima za tužbu protiv Walmarta uključila lažne slučajeve generirane umjetnom inteligencijom, a federalni sudac prijetio im je sankcijama.
U prosincu, profesor sa Stanforda i stručnjak za dezinformacije Jeff Hancock optužen je za korištenje umjetne inteligencije za fabrikaciju citata sudskih izjava kao dio svoje obrane državnog zakona iz 2023. koji kriminalizira korištenje deepfake tehnologije za utjecaj na izbore.
U posljednjih nekoliko godina, brojni slučajevi poput ovih stvaraju pravnu napetost i dodatno otežavaju posao sucima i strankama u postupku. Morgan & Morgan i Walmart odbili su komentirati ovu temu.
Generativna AI pomogla je u smanjenju vremena potrebnog za istraživanje od strane odvjetnika, no njezine halucinacije mogu prouzročiti značajne troškove. Prošle godine, istraživanje Thomson Reutersa otkrilo je da 63% odvjetnika koristi AI za rad, a 12% to čini redovito.
Prošle godine, Američka odvjetnička udruga (American Bar Association) podsjetila je svojih 400.000 članova na pravila odvjetničke etike koja uključuju stajanje iza svih informacija u svojim sudskim podnescima, a napomenula je da to uključuje i informacije generirane AI-jem, čak i ako su nenamjerne – kao u slučaju Hancocka.
“Kada se odvjetnici uhvate da koriste ChatGPT ili bilo koji generativni alat AI-a za stvaranje citata bez provjere, to je nesposobnost, čista i jednostavna,” rekao je Andrew Perlman, dekan pravnog fakulteta Sveučilišta Suffolk za Reuters.
Prije nekoliko dana, BBC je također podijelio izvještaj upozoravajući na lažne citate generirane AI i probleme s AI alatima u novinarstvu.
Ostavite komentar
Otkaži