Požar, rolka in divji konji: ko umetna inteligenca halucinira, odvetniki pa ne preverjajo

Vir foto: Pixabay.

Ameriško pravosodje je doletel nov fiasko, povezan z uporabo umetne inteligence v pravosodju. Zvezni sodnik v Kaliforniji je kaznoval dve odvetniški pisarni, ki sta v pravnem povzetku navedli z umetno inteligenco (UI) generirane neresnice. Odvetniški pisarni sta se na umetno inteligenco zanašali za opravljanje svojega dela, hkrati pa nista preverili verodostojnosti vsebine.

V Odvetniški zbornici ocenjujejo, da so tovrstni incidenti v Sloveniji manj verjetni.

Ko je kalifornijski sodnik Michael Milner poskušal poizvedeti več o v povzetku navedenih primerih, je naletel na nekaj nenavadnega. V sodni odredbi so skoraj pristale izmišljotine umetne inteligence.

»Prebral sem njihov povzetek in prepričali (ali vsaj intrigirali) so me sodni precedensi, ki so jih citirali, zato sem poiskal odločitve, ki so jih navedli, da bi o njih izvedel več. Ugotovil sem, da sploh ne obstajajo. To je strašljivo,« je dejal sodnik Milner.

Kako je do tega prišlo? Odvetnik skupine Ellis George, ene od vpletenih odvetniških družb, si je pri pripravi osnutka pomagal z Google Gemini in še nekaterimi drugimi UI orodji. Osnutek, ki je vseboval kup napak, je nato predal drugi družbi, K&L Gates, brez kakršnih koli popravkov.

A tudi oni vsebine pravnega povzetka očitno niso preverjali. Sodni nadzor je ugotovil, da je kar tretjina navedb vsebovala nepravilnosti ter da vsaj dva od navedenih primerov nista obstajala. Poleg tega je Milner ugotovil, da več citatov, pripisanih pravnim mnenjem, virov ni ustrezno predstavljalo.

»Noben odvetnik ali član osebja v nobeni od odvetniških družb očitno ni preveril citiranih virov ali kako drugače pregledal analize, preden je vložil povzetek,« je zapisal Milner.

Milner se je odločil za visoko kazen v višini 31.000 dolarjev (27.128 evrov). Prepričan je, da je zaradi resnosti napak in prepričljivosti z UI generirane vsebine potrebna močna odvračilna sankcija.

V pravnem predlogu čiste izmišljotine

Podoben incident je letos doletel tudi odvetniško družbo Morgan & Morgan. Vodstvo je svojim odvetnikom po e-pošti poslalo opozorilo, potem ko sta bila dva od njih ujeta pri navajanju neobstoječih sodnih primerov, ki jih je »halucinirala« umetna inteligenca.

Šlo je za tožbo proti podjetjema Walmart in Jetson Electric Bikes zaradi požara v Wyomingu, v katerem je zgorel tožnikov dom in ki naj bi ga povzročila nevarno zasnovana rolka.

Odvetniki Morgan & Morgan in Goody Law Group so si v dokumentu privoščili kar osem popolnoma izmišljenih ali napačno navedenih primerov - od vseh devetih, na katere so se sklicevali.

V predlog in limine (vrsta pravnega predloga, ki se uporablja za izključitev določenih dokazov iz sodbe in o katerem se odloča brez porote) so vključili tudi en dozdevno resničen primer.

Toda oznaka sicer obstoječega primera iz leta 2016 se dejansko nanaša na tožbo Ameriške kampanje za ohranjanje divjih konj proti ameriškemu Ministrstvu za notranje zadeve glede odstranjevanja divjih konj z javnih in zasebnih površin. Prav tako je bil naveden napačen sodnik.

»Naša notranja UI platforma je 'halucinirala' zadevne primere, ko je našemu odvetniku pomagala pri pripravi predloga in limine. Zadeva je zelo sramotna in je spodbudila razpravo in ukrepanje v zvezi z usposabljanjem, izvajanjem in prihodnjo uporabo umetne inteligence v našem podjetju,« so zapisali.

O »halucinacijah« umetne inteligence načeloma govorimo, kadar veliki jezikovni model (kot je ChatGPT) ustvari sicer navidez smiselno vsebino, ki pa se izkaže za neresnično oziroma izmišljeno. Modeli namreč »razmišljajo« po načelu statistično najbolj verjetnih besed, na podlagi iskanja vzorcev v obdelanih podatkih. To postane problematično, ko se ljudje na informacije, ki jih nudi UI, zanašajo nekritično, in podatkov ne preverijo še sami.

Uporaba umetne inteligence ima lahko za odvetniško delo številne koristi, na primer za pregledovanje informacij in zakonodaje, večjo hitrost ter analizo, popravljanje napak in organizacijo dokumentov.

Družba Morgan & Morgan je svojih dobrih tisoč odvetnikov v sporočilu resda naprošala, naj svoje delo dobro pregledajo, a uporabe nove tehnologije kot take ni prepovedala.

Morgan & Morgan je po incidentu nekoliko kozmetično uvedel okence, ki ga morajo zaposleni odkljukati ob uporabi UI platforme. S tem priznavajo omejitve umetne inteligence in obveznosti odvetnikov, ki jo uporabljajo.

'Halucinacije' umetne inteligence so se letos znašle tudi v primeru, povezanim z Mikom Lindellom, ustanoviteljem podjetja MyPillow in kontroverznem podporniku ameriškega predsednika Donalda Trumpa. Po navedbah zveznega sodnika naj bi Lindellov odvetnik vložil pravni dokument s skoraj 30 pomanjkljivimi navedbami, med drugim tudi več sklici na sodno prakso, ki preprosto ni obstajala.

Odvetniška zbornica: slovenski pravosodni sistem bolj varen pred halucinacijami

Z Odvetniške zbornice so nam odgovorili, da z zapleti, s katerimi se srečujejo v ZDA in tudi v Veliki Britaniji, v Sloveniji niso seznanjeni.

Ob tem ocenjujejo, da je slovenski pravni sistem k takšnim težavam manj nagnjen: »Menimo, da tovrstni problemi v kontinentalnem pravnem sistemu ne bodo izraziti, saj naš sistem ne sloni na t. i. case law oziroma sodni praksi.«

Pojasnili so, da so smernice za uporabo UI v pripravi v okviru njihove krovne organizacije, Sveta odvetniških združenj (CCBE); na osnovi le-teh pa bodo pripravljene tudi smernice za slovenske odvetnike.

O uporabi UI kot pripomočka pri svojem delu pa se slovenski odvetniki že izobražujejo – tako o njenih prednostih kot o pasteh. Pri tem je poudarek predvsem na bistvu varovanja načela zaupnosti razmerja med odvetnikom in stranko ter načela varstva poklicne tajnosti.

»Vsekakor pa so odvetniki, v primeru, da se poslužujejo UI, ta pripomoček dolžni uporabljati odgovorno in vestno. V nasprotnem primeru so lahko odškodninsko in tudi disciplinsko odgovorni,« so poudarili.

Vrhovno sodišče zaenkrat še brez smernic

»Z uradnimi podatki, če se tožbe pišejo z uporabo UI na Vrhovnem sodišču, ne razpolagamo,« pa so nam odgovorili z Vrhovnega sodišča.

»Glede na vse bolj obsežne vloge, ki jih v sodnih zadevah vlagajo odvetniki, in dejstvo, da odvetniki sami navajajo, da pri pisanju vlog uporabljajo UI, pa obstaja verjetnost uporabe AI pri pisanju vlog s strani odvetnikov.«

Tudi vrhovno sodišče še ni izdelalo smernic za uporabo UI, a te so, kot pravijo, v pripravi. Pri uporabi UI se zato zanašajo na smernice Sodišča EU »Artificial Intelligence Strategy Court of Justice of The EU« ter Uredbo Evropskega parlamenta »Artificial Intelligence Act Evropskega parlamenta (2024/1689)«, ki se uporablja skladno s Členom 113.

Naroči se Doniraj Vse novice Za naročnike