Anglijos Aukštasis Teismas demaskavo advokatus, naudojančius dirbtinį intelektą – jie rėmėsi išgalvotais precedentais

Anglijos ir Velso Aukštasis Teismas įspėjo teisininkus, kad informacijos, sukurtos naudojant dirbtinį intelektą (DI), pateikimas teismo dokumentuose gali užtraukti baudžiamąją atsakomybę. Šis pareiškimas nuskambėjo po to, kai buvo nustatyti atvejai, kai advokatai rėmėsi neegzistuojančiais teismo sprendimais ir citavo išgalvotus nutarimus, praneša „The New York Times“.

Teisėja Viktorija Šarp (Victoria Sharp), Karališkojo teismo (King’s Bench Division) prezidentė, ir teisėjas Džeremis Džonsonas (Jeremy Johnson) nagrinėjo du atvejus, kuriuose buvo naudojamos nuorodos į neegzistuojančius bylas. Vienu atveju ieškovas kartu su advokatu pripažino, kad ieškinio prieš du bankus medžiagą rengė naudodami DI įrankius. Teismas nustatė, kad iš 45 paminėtų nuorodų 18 buvo išgalvotos. Byla buvo uždaryta praėjusį mėnesį. Kitame atvejyje, kuris buvo užbaigtas balandį, teisininkas, pateikęs skundą vietos administracijai savo kliento vardu, negalėjo paaiškinti penkių nurodytų teismų praktikos pavyzdžių kilmės.

„Netinkamas DI naudojimas gali turėti rimtų pasekmių teisingumui ir pasitikėjimui sistema“, – pažymėjo teisėja Šarp. Ji pabrėžė, kad teisininkai gali būti patraukti baudžiamojon atsakomybėn arba netekti teisės verstis profesine veikla už melagingų, DI sukurtų duomenų pateikimą. Ji taip pat nurodė, kad tokie įrankiai kaip ChatGPT „negali atlikti patikimų teisinių tyrimų“ ir gali pateikti įtikinamus, tačiau visiškai klaidingus teiginius ar nuorodas į neegzistuojančius šaltinius.

Vieno atvejo metu vyras reikalavo milijoninių kompensacijų už tariamai bankų pažeistas sutarties sąlygas. Vėliau jis pats pripažino, kad nuorodas į teismų praktiką generavo naudodamas DI įrankius ir interneto išteklius, patikėjęs jų autentiškumu. Jo advokatas teigė, kad rėmėsi kliento tyrimais ir pats informacijos nepatikrino.

Kitoje byloje, teisininkė, atstovavusi asmenį, kuris buvo iškeldintas iš namų Londone ir jam reikėjo būsto, taip pat naudojo sugeneruotas nuorodas ir negalėjo paaiškinti jų kilmės. Teismas įtarė DI naudojimą dėl amerikietiškos žodžių rašybos ir šabloninio teksto stiliaus. Pati teisininkė neigė naudojusi DI technologijas, tačiau pripažino, kad kitoje byloje pridėjo panašių melagingų duomenų. Ji taip pat teigė naudojusi Google ir Safari su DI suvestinėmis savo paieškos rezultatuose.

Įdomu tai, kad Silicio slėnyje (Kalifornija, JAV) įsikūrusi bendrovė „Vectara“, nuo 2023 m. tirianti DI atsakymus, nustatė, kad net geriausi pokalbių robotai klysta 0,7–2,2 % atvejų. Tačiau „haliucinacijų“ lygis smarkiai išauga, kai sistemoms tenka generuoti didelį tekstą nuo nulio. Neseniai „OpenAI“ taip pat pranešė, kad jų naujosios modelių klaidų rodiklis atsakant į bendruosius klausimus siekia 51–79 %.

Nors teisėja Šarp pripažino, kad dirbtinis intelektas yra galingas įrankis, ji taip pat pabrėžė, kad jo naudojimas kelia rizikų. Moteris pateikė pavyzdžių iš JAV, Australijos, Kanados ir Naujosios Zelandijos, kur DI neteisingai interpretavo įstatymus arba kūrė išgalvotas citatas.