2024.04.1.7 Kada umjetna inteligencija pogriješi
Filip Galić, odvjetnik
Stara narodna poslovica kaže da onaj tko radi, taj i griješi. Nigdje to nije jasnije nego u strukama gdje je intelektualna komponenta snažno izražena – poput, primjerice, odvjetničke struke u kojoj su, zbog složenosti posla, što zbog složenosti svakog pojedinog predmeta, što zbog drugih razloga, moguće brojne, veće ili manje greške.
Međutim, ono što se dogodilo u predmetu Mata vs Avianca, inc, spada u priču-upozorenje pravnicima, odvjetnicima, ali i drugim strukama, što se može dogoditi ukoliko se (još uvijek) nekritično vjeruje generativnim modelima umjetne inteligencije.
ChatGPT je, općepoznato je, od studenog 2022. pokorio svijet i mnoge struke su mu se okrenule kao odličnom sredstvu u svojem radu, a pravnička struka, jasno, nije bila iznimka. Već smo pisali o tome kako su modeli umjetne inteligencije uspješno položili američke pravosudne ispite, kako odvjetnici koriste ChatGPT i druge modele za pisanje jednostavnih, šablonskih dopisa i druge načine na koji se pravna struka oslanja na generativnu umjetnu inteligenciju.
Predmet Mata vs Avianca, inc., nije trebao biti nikakav presedanski predmet. Gospodin Mata je, naime, tužio avio-prijevoznika Aviancu, jer mu je uslijed nestručnog postupanja njihovog zaposlenika, ozlijeđeno koljeno. Gospodina Matu su zastupali odvjetnici Peter LoDuca i Steven A. Scwartz, iz društva Levidow, Levidow & Oberman. Iako su odvjetnici koji su zastupali Aviancu isticali prigovor zastare, odvjetnici tužitelja su na taj prigovor…