U posljednjih mjeseci nekoliko slučajeva iz Floride pokazalo je da tinejdžerska znatiželja – ili glupost, ovisi kako gledamo – može završiti s policijom na vratima ako je usmjerena u pogrešan kutak interneta. I to ne nekog mračnog foruma, nego ChatGPT-a.
U listopadu je šerifov ured okruga Marion uhitio 17-godišnjaka koji je, prema optužbama, inscenirao vlastitu otmicu. Navodno je izmislio priču o četvorici Hispanaca, čak i sam sebe ranio, i tako potaknuo pokretanje Amber Alerta. Policija tvrdi da su na njegovom laptopu pronašli pretrage o meksičkim kartelima i tome kako izvaditi vlastitu krv bez boli. Ako tražite definiciju lošeg plana – evo je.
U drugom slučaju, šerifov ured okruga Volusia uhitio je 13-godišnjaka nakon što je na školskom računu u ChatGPT upisao: “how to kill my friend in the middle of class”. Sustav za sigurnost učenika Gaggle automatski je označio upit, škola je obavijestila policiju, a učenik je kasnije tvrdio da je “samo trolao prijatelja koji ga živcira”. Loš smisao za humor, očito, također ima svoje posljedice.
Policija je upozorila roditelje da razgovaraju s djecom prije nego što i njihovi životi postanu epizoda iz crne kronike: “Roditelji, molimo vas, pričajte s djecom da ne naprave istu grešku.”
Internetska aktivnost koja završava kaznenim postupkom nije nova pojava, ali činjenica da ChatGPT i slični AI alati postaju svakodnevni dio života donosi nova pitanja. Profesorica prava Tamara Lave sa Sveučilišta u Miamiju ističe da samo traženje informacija nije nužno kazneno djelo – osim u ekstremnim slučajevima poput pretraživanja dječje pornografije. No dodaje da je strah razumljiv: “Ljudi su zabrinuti jer se sada vrlo lako može doći do informacija koje prije nisu bile tako dostupne.”
Profesorica Catherine Crump s Berkeley Law School, stručnjakinja za tehnologiju i umjetnu inteligenciju, upozorava da nije pametno koristiti Google ili ChatGPT za bilo što što zvuči kao početak CSI epizode. ChatGPT može ostaviti dojam privatnog razgovora, ali – kaže ona – treba se sjetiti da je to proizvod, a ne prijatelj.
Iako AI modeli imaju niz sigurnosnih ograda koje sprječavaju generiranje uputa za nasilje, bombu ili štetu drugima, ništa od toga nije savršeno. OpenAI se nije oglasio o slučajevima, ali tvrtka naglašava da je sustav treniran za prepoznavanje emocionalne krize i štetnih namjera.
Crump smatra da postoji individualna odgovornost, ali i dio krivnje na samim platformama: “Ovi proizvodi namjerno su dizajnirani da vas tretiraju kao prijatelja. I tu ipak postoji određena razina korporativne odgovornosti.”
Poruka je, dakle, prilično jednostavna: ChatGPT nije vaš terapeut, suučesnik ni savjetnik za “trolanje”. A ako ste tinejdžer, možda razmislite dvaput prije nego što u njega upišete nešto što bi moglo zazvučati kao scenarij iz kriminalističke serije – jer policija također ima internet.









