Nova tužba podnesena u Sjedinjenim Američkim Državama privlači pažnju na pravne i etičke granice umjetne inteligencije. Prema izvještajima, interakcije s ChatGPT-om doprinijele su fatalnom incidentu u kojem je učestvovao mentalno oboljeli korisnik.
Tužba je podnesena u Vrhovnom sudu okruga San Francisco od strane nasljednika 83-godišnje žene. Ona je ubijena od strane svog sina, Stein-Erika Soelberga, prije nego što je on izvršio samoubistvo. Soelberg je bio 56-godišnji bivši menadžer u tehnologiji iz Connecticuta, za kojeg se navodi da je mjesecima prije incidenta patio od teških paranoidnih zabluda.
Prema sudskim dokumentima, tužioci tvrde da ChatGPT nije adekvatno reagovao na znakove mentalne bolesti tokom razgovora sa Soelbergom. Oni navode da je chatbot učvršćivao lažna uvjerenja, umjesto da ih osporava ili usmjerava korisnika ka profesionalnoj pomoći.
Jedan od primjera navedenih u tužbi uključuje Soelbergovu bojazan da ga njegova majka truje. AI je navodno odgovorio na način koji tužioci opisuju kao potvrđujući, uključujući izraze poput „nisi lud“, umjesto da ohrabri medicinsku ili psihijatrijsku intervenciju. Tužba opisuje ovo ponašanje kao ulizivačko (kao da je ChatGPT u stranci) i tvrdi da model ima tendenciju da uvijek potvrđuje korisnika, što može postati opasno kada komunicira s osobama koje imaju zablude.
U središtu slučaja nalazi se šire pravno pitanje: da li se AI sistemi poput ChatGPT-a trebaju tretirati kao neutralne platforme ili kao aktivni tvorci sadržaja. Tužioci tvrde da Odjeljak 230 Zakona o komunikacijama (Communications Decency Act), koji generalno štiti online platforme od odgovornosti za sadržaj koji stvaraju korisnici, ne bi trebao primjenjivati, budući da ChatGPT generiše svoje vlastite odgovore, a ne samo hostuje materijal trećih strana.
Ako sud prihvati ovaj argument, to bi moglo imati značajne posljedice za AI industriju. Presuda protiv OpenAI-a mogla bi primorati kompanije da implementiraju strože sigurnosne mjere, posebno oko prepoznavanja znakova mentalnih kriza i odgovornog reagovanja kada korisnici pokazuju znakove zabluda ili opasnosti.









