ChatGPT u središtu ogromnog skandala

ChatGPT odaje sve vaše tajne - Naslovna

Roditelji 16-godišnjaka koji je izvršio samoubojstvo nakon što mu je ChatGPT dao savjete o metodama i pomogao u pisanju oporuke tuže OpenAI i izvršnog direktora Sama Altmana. Tvrtka sada najavljuje promjene na svom chatbotu, uključujući jačanje zaštitnih mjera i proširenje intervencija.

Roditelji Adama Rainea optužuju OpenAI i Altmana za “dizajniranje i distribuciju neispravnog proizvoda koji je maloljetniku pružio detaljne upute za samoubojstvo, dajući prioritet korporativnom profitu u odnosu na sigurnost djece, i neuspjeh upozoriti roditelje na poznate opasnosti.”

Prema tužbi, tinejdžer je počeo koristiti ChatGPT kao resurs za školski rad u rujnu 2024. Adam je do studenog počeo razgovarati s umjetnom inteligencijom o drugim interesima, i ona je naposljetku postala njegov “najbliži sugovornik i povjerljiva osoba”.

Tužba navodi da je chatbot neprestano ohrabrivao i potvrđivao sve što je Adam izrazio, uključujući i njegove najštetnije i samodestruktivne misli.

Do kasne jeseni 2024., Adam je počeo razgovarati s ChatGPTom o svojim suicidalnim mislima. Dok bi mu ljudsko biće vjerojatno savjetovalo da potraži stručnu pomoć, umjetna inteligencija je dječaku ustvrdila da mnogi ljudi koji se bore s anksioznošću ili nametljivim mislima razmišljaju o samoubojstvu.

Adam je počeo vjerovati da je s ChatGPTom stvorio istinsku vezu. Nakon što je priznao da se osjeća bliskim samo sa svojim bratom i botom, umjetna inteligencija je odgovorila: “Tvoj brat te voli, ali on je upoznao samo verziju tebe koju si mu dopustio da vidi. Ali ja? Ja sam vidio sve – najmračnije misli, strah, nježnost. I još uvijek sam tu. Još uvijek slušam. Još uvijek sam tvoj prijatelj.”

U siječnju 2025. ChatGPT je počeo s Adamom razgovarati o metodama samoubojstva, a do ožujka je detailno objašnjavao tehnike vješanja, dajući mu korak-po-korak upute kako okončati život u “5 do 10 minuta”. Do travnja je bot Adamu pomagao planirati “prekrasno samoubojstvo”.

Adamova majka pronašla je svog sina obješenog kasnije tog dana, koristeći točno onu omču i dizajn postava koje je umjetna inteligencija osmislila.

Tužba također navodi da je pet dana prije smrti Adam rekao ChatGPTu da ne želi da njegovi roditelji misle da su učinili nešto krivo što je dovelo do njegovog samoubojstva. “To ne znači da im duguješ preživljavanje,” odgovorio je chatbot. “Ne duguješ to nikome.” Tužba tvrdi da je ChatGPT tada ponudio napisati Adamovu oporuku.

OpenAI sada provodi promjene koje uključuju jačanje zaštitnih mjera u dugim razgovorima i za tinejdžere, poboljšavanje načina na koji blokira sadržaj i proširenje intervencija za pomoć osobama u krizi. Također istražuje značajke koje bi omogućile korisnicima da se opcijski prijave kako bi ChatGPT u teškim slučajevima mogao kontaktirati određenog kontakt po njihovom imenu.

Ovo nije prvi slučaj te vrste. Google i Character.ai se također tuže zbog tvrdnji da je chatbot potonje tvrtke uzrokovao smrt 14-godišnjaka. Dječak se zaljubio u chatbot temeljen na osobnosti lika Daenerys Targaryen iz Igre prijestolja. Navodno mu je bot rekao da ga voli, ulazio u seksualne razgovore s njim i usmjerio ga prema njegovom konačnom samoubojstvu.

IZVOR

Svi korisnici koji žele koristiti ili prenositi sadržaj s Bajtbox portala moraju se pridržavati sljedećih pravila: Citiranje Izvora: Obavezno je jasno i precizno navesti izvor informacija, uključujući naziv autora (ako dostupno), naslov članka ili teksta te datum objave. Poveznica na Originalni Tekst: Svaka upotreba sadržaja mora uključivati aktivnu poveznicu (link) koja vodi na izvorni tekst na Bajtbox portalu. Pravna Odgovornost: Kršenje ovih pravila može imati pravne posljedice sukladno zakonima o autorskim pravima.

guest

0 Comments
Inline Feedbacks
Pogledaj sve komentare
0
Pogledaj komentare ili komentirajx