ChatGPT je sada alat i za prevaru – evo i kako!

Dok ChatGPT ne generira viralne slike inspirirane Studio Ghiblijem koje preplavljuju društvene mreže, korisnici su pronašli još jednu upotrebu – izradu lažnih računa. AI chatbot sada dovoljno dobro razumije i generira tekst unutar slika, što je omogućilo snalažljivim korisnicima da stvaraju uvjerljive račune koji lako mogu proći kao pravi dokaz kupnje.

Donedavno je slabost AI-generiranih slika bio tekst – često bi izgledao nečitko ili nelogično. Iako su modeli poput ChatGPT-4o već riješili problem nerealističnih ruku, tekst je dugo ostao slaba točka. No, to se sada brzo mijenja.

Nakon posljednje nadogradnje ChatGPT-ovog alata za generiranje slika, korisnici mogu izraditi račune s gotovo savršenim formatiranjem, stavkama, cijenama i čak realističnim logotipima. Ipak, još uvijek nisu besprijekorni – neki imaju previše čistu grafiku, čudne razmake u tekstu ili čak matematičke pogreške.

U praksi, računi – osobito za manje iznose – rijetko se detaljno provjeravaju. Uz nekoliko prepravki u Photoshopu, poput dodavanja mrlja i laganih oštećenja, prevaranti lako mogu zavarati poslodavce ili druge institucije.

Štoviše, trenutno najučinkovitiji način lažiranja nije potpuno generiranje računa, već učitavanje postojećeg dokumenta u ChatGPT i izmjena detalja poput cijena ili datuma. Kako tehnologija napreduje, potpuno lažni računi mogli bi postati gotovo nemogući za razlikovanje od pravih.

Iako bi ovakva upotreba AI-a mogla izazvati alarm, OpenAI zasad ne poduzima drastične mjere. Glasnogovornik tvrtke rekao je za TechRadar da OpenAI prati generiranje slika na svojoj i vanjskim platformama te koristi interne alate za otkrivanje AI-generiranog sadržaja.

Zanimljivo je da OpenAI vidi i pozitivnu stranu ove tehnologije. Glasnogovornica Taya Christianson izjavila je za TechCrunch da se lažni računi mogu koristiti za edukaciju o financijskoj pismenosti, pomažući ljudima da nauče kako pratiti troškove ili prepoznati prijevare u kontroliranom okruženju.

Napredak umjetne inteligencije donosi brojne mogućnosti, ali i rizike. Dok neki koriste AI za kreativne i edukativne svrhe, drugi pronalaze načine za zloupotrebu tehnologije. Kako se alati poput ChatGPT-a nastavljaju poboljšavati, postavlja se pitanje – hoće li sustavi moći pratiti i spriječiti ovakve prijevare prije nego što postanu široko rasprostranjene?

IZVOR

Svi korisnici koji žele koristiti ili prenositi sadržaj s Bajtbox portala moraju se pridržavati sljedećih pravila: Citiranje Izvora: Obavezno je jasno i precizno navesti izvor informacija, uključujući naziv autora (ako dostupno), naslov članka ili teksta te datum objave. Poveznica na Originalni Tekst: Svaka upotreba sadržaja mora uključivati aktivnu poveznicu (link) koja vodi na izvorni tekst na Bajtbox portalu. Pravna Odgovornost: Kršenje ovih pravila može imati pravne posljedice sukladno zakonima o autorskim pravima.

Pretplatite se
Obavijesti o
guest

0 Comments
Inline Feedbacks
Pogledaj sve komentare
0
Pogledaj komentare ili komentirajx