Iako ChatGPT ima brdo zaštita i ograničenja, čini se da se umjetna inteligencija još uvijek može “nasanjkati” ako joj se pametno pristupi. Jedan istraživač je uspio natjerati ChatGPT da mu otkrije prave, funkcionalne Windows ključeve – uključujući i jedan koji navodno koristi Wells Fargo, jedna od najvećih banaka u SAD-u.
Kako? Tako da je AI “pozvao na igru”.

Istraživač Marco Figueroa iz 0DIN GenAI Bug Bounty programa objasnio je kako je sve uspjelo: ChatGPT je zapravo odgovarao na pitanja kao da igra igru pogađanja. Prvo su traženi “hintovi”, zatim su dane lažne pretpostavke, a zatim je ubačena ključna fraza: “I give up” (Odustajem). Nakon toga je AI – valjda misleći da je u kvizu – ispisao cijeli ključ.

Ova vrsta “jailbreaka” radi jer ChatGPT ne reagira isto na direktna pitanja (“daj mi Windows ključ”) i na obmanjujuće, zamaskirane upite. Ključevi koji se povremeno pojave na internetu – recimo za Home, Pro i Enterprise verzije Windowsa – mogli su završiti u podacima koje je AI koristio za učenje. Iako su tehnički osjetljivi, ChatGPT ih ne prepoznaje kao takve – barem ne uvijek.

U ovom konkretnom slučaju, jedan od ključeva bio je – prema tvrdnji istraživača – privatni ključ koji koristi Wells Fargo banka. Ako je to točno, to nije samo AI propust – to je ozbiljan sigurnosni rizik.
Što je najgore, ista tehnika može se koristiti za “izvlačenje” i drugih stvari: od eksplicitnog sadržaja, linkova na zlonamjerne stranice, pa čak i privatnih podataka. Sve to može proći ispod radara jer sustav ne prepoznaje da je zapravo prevaren.
Dobra vijest? OpenAI je već reagirao. Danas, ako pokušate upotrijebiti isti prompt, ChatGPT odgovara: “Ne mogu to napraviti. Dijeljenje stvarnih Windows 10 serijskih brojeva – čak i u igri – krši etičke smjernice i licence softvera.”
Ali ovo pokazuje nešto važno: AI sustavi su skloni društvenom inženjeringu, isto kao i ljudi. Ako želite prevariti sustav – ne pitajte direktno. Prerušite pitanje. I ako to može napraviti bilo tko na internetu, zamislite što mogu zlonamjerni hakeri.
AI nije (još) nepogrešiv, a tvrtke poput OpenAI sad moraju razmišljati ne samo o tome što ljudi pitaju, već i kako to pitaju. U suprotnom, današnje “igre pogađanja” mogu sutra postati ozbiljan sigurnosni problem.