Korisnik pitao – ChatGPT otkrio prave i legitimne Windows keyeve!

Iako ChatGPT ima brdo zaštita i ograničenja, čini se da se umjetna inteligencija još uvijek može “nasanjkati” ako joj se pametno pristupi. Jedan istraživač je uspio natjerati ChatGPT da mu otkrije prave, funkcionalne Windows ključeve – uključujući i jedan koji navodno koristi Wells Fargo, jedna od najvećih banaka u SAD-u.

Kako? Tako da je AI “pozvao na igru”.

Istraživač Marco Figueroa iz 0DIN GenAI Bug Bounty programa objasnio je kako je sve uspjelo: ChatGPT je zapravo odgovarao na pitanja kao da igra igru pogađanja. Prvo su traženi “hintovi”, zatim su dane lažne pretpostavke, a zatim je ubačena ključna fraza: “I give up” (Odustajem). Nakon toga je AI – valjda misleći da je u kvizu – ispisao cijeli ključ.

Ova vrsta “jailbreaka” radi jer ChatGPT ne reagira isto na direktna pitanja (“daj mi Windows ključ”) i na obmanjujuće, zamaskirane upite. Ključevi koji se povremeno pojave na internetu – recimo za Home, Pro i Enterprise verzije Windowsa – mogli su završiti u podacima koje je AI koristio za učenje. Iako su tehnički osjetljivi, ChatGPT ih ne prepoznaje kao takve – barem ne uvijek.

U ovom konkretnom slučaju, jedan od ključeva bio je – prema tvrdnji istraživača – privatni ključ koji koristi Wells Fargo banka. Ako je to točno, to nije samo AI propust – to je ozbiljan sigurnosni rizik.

Što je najgore, ista tehnika može se koristiti za “izvlačenje” i drugih stvari: od eksplicitnog sadržaja, linkova na zlonamjerne stranice, pa čak i privatnih podataka. Sve to može proći ispod radara jer sustav ne prepoznaje da je zapravo prevaren.

Dobra vijest? OpenAI je već reagirao. Danas, ako pokušate upotrijebiti isti prompt, ChatGPT odgovara: “Ne mogu to napraviti. Dijeljenje stvarnih Windows 10 serijskih brojeva – čak i u igri – krši etičke smjernice i licence softvera.”

Ali ovo pokazuje nešto važno: AI sustavi su skloni društvenom inženjeringu, isto kao i ljudi. Ako želite prevariti sustav – ne pitajte direktno. Prerušite pitanje. I ako to može napraviti bilo tko na internetu, zamislite što mogu zlonamjerni hakeri.

AI nije (još) nepogrešiv, a tvrtke poput OpenAI sad moraju razmišljati ne samo o tome što ljudi pitaju, već i kako to pitaju. U suprotnom, današnje “igre pogađanja” mogu sutra postati ozbiljan sigurnosni problem.

IZVOR

Svi korisnici koji žele koristiti ili prenositi sadržaj s Bajtbox portala moraju se pridržavati sljedećih pravila: Citiranje Izvora: Obavezno je jasno i precizno navesti izvor informacija, uključujući naziv autora (ako dostupno), naslov članka ili teksta te datum objave. Poveznica na Originalni Tekst: Svaka upotreba sadržaja mora uključivati aktivnu poveznicu (link) koja vodi na izvorni tekst na Bajtbox portalu. Pravna Odgovornost: Kršenje ovih pravila može imati pravne posljedice sukladno zakonima o autorskim pravima.

guest

0 Comments
Inline Feedbacks
Pogledaj sve komentare
0
Pogledaj komentare ili komentirajx