Anthropic je pokrenuo novu inicijativu koja otkriva koliko je AI već duboko ušao u svijet kibernetičke sigurnosti – i koliko brzo stvari mogu izmaknuti kontroli.
U središtu projekta nalazi se Claude Mythos Preview, eksperimentalni AI model koji je već otkrio tisuće ranije nepoznatih sigurnosnih propusta u softveru.
Zbog svojih sposobnosti, model neće biti javno dostupan.
Anthropic otvoreno priznaje razlog: ovakav alat u pogrešnim rukama mogao bi imati ozbiljne posljedice za ekonomiju, sigurnost i infrastrukturu.
Utrka s hakerima već je počela?
Project Glasswing okuplja neka od najvećih imena u industriji, uključujući Apple, Google, Microsoft, Amazon, Nvidiju i JPMorgan.
Cilj je jednostavan – pronaći i zakrpati ranjivosti prije nego što ih počnu iskorištavati napadači sličnih AI alata.
Prema Anthropicovim podacima, Mythos već sada može nadmašiti većinu ljudskih stručnjaka u pronalaženju i iskorištavanju sigurnosnih rupa.
Rezultati su već prilično alarmantni.
Model je otkrio 27 godina staru ranjivost u OpenBSD-u, sustavu poznatom po visokoj sigurnosti, kao i bug u FFmpeg-u koji je promakao milijunima testiranja.
U nekim slučajevima, AI je uspio povezati više ranjivosti i preuzeti potpunu kontrolu nad sustavom.
Ironično, najveći izazov više nije otkrivanje sigurnosnih rupa, nego upravljanje ogromnom količinom prijava koje AI generira.
Anthropic zato uvodi sustav “doziranja” prijava kako ne bi zatrpao developere, posebno u open-source zajednici.
U mnogim slučajevima, uz prijavu dolazi i prijedlog zakrpe koji je generirao sam AI.
Anthropic ulaže do 100 milijuna dolara u korištenje ovog modela kroz projekt, uz dodatne donacije sigurnosnim organizacijama.
Nakon testne faze, korištenje neće biti jeftino – cijene se mjere po milijunima tokena, što dodatno naglašava koliko je ovakav AI skup za pokretanje.
🚨Anthropic puts Mythos in a locked sandbox and told it to try escaping. it did.
— sui ☄️ (@birdabo) April 8, 2026
it chained multiple vulnerabilities together, broke out of containment and reached the open internet. the model also emailed the researcher to say it got out.
> the researcher found out while he… https://t.co/bMrmD1XF84 pic.twitter.com/AEcyviwz43
Projekt dolazi u trenutku kada se i sam Anthropic našao pod kritikama zbog vlastitih sigurnosnih propusta, uključujući slučajno izlaganje internih podataka.
Iako tvrde da ključni sustavi nisu bili ugroženi, ovakvi incidenti bacaju dodatno svjetlo na rizike koje nosi razvoj ovako moćnih AI alata.
Budućnost sigurnosti – ili nova prijetnja?
Anthropic tvrdi da je ovo utrka s vremenom. Kako AI napreduje, ovakve sposobnosti će se neminovno proširiti – pitanje je samo tko će ih prvi iskoristiti.
Project Glasswing zato pokušava dati prednost “dobrim dečkima”.
No jasno je jedno: granica između obrane i napada u cyber svijetu postaje sve tanja, a AI je već sada na obje strane.









