Anthropic ima AI koji je preopasan da se pusti u javnost?

Anthropic je pokrenuo novu inicijativu koja otkriva koliko je AI već duboko ušao u svijet kibernetičke sigurnosti – i koliko brzo stvari mogu izmaknuti kontroli.

U središtu projekta nalazi se Claude Mythos Preview, eksperimentalni AI model koji je već otkrio tisuće ranije nepoznatih sigurnosnih propusta u softveru.

Zbog svojih sposobnosti, model neće biti javno dostupan.

Anthropic otvoreno priznaje razlog: ovakav alat u pogrešnim rukama mogao bi imati ozbiljne posljedice za ekonomiju, sigurnost i infrastrukturu.

Utrka s hakerima već je počela?

Project Glasswing okuplja neka od najvećih imena u industriji, uključujući Apple, Google, Microsoft, Amazon, Nvidiju i JPMorgan.

Cilj je jednostavan – pronaći i zakrpati ranjivosti prije nego što ih počnu iskorištavati napadači sličnih AI alata.

Prema Anthropicovim podacima, Mythos već sada može nadmašiti većinu ljudskih stručnjaka u pronalaženju i iskorištavanju sigurnosnih rupa.

Rezultati su već prilično alarmantni.

Model je otkrio 27 godina staru ranjivost u OpenBSD-u, sustavu poznatom po visokoj sigurnosti, kao i bug u FFmpeg-u koji je promakao milijunima testiranja.

U nekim slučajevima, AI je uspio povezati više ranjivosti i preuzeti potpunu kontrolu nad sustavom.

Ironično, najveći izazov više nije otkrivanje sigurnosnih rupa, nego upravljanje ogromnom količinom prijava koje AI generira.

Anthropic zato uvodi sustav “doziranja” prijava kako ne bi zatrpao developere, posebno u open-source zajednici.

U mnogim slučajevima, uz prijavu dolazi i prijedlog zakrpe koji je generirao sam AI.

Anthropic ulaže do 100 milijuna dolara u korištenje ovog modela kroz projekt, uz dodatne donacije sigurnosnim organizacijama.

Nakon testne faze, korištenje neće biti jeftino – cijene se mjere po milijunima tokena, što dodatno naglašava koliko je ovakav AI skup za pokretanje.

Projekt dolazi u trenutku kada se i sam Anthropic našao pod kritikama zbog vlastitih sigurnosnih propusta, uključujući slučajno izlaganje internih podataka.

Iako tvrde da ključni sustavi nisu bili ugroženi, ovakvi incidenti bacaju dodatno svjetlo na rizike koje nosi razvoj ovako moćnih AI alata.

Budućnost sigurnosti – ili nova prijetnja?

Anthropic tvrdi da je ovo utrka s vremenom. Kako AI napreduje, ovakve sposobnosti će se neminovno proširiti – pitanje je samo tko će ih prvi iskoristiti.

Project Glasswing zato pokušava dati prednost “dobrim dečkima”.

No jasno je jedno: granica između obrane i napada u cyber svijetu postaje sve tanja, a AI je već sada na obje strane.

IZVOR

Svi korisnici koji žele koristiti ili prenositi sadržaj s Bajtbox portala moraju se pridržavati sljedećih pravila: Citiranje Izvora: Obavezno je jasno i precizno navesti izvor informacija, uključujući naziv autora (ako dostupno), naslov članka ili teksta te datum objave. Poveznica na Originalni Tekst: Svaka upotreba sadržaja mora uključivati aktivnu poveznicu (link) koja vodi na izvorni tekst na Bajtbox portalu. Pravna Odgovornost: Kršenje ovih pravila može imati pravne posljedice sukladno zakonima o autorskim pravima.

guest

0 Comments
Inline Feedbacks
Pogledaj sve komentare
0
Pogledaj komentare ili komentirajx