Popisu rastućih zabrinutosti povezanih s umjetnom inteligencijom sada možemo dodati i kibernetički kriminal. Googleov tim za obavještavanje o prijetnjama (Threat Intelligence Group – GTIG) objavio je da je prvi put u povijesti otkrio prijetnju koja koristi “zero-day” eksploataciju, za koju vjeruju da je razvijena pomoću umjetne inteligencije. Takozvane “zero-day” ranjivosti često su najopasnije jer su nepoznate metama, ostavljajući im nula dana da se pripreme za napad.
Eksploatacija s potpisom umjetne inteligencije
Google je u svom izvješću naveo kako je napadač planirao iskoristiti ranjivost u “događaju masovne eksploatacije”, no njihovo proaktivno otkriće “možda je spriječilo njezinu upotrebu”. Iako iz tvrtke dodaju kako ne vjeruju da su korišteni njihovi vlastiti modeli Gemini, i dalje imaju “visoko povjerenje” da je AI model bio dio procesa otkrivanja ranjivosti i naoružavanja eksploatacije.
Konkretno, eksploatacija je ciljala na zaobilaženje dvofaktorske autentifikacije (2FA) u popularnom internetskom administratorskom alatu otvorenog koda. Bila je ugrađena u Python skriptu i pokazivala je jasne znakove da ju je generirala umjetna inteligencija, uključujući “obilje edukativnih docstringova, haluciniranu CVSS ocjenu i strukturirani, udžbenički format koda koji je izrazito karakterističan za podatke na kojima se treniraju veliki jezični modeli (LLM)”. Ciljana ranjivost bila je semantička logička pogreška visoke razine, vrsta greške koju su veliki jezični modeli posebno vješti u identificiranju. GTIG u izvješću nije identificirao ciljanu tvrtku, ali je potvrdio da ju je obavijestio, nakon čega je problem zakrpan. Google također nije otkrio počinitelje, ali je aludirao na one povezane s Kinom i Sjevernom Korejom, koji su pokazali “značajan interes” za korištenje umjetne inteligencije u svrhu iskorištavanja sigurnosnih propusta.
Utrka u naoružanju umjetnom inteligencijom
S obzirom na brzinu kojom su se modeli umjetne inteligencije razvili za svakodnevnu upotrebu, ne iznenađuje da se koriste i sa zlonamjernim namjerama. Ovaj incident stavio je u središte pozornosti rastuću “utrku u naoružanju” umjetnom inteligencijom u području kibernetičke sigurnosti. Stručnjaci ističu da, iako AI nudi moćne alate za branitelje, istovremeno značajno spušta ljestvicu za zlonamjerne aktere u razvoju sofisticiranih napada. U intervjuu za The New York Times, John Hultquist, glavni analitičar u GTIG-u, okarakterizirao je ovo otkriće kao prvi “opipljiv dokaz” ovakvih napada.
​- Ovo je samo okus onoga što dolazi i vrh sante leda – dodao je Hultquist.
Google je u izvješću naveo da napadači već koriste umjetnu inteligenciju u različitim fazama kibernetičkog napada, ali da “AI također može biti moćan alat za branitelje”. Poput Googlea, i druge tvrtke koriste AI modele za jačanje preventivnih mjera. Prošlog mjeseca, tvrtka Anthropic najavila je projekt Glasswing, inicijativu zaduženu za korištenje njihovog modela Claude Mythos Preview za pronalaženje i obranu od “ranjivosti visoke ozbiljnosti”. I sam Google koristi AI agente poput “Big Sleep” za otkrivanje ranjivosti i “CodeMender” za automatizirano krpanje softvera. Unatoč tome, neki stručnjaci tvrde da napadači trenutačno imaju prednost jer mogu brže i s manje brige o potencijalnim negativnim posljedicama primjenjivati nove i neprovjerene AI tehnologije.
Promjenjivi krajolik prijetnji
Otkriće “zero-day” eksploatacije generirane umjetnom inteligencijom označava novo poglavlje u povijesti hakiranja. Razvoj tehnika eksploatacije seže u rane dane računarstva, s metodama koje su se neprestano prilagođavale novim sigurnosnim mjerama. Pojava umjetne inteligencije, posebno velikih jezičnih modela, predstavlja značajan skok u toj evoluciji, sposoban automatizirati i ubrzati proces pronalaženja i naoružavanja ranjivosti.
Nedavne statistike ističu rastuću prijetnju “zero-day” eksploatacija. Tijekom 2025. godine, Googleov tim za obavještavanje o prijetnjama pratio je 90 takvih eksploatacija korištenih u stvarnim napadima, što je značajan porast u odnosu na prethodne godine. Važan trend je sve veći fokus na poslovne tehnologije, koje su činile gotovo polovicu svih “zero-day” napada u 2025. godini. Ovaj pomak pripisuje se povećanoj težini iskorištavanja potrošačkih platformi poput mobilnih operativnih sustava i preglednika, koji su doživjeli značajna ulaganja u sigurnost.
Globalna zabrinutost i potreba za regulacijom
Incident je pojačao zabrinutost među vladama i međunarodnim tijelima o ulozi umjetne inteligencije u kibernetičkom ratovanju. U tijeku su rasprave o potrebi za regulatornim okvirima koji bi upravljali razvojem i upotrebom AI-ja u kibernetičkim operacijama, s naglaskom na osiguravanje “značajne ljudske kontrole” i odgovornosti.
Bijela kuća prema navodima održava sastanke s čelnicima tehnoloških tvrtki o sigurnosti naprednih AI modela. To slijedi nakon odluke tvrtke Anthropic da ograniči izdavanje svog moćnog modela “Mythos” zbog zabrinutosti da bi se mogao koristiti za pronalaženje i iskorištavanje softverskih ranjivosti na masovnoj razini. Rasprava o tome kako regulirati umjetnu inteligenciju u kontekstu nacionalne sigurnosti je u tijeku, pri čemu se različite vladine agencije natječu za utjecaj. Brzi tempo razvoja umjetne inteligencije predstavlja značajan izazov za regulatore, koji moraju stvoriti učinkovite politike bez gušenja inovacija.
*uz korištenje AI-ja
Preuzeto sa: www.24sata.hr



