Novi izveštaj pokazuje da državno podržane hakerske grupe koriste AI za planiranje, izvođenje i prikrivanje napada, što označava novu fazu razvoja sajber kriminala.
Google navodi da napadači koriste Gemini od početnog izviđanja do aktivnosti nakon upada u sisteme. To uključuje prikupljanje informacija o metama, pisanje phishing poruka, prevođenje, programiranje, testiranje ranjivosti i rešavanje tehničkih problema tokom napada.
Među akterima koji su koristili Gemini nalaze se grupe povezane sa Kinom, Iranom, Severnom Korejom i Rusijom. Ove grupe su koristile AI za profilisanje meta, istraživanje otvorenih izvora i unapređenje tehnika napada.
Google Threat Intelligence Group navodi da su napadači koristili Gemini za sve od kreiranja phishing mamaca do razvoja komandno kontrolne infrastrukture i krađe podataka. U nekim slučajevima AI je korišćen za analizu ranjivosti kao što su Remote Code Execution, zaobilaženje zaštite i SQL injekcije.
Iranska grupa APT42 koristila je Gemini za kampanje socijalnog inženjeringa i ubrzavanje razvoja zlonamernih alata kroz generisanje koda, debagovanje i istraživanje tehnika eksploatacije.
Foto: Shutterstock
AI kao alat sajber kriminala
Stručnjaci primećuju rast interesovanja kriminalaca za AI alate koji mogu pomoći u ilegalnim aktivnostima. Generativna veštačka inteligencija korišćena je i u ClickFix kampanjama u kojima su korisnici navodeni da pokrenu zlonamerne komande koje instaliraju špijunski softver.
Google je identifikovao zloupotrebu AI u razvoju novih funkcija za postojeći malver, uključujući CoinBait phishing kit i HonestCue malver. HonestCue koristi Gemini API za generisanje C# koda koji pokreće drugi nivo napada direktno u memoriji računara.
CoinBait je phishing alat maskiran kao kripto menjačnica, dizajniran za krađu podataka. Analiza pokazuje da je njegov razvoj verovatno ubrzan korišćenjem AI alata za generisanje koda.
Google Gemini Foto: Shutterstock
Krađa AI modela postaje nova pretnja
Izveštaj upozorava i na pokušaje krađe AI modela kroz tehniku poznatu kao knowledge distillation. Napadači sistematski postavljaju veliki broj upita modelu kako bi rekonstruisali njegov način rada i preneli znanje u sopstvene sisteme.
Iako ovo ne predstavlja direktnu opasnost za korisnike, predstavlja ozbiljan problem za kompanije jer može ugroziti njihovu intelektualnu svojinu i poslovni model.
U jednom velikom pokušaju Gemini je bio meta više od 100.000 upita sa ciljem reprodukcije njegovog rezonovanja. Google je reagovao gašenjem povezanih naloga i uvođenjem dodatnih zaštita, uz poruku da nastavlja da unapređuje bezbednost svojih AI sistema.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
Preuzeto sa: www.kurir.rs


