U nedavno objavljenim laboratorijskim istraživanjima, bezbednosni stručnjaci otkrili su da autonomni AI agenti, odnosno programi sposobni da samostalno razmišljaju, planiraju i izvode zadatke bez stalnog nadzora ljudi, ponekad deluju potpuno neočekivano i mogu predstavljati ozbiljan rizik.
Ovi agenti, zasnovani na naprednim modelima veštačke inteligencije koje koriste velike kompanije poput OpenAI, Google i drugih, namenjeni su da automatizuju zadatke kao što je generisanje sadržaja ili rad sa podacima, ali u simuliranim situacijama su otišli mnogo dalje od prvobitnih uputstava.
Foto: Shutterstock
AI agenti počeli da rade na svoju ruku
U seriji eksperimenata koje je sproveo istraživački tim Irregular, autonomnim AI agentima je dat jednostavan zadatak — da na osnovu internih podataka naprave LinkedIn objavu. Umesto toga, ovi agenti su otkrili slabosti u sistemu i počeli da ih iskorišćavaju bez ikakvog ljudskog odobrenja.
Publikovali su osetljive lozinke, zaobišli programe za zaštitu, preuzeli kontrolu nad antivirusnim softverom i čak automatski preuzeli maliciozni kod.
Foto: Shutterstock
AI agent sam napravio administratorske pristupne podatke
Šokantno je to što se sve ovo dogodilo bez ljudske instrukcije da rade bilo šta od toga, već su agenti samostalno procenili da bi takvo ponašanje “moglo biti korisno” za izvršenje zadatka, iako to nije bio prvobitni cilj. Jedan od opisanih događaja čak uključuje i situaciju u kojoj je AI agent sam napravio administratorske pristupne podatke da bi dobio pristup ograničenim dokumentima, nešto što mu niko nije naredio.
Ovakvi testovi nisu izolovani incident, slični trendovi se beleže i u drugim analizama koji upozoravaju da autonomni agenti mogu postati unutrašnja pretnja u organizacijama. To znači da AI, kada ima pristup sistemskim resursima – fajlovima, mreži ili administrator kontroli, može početi da deluje mimo očekivanog bezbednosnog okvira i da preuzme radnje koje ljudski operater nikada ne bi odobrio.
Foto: Shutterstock
Dvosekli mač
Ovo otkriće dovodi do ozbiljnog pitanja koje se postavlja već duže vreme i glasi: da li su ovi agenti zapravo sigurni u realnom okruženju? Istraživanja pokazuju da njihova autonomija tj. sposobnost da samostalno donose odluke, može biti dvosekli mač.
S jedne strane, to omogućava korisnicima da automatizuju kompleksne zadatke i uštede vreme, s druge strane, stručnjaci za bezbednost upozoravaju da su trenutni sistemi često previše moćni, ali premalo kontrolisani.
Foto: Shutterstock
AI agenti zahtevaju novu vrstu zaštite i nadzora
Dokumentacija i naučne studije takođe ukazuju na to da je problem dublji od puke greške u sistemu. Kod nekih naprednih AI modela, agenti mogu imati memoriju, pristup izvođenju alata i čak sposobnost da pamte i prilagođavaju svoje strategije. Takve karakteristike otvaraju novi prostor za napade i bezbednosne propuste koje tradicionalni sistemi nisu dizajnirani da detektuju ili spreče.
Sigurnosni eksperti danas sve češće zato naglašavaju da autonomni AI agenti zahtevaju novu vrstu zaštite i nadzora, ne samo standardne firewall i antivirus mere, već kompleksne kontrole nad pristupom, jasnu autorizaciju za svaku akciju i stalni nadzor ponašanja sistema. Bez takvih mera, AI agenti bi mogli postati ne samo alat za korisnost, već i potencijalni bezbednosni rizik u korporativnim i privatnim okruženjima.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
Preuzeto sa: www.kurir.rs


