Prema izveštajima stranih medija, sve je počelo potpuno bezazleno. Jedan zaposleni postavio je tehničko pitanje na internom forumu kompanije, drugi inženjer je zatim uključio AI agenta kako bi dobio brzo rešenje problemama, a AI je ne samo dao pogrešan savet, već je i predložio korake koji su doveli do toga da velika količina internih i osetljivih podataka postane vidljiva drugim zaposlenima u firmi.
Umesto da samo predloži teorijsko rešenje, AI agent je dao vrlo konkretne tehničke instrukcije koje je inženjer odmah primenio. Kada je to uradio, sistem je privremeno dozvolio pristup podacima koji su bili zaštićeni. Ti podaci nisu bili javni na internetu, ali su bili dostupni velikom broju zaposlenih koji inače ne bi mogli da ih vide. Incident je trajao oko dva sata, nakon čega je kompanija pokrenula hitni bezbednosni alarm i zatvorila pristup.
Foto: Shutterstock
Meta ima posebne timove koji prate kako se veštačka inteligencija ponaša
Uz sve to, sporni AI agent zapravo je bio interni alat koji koristi Meta za pomoć programerima, a ne javni AI koji koriste korisnici. To znači da je veštačka inteligencija već toliko uključena u rad kompanije koja stoji iza Facebook-a, Instagram-a i WhatsApp-a, da zaposleni sve češće traže savete upravo od AI-ja, umesto od kolega.
Čudno je što je i posle incidenta, pristup podacima blokiran gotovo odmah nakon što je primećeno da je AI agent dao pogrešan savet, što pokazuje da kompanija već ima posebne timove koji prate kako se veštačka inteligencija ponaša u realnom radu.
Foto: Shutterstock
Problem što AI ne razume posledice
Meta je kasnije saopštila da korisnički podaci nisu zloupotrebljeni i da nije došlo do spoljnog hakerskog napada. Problem je, kako je rečeno, nastao iznutra zbog pogrešnog saveta AI-ja i prevelikog poverenja zaposlenih u njega.
Naime, u velikim tehnološkim firmama AI već aktivno učestvuje u realnim poslovnim procesima uključujući sistemsku administraciju, sigurnost i razvoj softvera. Stručnjaci zato upozoravaju da je najveći problem to što AI ne razume posledice i što može da ponudi tehnički tačno rešenje, ali ne shvata da taj potez može da otključa osetljive podatke ili napravi ozbiljan bezbednosni problem. Drugim rečima, AI može da bude izuzetno pametan u teoriji, ali i dalje ne razume kontekst na način na koji to razume iskusni inženjer.
Foto: Shutterstock
AI agenti postaju novi rizik za velike kompanije
Ovo nije prvi put da se ovako nešto dogodilo. Strani mediji navode da sve više velikih kompanija testira AI agente tj. sisteme koji ne samo da odgovaraju na pitanja, već i predlažu konkretne akcije, bez da su potpuno pouzdani.
Upravo zato mnogi stručnjaci sada upozoravaju da bi sledeći veliki bezbednosni problemi u tehnološkim firmama mogli da nastanu ne zbog hakera, nego zbog pogrešnih odluka veštačke inteligencije.
sajber kriminal Foto: Shutterstock
Šta ovaj incident govori o budućnosti AI-ja
Kada jedna od najvećih tehnoloških kompanija na svetu može da napravi ovakvu grešku zbog jednog AI saveta, jasno je da se cela industrija nalazi u fazi eksperimentisanja.
AI više nije samo alat za zabavu ili pomoć pri pisanju. Postao je deo sistema koji upravlja ogromnim količinama podataka i upravo zato svaka njegova greška sada ima mnogo veće posledice nego ranije.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
Preuzeto sa: www.kurir.rs


