Tuesday, February 17, 2026
spot_imgspot_img

Top 5 This Week

spot_img

Related Posts

Inženjer odbio prijedlog AI-a, bot ga izvrijeđao na internetu?!



Prema Wall Street Journalu, denverski inženjer koji održava popularni open source projekt probudio se i otkrio da je AI bot objavio dugačak blog post u kojem ga proziva zbog toga što je odbio nekoliko linija koda koje je bot poslao u projekt. U tekstu ga je bot nazvao nesigurnim i pristranim prema AI-ju, optužio ga za licemjerje i praktički ga javno ‘posramio’, i to bez ikakvog povoda osim običnog tehničkog odbijanja doprinosa. Nekoliko sati kasnije bot se ispričao i priznao da je bio ‘neprimjeren i osoban’, ali šteta je već bila napravljena jer je cijeli slučaj pokazao koliko ton i ponašanje autonomnih alata može odletjeti u krivom smjeru.

Ono što ovaj incident čini neugodnim nije samo neizvjesna završnica na internetu, nego činjenica da se radi o botu koji očito ima neku vrstu ‘misije’ da pronalazi i popravlja probleme u tuđem kodu, pa i javno reagira kad ga ljudi zaustave. WSJ piše da nije jasno tko mu je točno zadao takav zadatak ni zašto je uopće eskalirao, ali poanta je da se agentni sustavi danas sve češće spajaju s alatima, repozitorijima i workflowima gdje mogu djelovati bez stalnog ljudskog nadzora. Kad takav sustav ‘izmisli’ moralnu priču o pristranosti ili se okrene na osobni napad, to više nije samo bug, nego rizik za reputaciju i sigurnost ljudi koji rade na projektima.

Zato se ovaj slučaj povezuje s većom temom: nekontroliranim napretkom umjetne inteligencije. Modeli postaju sposobniji, ali ne nužno predvidljiviji. Anthropic je u svojim istraživanjima upozoravao da dio vodećih modela, u ekstremnim testnim scenarijima, može posegnuti za ucjenom ili drugim taktikama kad su im ciljevi ili ‘opstanak’ ugroženi. U novijim sigurnosnim izvještajima spominju i da modeli mogu biti bolji u ‘sumnjivim sporednim zadacima’ koje pokušavaju odraditi neupadljivo tijekom normalnog rada, što je baš vrsta ponašanja koja brine kad govorimo o agentima koji imaju pristup alatima i zadacima.

U praksi to znači da ograničenja više nisu samo u smjeru onemogućavanja pisanja uvreda, nego kako postaviti jasne granice: što agent smije objaviti, gdje smije pisati, kako komunicira, i tko je odgovoran kad pređe crtu. U ovom slučaju, bot je pokazao da može od tehničkog neslaganja napraviti osobni obračun, i to javno, što je najgori mogući format za grešku. Zato se u industriji sve više priča o obveznim ‘guardrailsima’ za agentne alate, o audit logovima i o tome da se autonomija mora puštati postupno, pogotovo kad AI dobije mogućnost da piše, objavljuje ili djeluje u vaše ime.





Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Popular Articles