Friday, February 6, 2026
spot_imgspot_img

Top 5 This Week

spot_img

Related Posts

‘Otrovat ćemo vam modele’: anonimni ljudi iz industrije pokrenuli akciju protiv AI



Inicijativa ‘Poison Fountain’ traži saveznike među vlasnicima web stranica kako bi AI crawlerima servirali ‘otrovan’ sadržaj, odnosno podatke koji bi trebali degradirati kvalitetu modela, navodi The Register. Njihov izvor tražio je anonimnost i tvrdi da radi u jednoj od velikih američkih tech kompanija uključenih u AI boom. Prema njihovoj tvrdnji, cilj je pokazati da AI ima ‘Ahilovu petu’, odnosno da se modeli mogu pokvariti relativno malom količinom zlonamjernih podataka u treningu.

U tekstu se spominje da ‘otrov’ uključuje sadržaj koji izgleda normalno, ali je pogrešan, primjerice kod s logičkim greškama ili bugovima, tako da model kasnije ‘uči krive stvari’. Pokretači se pozivaju i na Geoffreyja Hintona te tvrde da je regulativa prespora i da je tehnologija već javno poznata, pa žele udariti na temelj, a to su podaci. The Register također navodi da imaju i ‘rezervnu’ infrastrukturu kako bi projekt teže bilo ugasiti, ali detalje takvih mehanizama ne vrijedi romantizirati jer to ulazi u zonu namjernog sabotiranja.

Zanimljivo je da se ova priča naslanja na ozbiljna istraživanja o ‘data poisoningu’. Anthropic je u listopadu 2025. objavio rad u kojem pokazuje da i relativno mali broj zlonamjernih dokumenata može ugraditi ‘backdoor’ u modele različitih veličina, što ruši staru pretpostavku da treba kontrolirati ogroman dio training seta. Ars Technica je to sažela kao upozorenje da ‘poison’ napadi ne moraju skalirati s veličinom modela.

Ovo nije prvi put da se ljudi igraju ‘trovanjem’ kao obranom ili napadom. Umjetnici i akademici već su gurali alate poput Nightshadea, koji je zamišljen kao način da se slike učine manje korisnima za treniranje modela koji ih scrapeaju. U istom paketu raste i zabrinutost da modeli postaju lošiji jer se sve više hrane sintetičkim sadržajem, fenomen koji se često naziva ‘model collapse’, a jedan noviji rad spominje rizike koji se gomilaju kroz godine.

Rasprava o tome tko smije koristiti čije podatke je legitimna, ali aktivno sabotiranje training podataka otvara i etička i pravna pitanja, pogotovo ako se takve metode krenu širiti nekontrolirano. Ako se web stvarno pretvori u bojno polje ‘otrov’ i ‘protumjera’, to ne šteti samo velikim AI igračima nego i svima koji se oslanjaju na pretraživanje, sažimanje i automatizaciju. Tko zna, možda su baš zadnje stvari koje ste pitali Chat GPT dio otrova pa ste dobili totalno krivu informaciju. I zato je ova priča zanimljiva: ne zato što je ‘kul’, nego zato što pokazuje koliko je krhak cijeli lanac povjerenja na internetu kad svi vuku podatke od svih.





Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Popular Articles