spot_imgspot_img

Top 5 This Week

spot_img

Related Posts

Najopasnije pismo ostavke u Silicijskoj dolini: Odlazak iz OpenAI kao upozorenje svijetu

Ostavka Caitlin Kalinowski, dosadašnje voditeljice hardvera i robotike u tvrtki OpenAI, odjeknula je tehnološkim svijetom poput pucnja upozorenja. Njezin odlazak početkom ožujka nije samo još jedna korporativna vijest; to je čin koji se tumači kao najozbiljniji alarm do sada o opasnom savezu između napredne umjetne inteligencije i vojne moći. Kalinowski nije otišla tiho. Svojom je odlukom, obrazloženom principijelnim neslaganjem oko ugovora s Pentagonom, razotkrila duboke etičke pukotine unutar jedne od najvažnijih svjetskih AI kompanija i poslala poruku koja nadilazi urede Silicijske doline.

Crvene linije koje su prebrzo prijeđene

U središtu njezine odluke nalazi se kontroverzni dogovor koji je OpenAI sklopio s američkim Ministarstvom obrane. Taj sporazum omogućuje implementaciju njihovih AI modela na povjerljivim vojnim mrežama. Za Kalinowski, problem nije bio u samoj suradnji s vojskom, već u brzini i nedostatku promišljanja o ključnim zaštitnim mehanizmima. U svojoj javnoj objavi ostavke, precizno je detektirala dvije točke koje smatra nedopustivima.

“Ovo nije bila laka odluka. Umjetna inteligencija ima važnu ulogu u nacionalnoj sigurnosti”, napisala je Kalinowski. “Ali nadzor Amerikanaca bez sudskog naloga i smrtonosna autonomija bez ljudskog odobrenja su linije koje su zaslužile mnogo više promišljanja nego što su dobile.”

Dodala je kako se radi o “pitanju principa, a ne ljudi”, naglasivši da i dalje duboko poštuje izvršnog direktora Sama Altmana. Međutim, njezina poruka je jasna: odluke s potencijalno smrtonosnim posljedicama donesene su ishitreno, bez definiranih “zaštitnih ograda”. Nazvala je to prvenstveno “problemom upravljanja”, ističući kako su takve teme previše važne da bi se o njima odlučivalo na prečac.

Hladan tuš za OpenAI, pobjeda za rivale

Ostavka je stigla u najgorem mogućem trenutku za OpenAI, koji se već suočavao s ozbiljnom krizom imidža. Dogovor s Pentagonom sklopljen je samo nekoliko sati nakon što je administracija predsjednika Trumpa proglasila konkurentsku tvrtku Anthropic “rizikom za opskrbni lanac”. Razlog? Anthropic je odbio ukloniti klauzule iz svojeg ugovora koje su branile korištenje njihove tehnologije, AI modela Claude, za masovni nadzor i autonomno oružje bez ljudske kontrole. Dok je Anthropic ispao heroj koji se drži etičkih načela, OpenAI je, uskočivši na njihovo mjesto, ostavio dojam oportunista spremnog na kompromise.

Reakcija javnosti bila je žestoka. Korisnici su masovno počeli brisati ChatGPT, što je dovelo do toga da je Anthropicov Claude preuzeo prvo mjesto na App Storeu. Čak je i sam Altman priznao da je dogovor bio “ishitren” i da njegova “optika ne izgleda dobro”. Pod pritiskom, OpenAI je naknadno revidirao ugovor kako bi eksplicitno zabranio domaći nadzor i autonomno oružje, no šteta je već bila učinjena.

Uzbuna unutar zidova i jeziva stvarnost rata

Odlazak Caitlin Kalinowski nije bio usamljeni čin. Njezina je ostavka uslijedila nakon što je više od tisuću sadašnjih i bivših zaposlenika OpenAI-ja i Googlea potpisalo otvoreno pismo tražeći od svojih poslodavaca da se odupru zahtjevima Pentagona. Mnogi vodeći istraživači upozoravaju da čak ni najnapredniji AI modeli još uvijek nisu dovoljno pouzdani za djelovanje unutar zakona ratovanja. Njihovi rezultati mogu biti netočni, a proces donošenja odluka često je potpuno nejasan.

Dok se u Silicijskoj dolini vode etičke rasprave, na bojištima se već naziru zastrašujuće primjene. Pojavili su se uznemirujući, iako nepotvrđeni, izvještaji da je Claude korišten za odabir ciljeva u američkim raketnim napadima na Iran. Najjezivija je mogućnost da je jedna od tako identificiranih meta bila škola za djevojčice u Minabu, gdje je u zračnom napadu ubijeno najmanje 168 osoba, većinom djece. Ta mogućnost, čak i ako ostane nepotvrđena, služi kao mračan podsjetnik na to koliki su ulozi u igri i zašto je upozorenje Caitlin Kalinowski odjeknulo tako snažno.

Preuzeto sa: www.24sata.hr

Popular Articles