Enciklopedija Britanika, jedna od najpoznatijih i najuglednijih referentnih publikacija na svetu, zajedno sa izdavačem rečnika Meriam‑Vebster, podnela je tužbu protiv kompanije OpenAI, u kojoj se tvrdi da je OpenAI nezakonito koristio stotine hiljada njihovi podataka da bi trenirao svoje modele veštačke inteligencije poput ChatGPT‑a.
Ovaj sudski spor ranije ove nedelje podnet je pred savezničkim sudom u Menhetnu i već se smatra jednim od najvažnijih pravnih izazova za budućnost AI tehnologije. Ne radi se samo o jednom botu ili firmi, već o temelju onoga kako će buduće generacije AI modela moći da prave odgovore i odakle će te odgovore moći da uče.
Foto: Shutterstock
Jasno kršenje autorskih prava
Britanika i Meriam‑Vebster tvrde da OpenAI nije tražio dozvolu, nije platio licence i jednostavno je preuzeo njihovu zaštićenu literaturu tj. skoro 100.000 članaka i definicija kako bi trenirao svoje AI modele, uključujući GPT‑4, na kojima se zasnivaju alati poput ChatGPT‑a.
Ovi članci su, prema tužbi, korišćeni ne samo za treniranje veštačke inteligencije, već je AI u nekim slučajevima davao odgovore koji gotovo u potpunosti repliciraju originalni tekst, što Britanika smatra jasnim kršenjem autorskih prava.
Foto: Shutterstock
ChatGPT ima halucinacije
Jedan od najzanimljivijih delova tužbe je tvrdnja da ChatGPT često daje odgovore koji izgledaju gotovo identično kao originalni tekstovi iz enciklopedije, što znači da AI ne samo da je učila od Britanike, već je, prema tužbi, sadržaj upamtia do te mere da ga može replicirati u svojim odgovorima. Britanika to naziva ne samo krađom znanja već i gubitkom kontrole nad sopstvenom intelektualnom svojinom.
Pored kršenja autorskih prava, tužba ide i korak dalje sa tvrdnjama da AI ponekad generiše netačne informacije koje se nepravedno pripisuju njihovim brendovima, što može narušiti njihov ugled kao pouzdanih izvora znanja. U pravnom žargonu to znači da ChatGPT ima „halucinacije“ iliti netačne ili izmišljene odgovore i da ih ponekad pripisuje upravo njihovim brendovima, kao da postoji neka vrsta odobrenja ili partnerstva.
Pitali su ChatGPT kako će svet izgledati za 50 godina Foto: Shutterstock
“Kanibalizuju nas!”
Britanika, između ostalog, tvrdi i da kada korisnik dobije odgovor od ChatGPT‑a zasnovan na njihovom sadržaju, taj korisnik često više ne posećuje originalni Britanika sajt ili Meriam‑Vebster stranicu. To znači manje saobraćaja, manje pretplata i manje prihoda, što je pravi udarac za kompanije koje žive od prodaje, pretplate i oglašavanja.
U tradicionalnom internet pretraživaču, kao što je Google, odgovor bi često bio samo link koji vodi natrag ka izvoru, ali AI modeli direktno daju odgovor, što po tužbi „kanibalizuje“ posete i poslovanje Britanike.
Devojka pogledala svoju ulicu na Gugl mapama pa videla sebe sa dedom Foto: Shutterstock
Odbrana već viđena
OpenAI se brani rutinskom argumentacijom koju koristi u većini ovakvih slučajeva i tvrdi da modeli kao što je ChatGPT koriste javne podatke u skladu sa pravom na „fer korišćenje“, kao i da se informacije transformišu tj. model ne prepisuje samo tekst, nego ga koristi kao jednu od komponenti za stvaranje novih odgovora. Ovo je centralna odbrana u mnogim sličnim sudskim sporovima širom sveta.
Ovaj slučaj nije izuzetak u odnosu na širu pravnu borbu oko AI i intelektualne svojine. U poslednjih nekoliko godina, veliki broj autora, medijskih kuća i izdavača, uključujući i The New York Times, pokrenuli su slične tužbe protiv OpenAI i drugih firmi koje grade AI modele. Oni takođe tvrde da su njihova dela korišćena bez dozvole i da modeli ponekad generišu sadržaj koji je previše sličan originalima da bi se smatralo legitimnim.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
Preuzeto sa: www.kurir.rs


