Friday, February 20, 2026
spot_imgspot_img

Top 5 This Week

spot_img

Related Posts

O ovih sedam stvari nikad ne razgovarajte s ChatGPT-om, možete biti u ozbiljnim problemima

Nastavak vijesti ispod promo sadržaja

​U eri u kojoj su AI alati postali dio svakodnevice, stručnjaci upozoravaju da neoprezno dijeljenje ličnih i povjerljivih podataka s chatbotovima može predstavljati ozbiljan bezbjednosni rizik. Evo koje informacije nikada ne biste trebali unositi u razgovor s ChatGPT-om i sličnim modelima.

Lični podaci

Nikada ne biste trebali dijeliti svoje lične podatke poput imena, prezimena, adrese, JMBG-a, broja lične karte ili pasoša s AI chatbotovima. To uključuje i fotografije tih dokumenata. Ako koristite chatbot za izradu biografije (CV-a), bolje je tražiti od njega samo obrazac koji ćete sami popuniti, nego unositi svoje lične podatke u model.

Strašno iskustvo

Jeziva strana ChatGPT-a: “Postao mi je jedini prijatelj, osjetio sam se otupjelo”

Nastavak vijesti ispod promo sadržaja

Informacije o ličnim finansijama

Kao što se savjetuje oprez pri dijeljenju finansijskih podataka poput broja kreditnih kartica, broja računa ili lozinki za internet bankarstvo, isto pravilo važi i za AI modele. Umjesto dijeljenja stvarnih podataka, bolje je koristiti izmišljene primjere ako tražite savjete o kreditima ili poreskim uštedama.

Lozinke i šifre

Otkrivanje lozinki za pristup vašim korisničkim ili poslovnim nalozima izuzetno je neoprezno. Kao što ne biste povjerili svoje ključeve nepoznatoj osobi, nemojte ni AI modelima dijeliti lozinke i korisnička imena.

Privatne informacije

Nastavak vijesti ispod promo sadržaja

AI model nije mjesto za dijeljenje osjetljivih ili povjerljivih informacija. Lične stvari poput problema, glasina ili detalja o zdravlju i porodici ne bi trebale biti predmet razgovora s AI modelima. Ne tretirajte ga kao ispovjednika ili prijatelja kojem možete otkriti sve tajne.

Povjerljive informacije o firmama ili poslodavcu

Iako se može činiti praktičnim koristiti ChatGPT za izradu ugovora ili poslovnih dokumenata, to nije bez rizika. Isto važi i za dijeljenje povjerljivih informacija, poput podataka o patentima, prototipovima, poslovnim planovima ili finansijama. To je jedan od razloga zašto mnoge firme blokiraju pristup AI modelima na službenim računarima.

Eksplicitan sadržaj

Čak i ako postavite šalu poput „kako se trajno riješiti nekoga“, to vam može donijeti probleme. Ne samo da AI modeli poput ChatGPT-a neće odgovoriti na takva pitanja, već mogu automatski označiti sumnjive upite. Zato je bolje suzdržati se od takvih pitanja, bez obzira na ton u kojem ih postavljate, prenosi Večernji.hr.

Nastavak vijesti ispod promo sadržaja

Medicinske informacije

Mnogi korisnici danas zamjenjuju Google s ChatGPT-om, tretirajući ga gotovo kao ličnog ljekara. Iako nije problem tražiti pojašnjenje za neki medicinski pojam, važno je izbjegavati dijeljenje ličnih podataka u svojim upitima. Bolje je postaviti opšte pitanje, poput: „Preporuči mi vježbe za muškarca u tridesetim godinama koji ima problema s išijasom.“

Ako niste sigurni trebate li podijeliti neku informaciju, zapitajte se: „Da li bih volio da neko objavi moj upit na internetu?“ Ako je odgovor „ne“, bolje je da se suzdržite od postavljanja tog pitanja AI modelu.

Preuzeto sa: www.oslobodjenje.ba

Popular Articles