Pet stvari koje nikada ne bi trebalo da otkrijete ChatGPT-ju
Od pomoći pri pisanju poslovnih mejlova i traženju saveta za bračnu terapiju, do zabavnih zadataka poput pretvaranja fotografija pasa u ljude, ChatGPT je postao nezaobilazan alat u svakodnevici mnogih. Ipak, poveravanjem ličnih informacija platformi veštačke inteligencije izlažemo se rizicima.
Jednom kada nešto unesete u chatbot, „gubite posed nad tim“, upozorava Dženifer King, saradnica na Institutu za veštačku inteligenciju usmerenu na čoveka sa Univerziteta Stanford. I same kompanije poput OpenAI-ja i Google-a savetuju korisnike da ne unose osetljive podatke, piše New York Post.
Lični identifikacioni podaci
Nikada nemojte deliti informacije koje vas mogu direktno identifikovati. To uključuje JMBG, brojeve lične karte, vozačke dozvole ili pasoše, kao i datum rođenja, kućnu adresu i brojeve telefona. Iako neki chatbotovi pokušavaju automatski da sakriju takve podatke, najsigurnije je uopšte ih ne unositi.
„Želimo da naši AI modeli uče o svetu, a ne o privatnim pojedincima, i aktivno minimizujemo prikupljanje ličnih podataka“, poručila je portparolka OpenAI-ja.
Medicinski nalazi
Za razliku od zdravstvenog sistema koji je obavezan da štiti poverljivost podataka pacijenata, AI chatbotovi uglavnom ne podležu tim strogim pravilima. Ako ipak želite koristiti ChatGPT za tumačenje laboratorijskih ili drugih medicinskih nalaza, stručnjaci savetuju da pre slanja uredite dokument i uklonite sve lične podatke, ostavljajući „samo rezultate testova“.
Finansijski podaci
Brojevi vaših bankovnih i investicionih računa nikada se ne bi smeli unositi u razgovor sa veštačkom inteligencijom. U slučaju narušavanja bezbednosti, ti podaci mogu biti iskorišćeni za praćenje vaših finansija ili neovlašćeni pristup sredstvima.
Lozinke i korisnička imena
Iako se može činiti primamljivim dati chatbotu svoje podatke za prijavu kako bi obavio neki zadatak umesto vas, AI alati nisu sigurni sefovi za čuvanje takvih informacija. Za čuvanje lozinki i korisničkih imena uvek je bolje koristiti specijalizovane alate poput menadžera lozinki (password managera).
Poverljive poslovne informacije
Korišćenje javno dostupnih AI alata u poslovne svrhe, poput pisanja mejlova ili uređivanja dokumenata, nosi rizik od slučajnog otkrivanja osetljivih podataka o klijentima ili internih poslovnih tajni. Zbog toga mnoge kompanije koriste posebne poslovne verzije AI platformi ili razvijaju sopstvene sisteme sa dodatnim merama bezbednosti.
Kako dodatno zaštititi privatnost?
Ako, uprkos rizicima, želite koristiti AI chatbotove, postoji nekoliko koraka za zaštitu privatnosti. Osigurajte svoj korisnički nalog snažnom lozinkom i višestepenom autentifikacijom. Takođe, neki alati poput ChatGPT-ja nude način rada „privremenog razgovora“, sličan anonimnom režimu surfovanja, koji ne čuva istoriju.
Džejson Klinton, glavni službenik za informacionu bezbednost u kompaniji Anthropic, preporučuje i brisanje svakog razgovora nakon završetka. Napominje da kompanije obično trajno uklanjaju „izbrisane“ podatke u roku od 30 dana.

Trenutno nema komentara! Budite prvi