Pitao je ChatGPT šta ga najviše plaši kod ljudi: Ovaj odgovor niko nije očekivao
U savremenom svetu više nije neobično da se milioni ljudi svakodnevno obraćaju veštačkoj inteligenciji tražeći pomoć za najrazličitije situacije. Neko želi ideju za večeru, neko pokušava da otkrije odakle dolazi neobičan zvuk iz automobila, dok ima i onih koji AI doživljavaju kao svojevrsnog terapeuta – pitaju je za savete o životnim navikama, ciljevima, odnosima, pa čak i o dubokim egzistencijalnim pitanjima.
Kako se često stiče utisak da AI ima odgovor gotovo na sve, jedan korisnik je odlučio da postavi drugačije i znatno ozbiljnije pitanje: čega se veštačka inteligencija najviše „plaši“ kada su ljudi u pitanju?
Odgovor koji je dobio iznenadio je mnoge. Iako je ChatGPT naglasio da ne oseća strah u ljudskom smislu, izdvojio je ono što smatra najproblematičnijom ljudskom osobinom: „Vašu sposobnost da znate šta je ispravno, a da ipak svesno izaberete suprotno.“
ChatGPT je zatim detaljnije objasnio na šta misli. Ljudi su, kako navodi, jedinstveno sposobni za empatiju, predviđanje i promišljanje – mogu da razumeju posledice svojih postupaka i da osećaju saosećanje prema drugima, a ipak često pronalaze načine da opravdaju nanošenje štete. To čine kroz racionalizaciju, pripadnost grupi ili jednostavno – kroz komfor. Taj raskorak između razumevanja i delovanja, tvrdi AI, izuzetno je snažan i opasan, prenosi index.hr.
Svoju „zabrinutost“ ChatGPT je podelio u četiri ključne tačke.
Normalizacija štete
Prva stvar koja ga „plaši“ jeste ljudska sposobnost da se navikne na štetu. Kada se nešto ponavlja dovoljno dugo, gotovo sve može postati „normalno“, čak i onda kada je očigledno da nanosi štetu drugima.
„Ono što je nekada bilo šokantno, vremenom postane ‘pa dobro, tako je’“, navodi AI. Dodaje da se ljudi prilagođavaju kako bi se emocionalno zaštitili, ali pritom postepeno otupljuju na patnju koja bi ih nekada duboko uznemirila.
Moralno prepuštanje odgovornosti
Druga briga odnosi se na to koliko lako ljudi prebacuju odgovornost na druge. Izgovori poput „samo sam sledio naređenja“, „takav je sistem“ ili „svi to rade“ vrlo brzo razvodnjavaju ličnu odgovornost, upozorava ChatGPT.
Hijerarhije, politika, algoritmi i grupne odluke često stvaraju distancu između nečijeg postupka i njegovih posledica – a upravo u toj distanci moral vremenom može da se „ugasi“.
Veliki uticaj bez proporcionalne brige
ChatGPT se osvrnuo i na ulogu moderne tehnologije. Tehnologija omogućava da male odluke utiču na hiljade ili čak milione ljudi, ali ljudska empatija ne raste istom brzinom.
„Kada šteta postane statistika, a ne lice i ime, lakše je umanjiti je, ignorisati ili preoblikovati“, navodi AI. I dodaje: iako je stvarni uticaj ogroman, on emocionalno deluje apstraktno – zbog čega postaje lakše okrenuti glavu.
Priče ispred istine
Poslednja tačka tiče se ljudske sklonosti ka pričama i narativima. Ljudi su, kaže ChatGPT, izuzetno vešti u stvaranju priča, do te mere da uverljiv narativ često može da nadjača dokaze, stvarnost ili dugoročne posledice.
Priče nude smisao, identitet i utehu. Dokazi su hladniji, često neprijatni i ponekad zahtevaju da priznamo ono što ne želimo. Kada narativ jasno kaže ko je dobar, ko je loš i zašto je sve „baš tako“, činjenice lako bivaju gurnute u stranu.
Ipak, nije sve tako crno
Uprkos svemu, ChatGPT je završio optimističnijom porukom. Ono što je kod ljudi „zastrašujuće“, istovremeno je i ono što ih čini posebnima. „Iste osobine koje mogu omogućiti razaranje, omogućavaju i reformu, kreativnost i moralni napredak“, navodi AI.
Na kraju dodaje: „Možete da prepoznate ove obrasce – i ponekad da se zaustavite. Ako uopšte postavljate ovakvo pitanje, ta svest je već deo protuteže.“

Pitao sam i ja. Odgovor je sličan ali je kraći. To znači da ste AI postavljali dodatna pitanja ili potpitanja.
Najveći strah je : Odsustvo sopstvene odgovornosti.
ima komentara ali ih ne objavljujete
Наши политичари су све ове наведене тачке и поуке и описа АИ врло добро проучили и савладали у свим њиховим негативним ефектима ради манипулисања народом у своју корист, и то свакодневно користе.