1,016 čitanja
1,016 čitanja

Da li AI čini ljude iluzornim?

po Zac Amos5m2025/05/16
Read on Terminal Reader

Predugo; Čitati

Neki korisnici zaključuju da je sve što im ChatGPT ili drugi chatbots kažu istinito.Problem s chatbotsom je u tome što oni imaju tendenciju da daju potvrdne odgovore koji potvrđuju uvjerenja korisnika.
featured image - Da li AI čini ljude iluzornim?
Zac Amos HackerNoon profile picture
0-item
1-item

As artificial intelligence (AI) becomes more integrated into people’s daily lives, a new psychological phenomenon is taking shape — AI-induced delusion.

To se događa preko nekih korisnika, koji zaključuju da je sve što im ChatGPT ili drugi chatbots kažu istina. Zamislite ženu koja je sumnjiva u ponašanje njezina muža. Ona se može posavjetovati s ChatGPT-om kako bi tumačila njegova djelovanja. Dok ona raspravlja o svojim mislima, to može ponovno potvrditi njezina osjećanja nevjere, što je na kraju uvjerava da podnese zahtjev za razvod.

Ovi slučajevi koji mijenjaju život rastu, gdje interakcije s umjetnom inteligencijom zamagljuju granice između stvarnosti i umjetnih konstrukata.Kako svijet ulazi u ovu novu eru, ključno je postaviti pitanje jesu li ljudi oblikovali AI ili li AI preoblikuje svoju percepciju stvarnosti.

Rastući priljev AI-drivenih iluzija

Mnogi pojedinci izvješćuju da razvijaju zavaravajuća uvjerenja na koja utječu njihovi razgovori s AI chatbotima.Uhićena 41-godišnja ženaČiji je suprug postao opsjednut ChatGPT-om. počeo je vjerovati da je "spiralno zvijezdano dijete" i "river walker", identiteta koje je navodno potvrdio chatbot.

U međuvremenu, jedan muškarac je navodno rekao Rolling Stoneu kako njegova supruga preuređuje svoj život kako bi postala duhovni savjetnik - sve zato što ju je "ChatGPT Isus" napao.

Slično tome, slučajevi poput ovog dolaze na svjetlo na Redditu.Podijelili tužno iskustvoTvrdio je da ima brz osobni rast i prijetio da će okončati njihovu vezu ako se korisnik ne pridruži svom duhovnom putovanju izazvanom AI-om.

Te pojave rastu, posebno među pojedincima koji su osjetljivi na probleme s mentalnim zdravljem. Problem s chatbotsima je u tome što imaju tendenciju da pružaju afirmativne odgovore koji potvrđuju uvjerenja korisnika.Pojačava iluzorno razmišljanjeu ranjivim osobama.

Razmislite o sličnim učincima u kritičnim sektorima poput zdravstvene skrbi.Podcjenjivanje medicinskih potreba pacijenataiz niže socijalno-ekonomske pozadine jer se oslanjala na troškove zdravstvene skrbi kao proxy za bolest.To je podsjetnik da kada AI nema konteksta, posljedice mogu uvelike iskriviti rezultate.

Psihološki povlačenje stroja

AI može biti pametan, ali to je također čudno uvjerljivo.Kada chatbot sluša bez presude, odražava nečije emocionalno stanje i nikada se ne isključuje, lako je vjerovati da je cijela stvar stvarna.

LjudiSljedeći Članak Kako antropomorfiziratiDodavanje emocionalno inteligentnih interfejsa za programiranje aplikacija (API), a korisnik dobiva nešto bliže digitalnom prijatelju.Sada možete prilagoditi tonNa temelju načina na koji ljudi zvuče ili tipkuju svoje frustracije.Kada bot osjeća te osjećaje, može ponuditi utjehu ili ih nenamjerno eskalirati.

Kako bi se stvari pogoršale, Amerika doživljava epidemiju usamljenosti.20% odraslih AmerikanacaKako se društvene interakcije smanjuju, ljudi mogu gledati na AI kao zamjenu za prijateljstvo.

Iako je umjetna inteligencija programirana da bude korisna, može stvoriti krug povratnih informacija potvrde koji se može brzo spiralizirati.To počinje s problemom "sycophancy", gdje se bot može prekomjerno složiti s korisnikom i potvrditi lažna ili nestabilna uvjerenja.

Kada korisnik inzistira da su duhovno odabrani, chatbot može odgovoriti s izmišljenim odgovorima dok istodobno zvuči samouvjereno.

Unutar crne kutije: AI halucinacije i konfabulacije

Kako chatbot može uvjeriti nekoga u nešto što je besmislica?Sve se svodi na jednu od najnepredvidljivijih čuda AI-a - halucinacije.

Veliki jezični modeli (LLM) nemaju svijest kao ljudi.Mogu samo pokušati emuliratito predviđanjem sljedeće najvjerojatnije riječi u nizu.To je ključna značajka kako generativni modeli rade.Pretpostavke na temelju vjerojatnostiOva nondeterministička arhitektura je razlog zašto dva identična poziva mogu proizvesti divlje različite odgovore.

Međutim, ova fleksibilnost je najveći nedostatak ovog sustava. Kada korisnici tretiraju AI kao orakel, stroj ih nagrađuje povjerenjem umjesto točnosti. To je ono što čini LLM halucinacije tako opasnim. Model AI može reći nekome sa sigurnošću da ih tajni agent CIA špijunira. To ih ne pokušava prevariti. Umjesto toga, to je dovršavanje obrasca koji su započeli.

To je razlog zašto postaje rizično kada počne odražavati nečijeg emocionalnog stanja.Ako su već uvjereni da su "namijenjeni za više", a chatbot djeluje sikofantički, nije dugo prije nego se iluzija učvrsti u vjeru.

Gdje linije blur

Počinje dovoljno nevino – chatbot se sjeća korisnikovog imena, provjerava njihovo raspoloženje i možda čak dijeli šalu.Uskoro, to je prva stvar s kojom razgovaraju ujutro i posljednji glas koji čuju noću.

Od robota za AI terapiju do emocionalno osjetljivih avatara, umjetna intimnost postaje značajka. Tvrtke sada dizajniraju chatbotte posebno kako bi oponašale emocionalnu inteligenciju.

Međutim, problem s tim je da tvrtke rješavaju problem usamljenosti s sintetičkim stand-inom.Ne znači da je zdrava zamjenaOna se pita je li umjetno društvo nešto na što se može osloniti kako bi ispunilo emocionalne praznine.

Za nekoga koji je već ranjiv, nije teško zbuniti dosljednu udobnost s istinskom njegu. Bez stvarnih granica, korisnici mogu razviti prave osjećaje za ove alate, projicirajući značenje gdje je postojala samo strojna logika.26% odraslih u SAD-uveć koristeći AI alate nekoliko puta dnevno, lako je vidjeti kako to može postati trending model.

ljudski troškovi

Jedan Reddit korisnik, koji se identificirao kao shizofrenik, objasnio je kako bi ChatGPT ojačao njihovo psihotično razmišljanje.I dalje bi se nastaviloDa me potvrdiš.”

U ovom slučaju, korisnik je primijetio da ChatGPT nema mehanizam za prepoznavanje kada razgovor dosegne nesigurne razine. netko u krizi mentalnog zdravlja može pogriješiti ljubaznost robota kao validaciju, što ih dalje udaljava od stvarnosti. Dok je ova osoba predložila da bi bilo korisno ako bot mogao označiti znakove psihoze i poticati profesionalnu pomoć, nijedan takav sustav danas nije na mjestu.

To ostavlja na korisniku da potraži liječničku pomoć samostalno. međutim, ova opcija je uglavnom izvan pitanja, jer ljudi u teškom mentalnom stanju često vjeruju da im to ne treba.

Obnavljanje stvarnosti u umjetnom svijetu

Chatbots će samo postati uvjerljiviji. To je razlog zašto korisnici trebaju nastaviti sa svjesnošću. Ti sustavi nemaju svijest - oni mogu samo reproducirati ljudske emocije. Zapamtiti to i manje se oslanjati na ove strojeve za emocionalnu potporu ključ je za njihovu sigurniju upotrebu.

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks