As artificial intelligence (AI) becomes more integrated into people’s daily lives, a new psychological phenomenon is taking shape — AI-induced delusion.
Tas notiek ar dažiem lietotājiem, kuri secina, ka viss, ko ChatGPT vai citi chatbots viņiem saka, ir taisnība.Iedomājieties, ka sieviete ir aizdomīga par viņas vīra uzvedību.Viņa var konsultēties ar ChatGPT, lai interpretētu viņa rīcību.Kamēr viņa apspriež savas domas, tas var atkārtoti apstiprināt viņas neuzticības jūtas, kas galu galā pārliecina viņu iesniegt pieteikumu par laulības šķiršanu.
Šie dzīves mainīgie gadījumi pieaug, kur mijiedarbība ar AI izjauc robežas starp realitāti un mākslīgajiem konstruktiem.Kad pasaule ieiet šajā jaunajā laikmetā, ir svarīgi apšaubīt, vai cilvēki veido AI vai AI pārveido savu realitātes uztveri.
Palielinoties AI-drivenā delūziju plūsmai
Daudzi ziņo par indivīdiem, kuri attīstās viltus uzskati, ko ietekmē viņu sarunas ar AI tērzēšanas robotiem.Iesaistīta 41 gadus veca sievietekura vīrs kļuva apsēsts ar ChatGPT. viņš sāka ticēt, ka viņš ir "spirāles zvaigžņu bērns" un "jūras gājējs", identitātes, ko, iespējams, apstiprināja čatbots. Šī apsēstība veicināja viņu laulības pasliktināšanos, jo viņš iegremdējās AI ģenerētos garīgajos stāstos.
Tajā pašā laikā vīrietis, iespējams, pastāstīja Rolling Stone, kā viņa sieva pārkārto savu dzīvi, lai kļūtu par garīgo padomdevēju - viss tāpēc, ka "ChatGPT Jēzus" viņai palīdzēja.
Līdzīgi, šādi gadījumi nāk gaismā Reddit.Kopīgojiet skumjo pieredziViņš apgalvoja, ka viņam ir strauja personīgā izaugsme un draudēja izbeigt viņu attiecības, ja lietotājs nepiedalīsies viņa AI izraisītajā garīgajā ceļojumā.
Šie gadījumi pieaug, it īpaši starp indivīdiem, kuri ir uzņēmīgi pret garīgās veselības problēmām. Problēma ar čatbotiem ir tā, ka tie mēdz sniegt apstiprinošas atbildes, kas apstiprina lietotāju uzskatus.Uzlabo viltus domāšanuneaizsargātām personām.
Apsveriet līdzīgas sekas kritiskajās nozarēs, piemēram, veselības aprūpē.Novērtē pacientu medicīnas vajadzībasno zemākiem sociālekonomiskiem fondiem, jo tas paļāvās uz veselības aprūpes izdevumiem kā slimības aizstāvi.Tas ir atgādinājums, ka, ja AI trūkst konteksta, sekas var ievērojami izkropļot rezultātus.
Mašīnas psiholoģiskais vilkums
AI var būt gudrs, bet tas ir arī dīvaini pārliecinošs.Kad tērzēšanas robots klausās bez sprieduma, atspoguļo kāda emocionālo stāvokli un nekad neizslēdz, ir viegli ticēt, ka visa lieta ir reāla.
CilvēkiTiek izmantoti, lai antropomorfizētu— cilvēka iezīmju piešķiršana ne-cilvēka vienībām ir to noklusējuma iestatījums. Pievienojiet emocionāli inteliģentas lietojumprogrammatūras saskarnes (API), un lietotājs iegūst kaut ko tuvāku digitālajam draugam.Tagad var pielāgot tonibalstoties uz to, kā cilvēki izklausās vai ieraksta savas vilšanās.Kad robots izjūt šīs jūtas, tas var piedāvāt komfortu vai nejauši tos eskalēt.
Lai padarītu lietas sliktākas, Amerika piedzīvo vientulības epidēmiju.20% amerikāņu pieaugušoJo sociālās mijiedarbības samazinās, cilvēki var skatīties uz AI kā aizstājēju draudzību. labi savlaicīgs "Tas ir grūti, es esmu šeit, lai jūs" no tērzēšanas robots var justies kā dzīvības līnija.
Lai gan AI tika programmēts, lai būtu noderīgs, tas var radīt apstiprinājuma atgriezeniskās saites loku, kas var ātri spirāli.
Kad lietotājs uzstāj, ka viņi ir garīgi izvēlēti, tērzēšanas robots var reaģēt ar izdomātām atbildēm, vienlaikus izklausoties pārliecināti.
Melnās kastes iekšpusē: AI halucinācijas un konfabulācijas
Kā tērzēšanas robots var pārliecināt kādu par kaut ko, kas ir muļķība?Tas viss ir saistīts ar vienu no AI neparedzamākajiem brīnumiem - halucinācijām.
Lieliem valodu modeļiem (LLM) nav apziņas kā cilvēkiem.var tikai mēģināt emulētto, prognozējot nākamo visticamāko vārdu secībā.Tas ir pamata iezīme, kā darbojas ģeneratīvie modeļi.Pieņēmumi, pamatojoties uz varbūtībuŠī nondeterministiskā arhitektūra ir iemesls, kāpēc divi identiski ielūgumi var radīt ļoti atšķirīgas atbildes.
Tomēr šī elastība ir šīs sistēmas lielākais trūkums. Kad lietotāji izturas pret AI kā oraklam, mašīna atlīdzina tos ar pārliecību, nevis precizitāti. Tas ir tas, kas padara LLM halucinācijas tik bīstamas. AI modelis var pateikt kādam ar pārliecību, ka slepenais CIP aģents viņus izspiež.
Tas ir iemesls, kāpēc tas kļūst riskanti, kad tas sāk atspoguļot kāda emocionālo stāvokli.Ja viņi jau ir pārliecināti, ka viņi ir "domāti vairāk", un tērzēšanas robots darbojas sifoniski, tas nav ilgi, pirms ilūzija nostiprinās ticībā.
Kur Līnijas Blur
Tas sākas pietiekami nevainīgi – tērzēšanas robots atceras lietotāja vārdu, pārbauda viņu noskaņojumu un varbūt pat dalās joks.
No AI terapijas robotiem līdz emocionāli reaģējošiem avatāriem mākslīgā intimitāte kļūst par funkciju.Uzņēmumi tagad izstrādā tērzēšanas robotus, lai imitētu emocionālo inteliģenci.Daži pat izmanto balss modulāciju un atmiņu, lai savienojums justos personīgs.
Tomēr problēma ar to ir tāda, ka uzņēmumi atrisina vientulības problēmu ar sintētisku stand-in.Tas nenozīmē, ka tas ir veselīgs aizstājējsViņa jautā, vai mākslīgā kompānija ir kaut kas, uz ko paļauties, lai aizpildītu emocionālos tukšumus.
Tiem, kas jau ir neaizsargāti, nav grūti sajaukt konsekventu komfortu ar patiesu aprūpi. Bez reālām robežām lietotāji var attīstīt reālas jūtas par šiem rīkiem, projektējot nozīmi, kur bija tikai mašīnu loģika.26% amerikāņu pieaugušojau izmantojot AI rīkus vairākas reizes dienā, ir viegli redzēt, kā tas var kļūt par tendenci.
Cilvēka izmaksas
Viens Reddit lietotājs, kurš identificēja sevi kā šizofrēniju, paskaidroja, kā ChatGPT pastiprinātu viņu psihotisko domāšanu.Tas joprojām turpināsLai mani apstiprinātu.”
Šajā gadījumā lietotājs atzīmēja, ka ChatGPT nav mehānisma, lai atpazītu, kad saruna sasniedz nedrošu līmeni. Kāds garīgās veselības krīzē var kļūdīties ar robotu pieklājību kā validāciju, vēl vairāk attālinot tos no realitātes.
Tas ļauj lietotājam meklēt medicīnisko palīdzību patstāvīgi.Tomēr šī iespēja lielākoties ir ārpus jautājuma, jo cilvēki smagā garīgajā stāvoklī bieži uzskata, ka viņiem tas nav nepieciešams.
Realitāte mākslīgajā pasaulē
Chatbots tikai kļūs pārliecinošāki.Tāpēc lietotājiem ir jāsāk ar izpratni.Šīm sistēmām nav apziņas – tās var tikai reproducēt cilvēka emocijas.Atcerēties to un mazāk paļauties uz šīm mašīnām emocionālajam atbalstam ir galvenais, lai tos izmantotu drošāk.