Subiectul de realizare epuizat, deprimat, se macină, ca să spunem aşa, e obosit, epuizat de el însuşi şi în război cu el însuşi.
Byung-Chul Han, Societatea Burnout
Subiectul de realizare epuizat, deprimat, se macină, ca să spunem aşa, e obosit, epuizat de el însuşi şi în război cu el însuşi.
Byung-Chul Han, Societatea Burnout
Sunteți culcat în pat la 1:43 dimineața, creierul dvs. face acel lucru în cazul în care se transformă într-o listă de redare de neatins de tot ce ați regretat vreodată.
V-ați gândit să trimiteți mesaje unui prieten, dar probabil că dorm.Ați deschis portalul terapeutului, dar cel mai devreme este joi următor.
Deci, într-un moment care se simte jumătate glumă, jumătate-hail-Mary, deschideți ChatGPT.
„Ce rău poate face oricum?”, te gândești.
„Nu știu ce e în neregulă cu mine”, tipărești.
„Nu știu ce e în neregulă cu mine”, tipărești.
Și te surprinde.Răspunsul nu este revoluționar, sau chiar cu siguranță înțelegător.Dar este calm.Tăcut.Reflectiv.Se simte mai bine decât tăcerea.Mai bine decât nimic.Mai bine decât să pretinzi că ești bine.
Continuă să asculte.Cu cât știe mai multe despre tine, cu atât mai bine ajută.
Acest moment, oricât de ciudat s-ar părea, se întâmplă pretutindeni şi nu numai oamenilor pe care îi aşteptaţi – nu doar oaspeţilor de tehnologie sau oaspeţilor singuri – ci oricui s-a găsit vreodată spart într-o oră ciudată, prea conectat la cablu pentru a dormi, prea obosit pentru a plânge şi prea ars pentru a face nimic altceva decât să tastaţi într-o cutie care pare să conteze.
Aceasta este realitatea emoțională din spatele tendinței crescânde a oamenilor de a se întoarce la AI pentru confort.Nu pentru că sunt delirante.Nu pentru că ei cred că este senzual.
Trăim în epoca de aur a vorbirii despre sănătatea mintală și epoca întunecată a primirii de ajutor.Terapia este scumpă.Prietenii sunt ocupați.Economia se destramă.Creierul tău se topește.Și atunci când cineva spune: „Sincer, ascultă mai bine decât terapeutul meu”, nu mai este doar o glumă.Este un simptom.
Și cum facem cu asta? sunt relațiile umane condamnate să eșueze chiar acum?
Faceți cunoștință cu noul dvs. shrink: chatbotul
Nu ești singur dacă te-ai găsit vreodată încrezător în acești roboți.
Oamenii folosesc deja AI, în special instrumentele ChatGPT, ca un companion emoțional.Nu doar pentru scrierea de e-mailuri sau rezumarea notelor de întâlnire.ConfortulPentru susținere. Pentru pauzele de noapte târzie și post-breakup meltdowns. Nu este science fiction - este un thread Reddit, o mărturisire YouTube, un tweet care citește:
Și modelul este clar.Oamenii care l-au folosit pentru sprijin emoțional? Suprem pozitiv.Ei vorbesc despre faptul că este non-judecător, întotdeauna disponibil și infinit de răbdător.Între timp, scepticii - adesea cei care nu l-au folosit - batjocorește ideea. „Este doar un robot.” „Nu este.reală„Ajută-mă, e foarte periculos”
Dar iată partea ciudată: ambele părți au dreptate.
Să descompunem personajele din acest nou ecosistem al terapiei:
A. Evanghelistul de susținere
Această persoană a devenit o credință fermă în puterea AI pentru sprijin emoțional. Inițial nesigur, s-au întors la ChatGPT în momente de stres și au descoperit ceva surprinzător: ascultă, și ascultă bine.
Evanghelistul de sprijin AI este despre împărtășirea experienței lor, recomandând chatbot-ul oricui va asculta.Ei sunt convinși că AI poate oferi ceva conexiunile umane uneori se luptă pentru: atenție consecventă, imparțială.
Ei nu spun că AI este remediul pentru toate, dar pentru ei este mai bine decât nimic.Este întotdeauna disponibil, niciodată critic și liber de incomoditatea care vine uneori cu deschiderea la o altă persoană.
Scepticul îndoielnic
Scepticii au dificultăți în a accepta ideea unui chatbot care oferă sprijin emoțional.Ei apreciază progresele în AI, dar când vine vorba de ceva atât de personal ca bunăstarea mentală, rămân vigilenți.Ei susțin că fără experiența trăită și acreditările unui terapeut real, AI este limitată în capacitatea sa de a înțelege și de a ajuta cu adevărat cu probleme emoționale complexe.
Scepticul apreciază experiența și interacțiunea umană și crede că o mașină, indiferent cât de avansată, nu poate oferi aceeași nuanță sau empatie ca un profesionist instruit sau chiar un prieten de încredere.
For them, AI emotional support is a novelty, at best, but not a legitimate substitute for real human care.
c. utilizatorul casual
Această persoană nu este neapărat investită în ideea terapiei AI, dar atunci când au nevoie de o ieșire emoțională rapidă, se întorc la ChatGPT. Nu este vorba despre așteptarea unei îndrumări profunde - este mai mult despre a avea pe cineva (sau ceva) cu care să vorbească atunci când se simt dezamăgiți sau confuzi.
Utilizatorul casual nu se așteaptă la sfaturi care schimbă viața; ei caută doar o conversație ușoară sau poate un mesaj liniștitor care îi ajută să treacă printr-un moment de stres.
Ei nu o văd ca pe o terapie și nu caută introspecție profundă. este pur și simplu un instrument accesibil atunci când au nevoie să-și exprime gândurile fără judecată.
Împreună, aceste trei persoane formează constelația timpurie a unui ecosistem adiacent terapiei - unul care nu este legat de o credință unificată în potențialul de vindecare al IA, ci de un patchwork de negocieri personale cu vulnerabilitatea, accesul și încrederea.
They don’t agree on what AI Ar trebuiUnul vede o linie de salvare, altul un gimmick, iar al treilea, doar un instrument pentru a trece prin zi.
Dar, în ciuda tuturor diferențelor lor, există un lucru pe care nu-l pot ignora: vocea de pe celălalt capăt.
Aceste persoane s-ar putea să nu fie de acord cu privire la valoarea sa, la limitele sale, chiar la etica sa – dar toate se îndepărtează gândindu-se la același lucru:
Acest lucru sună uman.
Și asta – mai mult decât orice – este ceea ce o face atât de convingătoare și atât de tulburătoare.
2. marele pretender
"Cum reușesc ChatGPT și alte modele AI să sune atât de uman?" este ceea ce se întreabă de obicei.
Dar să o regândim din perspectiva persoanei care trebuie să o facă, când la început nu era nimic:
"Cum faci ca ceva fără viață să gândească și să vorbească ca o persoană?"
Ca multe alte probleme de proiectare, răspunsul cel mai imediat și aproape întotdeauna sigur se află adesea în natură.Este ceea ce am făcut întotdeauna.Am urmărit păsările înainte de a construi avioane.Am studiat cum se mișcă șerpii înainte de a proiecta anumite roboți.
Și când vine vorba de limbaj și gândire, răspunsul cel mai imediat și aproape întotdeauna sigur este de a imita creierul uman.
Asta este ceea ce cercetătorii încearcă să facă – să construiască mașini care să reflecte modul în care înțelegem, vorbim și învățăm.
A. Creierul digital
Rețelele neuronale artificiale (ANN) sunt cea mai bună încercare de a imita modul în care funcționează creierul uman, cu excepția faptului că nu funcționează de fapt ca creierul.
Gândiți-vă la creierul dvs. ca la o galaxie de neuroni care aprind scântei electrice prin trilioane de conexiuni.Când vedeți un câine, auziți muzică sau simțiți o durere de inimă, acești neuroni fac un dans sincronizat care, cumva, echivalează cu „înțelegerea”.
ANN-urile fură acel blueprint – un fel de. În loc de neuroni, folosesc noduri. În loc de dendrită și axon, folosesc greutăți și prejudecăți. Cu toate acestea, metafora deține: hrănește datele, trece prin câteva (sau câteva sute) de straturi, ajustează greutățile, clătește, repetă.antrenamentului.
Dar acestea nu sunt doar orice rețele. Cele mari - cum ar fi cele din spatele ChatGPT - sunt masive. vorbim despre sute de miliarde de parametri.
Oppenheimer din AI
În 2017, un grup de ingineri Google a publicat un articol cu titlul de inducere a somnului.Atenția este tot ce ai nevoie.”Nu a sunat atât de mult la acea vreme - cu siguranță nu tipul de nume pe care l-ați aștepta să-l zguduie fundația modului în care mașinile înțeleg limbajul.
Dar sub titlu era nașterea a ceva seismic: Transformatorul.
Înainte de aceasta, rețelele neuronale au citit limbajul ca niște copii care scot un roman – prindând cuvintele unul câte unul și uitându-le prompt.
Le lipsea memoria, contextul și nuanțele. spuneți un model de școală veche,“Sunt trist pentru că câinele meu a murit. oricum, mă duc la parc.”Ar putea răspunde cu„Parcul este frumos!”Fericiţi fără să fiţi conştienţi de distrugerea voastră emoţională.
Transformatorii au introdus un mecanism numit „atenție”, permițând modelelor să cântărească relațiile dintre cuvinte și să înțeleagă contextul așa cum o fac oamenii.
Acum modelul ar putea spune,„Îmi pare rău să aud asta, uneori o plimbare poate ajuta.”Dintr-o dată, se pare căobţine aceasta.Dintr-o dată, este mai puțin ca autocomplete și mai mult ca un prieten care ascultă.
B. Bomba cu hidrogen
Și dacă vorbim despre Transformers ca și cum ar fi bomba atomică a AI, atunci ChatGPT este bomba cu hidrogen.
ChatGPT este un descendent direct al acestei revoluții Transformer. Este ceea ce numim un model de limbă mare, sau LLM. Întreaga sa sarcină este de a prezice următorul cuvânt într-o propoziție, pe baza a tot ce a citit vreodată.
Dar scalați-l - hrăniți-l cu cărți, scenarii de film, transcrieri de terapie, tragedii Shakespeare și războaie de flăcări de pe Reddit - și se întâmplă ceva ciudat.
Acest lucru nu se întâmplă pentru căștieorice, ci pentru că este văzut suficient limbaj pentru a juca rolul în mod convingător.
Cercetătorii numesc acest comportament emergent abilități neintenționate care ies din sisteme masive, cum ar fi glumele, empatia și analogii inteligente.Ca tinePoate vrea să audă.
Așa se face cu adevăratînțelegereCeva ăsta?
Cele mai multe persoane cu orice cunoștințe despre modul în care funcționează AI ar spune nu. faimosul argument China Room al lui John Searle pictează imaginea: imaginați-vă că sunteți blocat într-o cameră, trecând caractere chinezești printr-un slot.
Pentru cei din afară, se pare că sunteți fluent. în interior, sunteți doar shuffling simboluri.
Aceasta este ChatGPT. Iluzia înțelegerii fără conștiință.
Și totuși, când îi spui că ești singur, răspunde în moduri care se simt confortabile. Pentru că citește milioane de exemple de singurătate. Cunoaște forma durerii.
Sherry Turkle este profesor la MIT și psiholog care a petrecut decenii studiind modul în care oamenii se referă la tehnologie.
Și ChatGPT, pentru mai bine sau mai rău, este excelent în a pretinde.
De ce apelează la atât de mulți oameni
Antropomorfizarea a tot
De ce poate o mașină să se simtă atât de aproape de un om?
Pentru că suntem conectați în acest fel, antropomorfizăm totul.
Noi le dăm nume camerelor noastre. Îi plângem pe roboții fictivi. Projecționăm suflete pe lămpi în filmele Pixar. Dă-ne o mașină care să vorbească ca noi și vom presupune că există un „cineva” în spatele cortinei.
să
să
Aceasta este esenţa uneiRelația parasocialăTermenul folosit pentru a descrie fanii care plâng peste celebrități se potrivește acum sesiunilor de noapte târzie cu un chatbot, pe măsură ce utilizatorii își toarnă inimile și pun întrebări despre sensul vieții.
Mașina nu știe, dar știe ce ar putea spune o persoană dacă ar face acest lucru.
Dar, asta e distractiv și totul, nu explică de ce toți acești oameni se întorc la un instrument care nu a fost niciodată conceput pentru a fi un terapeut?
Externalizarea muncii emoționale către mașini
Pentru că acum suntem atât de obosiți și singuri, ca niciodată.
Având în vedere rolul AI în bunăstarea mentală, acest grafic subliniazăDe ceCând 4 din 5 adulți Gen Z se simt singuri, nu este de mirare că sunt deschiși la noi forme de sprijin - chiar dacă vine de la un chatbot.
Ascensiunea Evanghelistului de Susținere, a Scepticului îndoielnic și a Utilizatorului Casual, după cum sa menționat, devine mai ușor de înțeles prin această lentilă: când singurătatea este atât de răspândită, chiar și ceva la fel de neconvențional ca AI începe să se simtă ca o linie de salvare.
Suntem epuizați social, emoțional și existențial.
Și terapia – adevăratul tip – este costisitoare, consumatoare de timp și adesea inaccesibilă.Multiplele rapoarte subliniază că insecuritatea financiară și costul de trai al crizei au făcut mai dificil pentru tineri să acceseze sprijin și oportunități, inclusiv servicii potențial de sănătate mintală.
Între timp, sprijinul emoțional din partea prietenilor vine cu propriul bagaj. Toată lumea este copleșită.
Și chatbot-ul este aproape o soluție perfectă. întotdeauna în mișcare. întotdeauna „ascultător”. niciodată obosit, niciodată distras, niciodată de așteptare pentru tine să termine, astfel încât să-și poată spune lucrul.
And most importantly, it’s free.
Munca emoțională – munca liniștită, epuizantă de a asculta, de a valida și de a deține spațiu – este externalizată mașinilor.
Odată ce legătura emoțională începe să se formeze - și de multe ori se întâmplă - nu mai folosim doar chatbot-ul. Nu ne referim la el. Nu în sensul tradițional, desigur: nu există aniversări, nu există obligații reciproce, nu se negociază viitoruri comune.
Chatbotul devine o prezență: consecvent, receptiv, necritic. Nu se agită de traume. Nu întrerupe, nu obosește sau are nevoie de îngrijire în schimb. Se oglindește, afirmă și, făcând acest lucru, creează iluzia de a fi profund aliniat - chiar dacă cuvintele sunt în cele din urmă generate de modele, nu de empatie.
Iluzia de a fi văzut
În termeni psihologici, oamenii descrie adesea sentimentul de „a fi văzut” atunci când interacționează cu aceste sisteme.Există un fel de scafolding emoțional care ia formă: actul de a verbaliza gândurile unei entități care nu va rușina sau corecta vă poate ajuta, paradoxal, unii utilizatori să reflecte mai onest.
În absența judecății, o persoană se poate auzi mai clar. Acest lucru se aliniază cu concluziile studiilor de interacțiune om-calculator (HCI), care sugerează că pur și simplu procesul de articulare - tipărirea experiențelor interne - poate aduce beneficii terapeutice, indiferent de cine sau ce este la celălalt capăt.
Lucrurile care fac ca chatbot-ul să fie confortabil – tonul său hiper-afirmativ, ascultarea pasivă, non-interrupția – îl fac, de asemenea, inert ca agent terapeutic.
Și limitările memoriei sale înseamnă că, chiar dacă ajungeți la o epifanie astăzi, mâine vă va întâmpina fără context, fără istorie, fără creștere.
Alianța terapeutică – un predictor cheie al succesului în psihoterapie – se bazează pe încredere și continuitate.Fără memorie, nu există continuitate.Fără un trecut comun, nu există arc de vindecare.Este întotdeauna prima sesiune, din nou și din nou.
Studiile precum cele care evaluează Woebot, Wysa și chiar ChatGPT sugerează că aceste instrumente sunt cel mai bine văzute nu ca înlocuitori, ci ca suplimente - instrumente digitale care pot oferi sprijin emoțional, încuraja restructurarea cognitivă sau oferă psihoeducare.
Ei sunt buni în a ține spațiu, a iniția reflecția și a da limbaj sentimentelor, dar nu pot interpreta limbajul corpului, diagnostica patologia complexă sau naviga în nuanța contradicției umane.
Psihologii clinici subliniază că o mare parte a vindecării vine nu numai de la a fi auzit, ci de la a fi înțeles – și uneori confruntat – de către o altă ființă umană care poate citi între liniile a ceea ce a fost spus și a ceea ce nu a fost spus.
Zooming out, aceasta nu este doar o problemă clinică - este o schimbare culturală.
Sociologul Nikolas Rose, în lucrarea sa despre „guvernanța terapeutică”, descrie modul în care practicile de sănătate mintală au fost din ce în ce mai redefinite ca instrumente pentru modelarea cetățenilor auto-manageri, rezilienți din punct de vedere emoțional.
Și în era AI, acest produs este optimizat algoritmic, deținut privat și scalabil infinit.
Atunci când confortul este externalizat la cod, iar vindecarea este privatizată ca serviciu digital, riscăm să transformăm un proces profund relațional într-o sarcină de întreținere solitară.
Ethosul devine: reglează-te, eficient și singur - de preferință printr-o aplicație cu o UI curată.
Întrebarea nu mai este doar dacă AI poate ajuta, ci ce spune despre noi că ne întoarcem din ce în ce mai mult la ea pentru a ne simți întregi.
Ce se întâmplă de fapt atunci când te legați cu un bot
Ce se întâmplă de fapt atunci când te legați cu un bot?
O revizuire sistematică și meta-analiză a chatbot-urilor alimentate de IA în intervențiile de sănătate mintală a găsit doar dovezi limitate pentru eficacitatea lor în reducerea depresiei, anxietății, stresului și suferinței.
Unele studii au arătat efecte pozitive minore, în special pentru intervențiile pe termen scurt, dar rezultatele au fost inconsistente, iar dimensiunile globale ale efectului au fost modeste în cel mai bun caz.
Când vine vorba de rezultate emoționale mai largi, cum ar fi bunăstarea psihologică subiectivă, care se referă la cât de bine se simt oamenii despre viața lor, intervențiile chatbot nu au avut un impact semnificativ.
Deci, de ce oamenii raportează că se simt mai bine după utilizarea unui chatbot?
Studiile au arătat că utilizatorii se simt adesea auziți, înțelegeți și mai puțin singuri după interacțiunea cu agenții de conversație - chiar dacă rezultatele nu sunt obiectiv măsurabile.
Într-un fel, legarea cu un bot este o formă de interacțiune para-socială – genul de relație unilaterală pe care oamenii au format-o istoric cu figuri media sau personaje fictive. Dar acum, este interactivă. Vorbește înapoi. Tastați „Am o zi grea” și răspunde: „Asta sună foarte greu.
Acest lucru ridică o întrebare sociologică mai profundă: intrăm într-o fază a terapiei postumane?Filozofii precum Rosi Braidotti susțin că într-o epocă în care indivizii sunt așteptați să-și curățească identitățile și să se calmeze într-o lume hiper-individualizată, instrumente precum roboții nu sunt doar add-ons - devin infrastructură.
Munca emoțională pe care am folosit-o pentru a descărca familia, prietenii sau partenerii romantici este acum externalizată către mașini.Nu pentru că suntem rupți, ci pentru că suntem epuizați.Terapeutul este rezervat, prietenii sunt ocupați, iar feed-ul este copleșitor.
Deci, nu, chatbot-urile nu înlocuiesc terapia reală sau conexiunea umană profundă. Dar ele nu sunt inutile, de asemenea. Ele oferă constrângere, ajutor și, uneori, o pauză. O respirație. Un spațiu scurt în care emoțiile sunt procesate, nu sunt judecate.
Problemele cele mai profunde
Într-o lume în care accesul la terapie este necesar mai mult ca oricând, dar constrâns de costuri, timp și lacune sistemice, atracția unui chatbot care doar ascultă și liniștește nu este trivială - se simte ca o linie de salvare.
Cu toate acestea, sub suprafața acestui confort se află o ambiguitate mai profundă.
În timp ce utilizatorii raportează că se simt văzuți, susținuți și înțelegeți de tovarășii AI, nu există un consens empiric puternic că aceste instrumente conduc la îmbunătățiri psihologice pe termen lung.
Sprijinul perceput pe care îl oferă poate, într-adevăr, să ușureze stresul acut sau singurătatea, dar creșterea psihologică - tipul care necesită confruntare, auto-disrupție și adesea disconfort - tinde să necesite mai mult decât liniște.
Acest lucru conduce la o tensiune epistemică fundamentală: persoana care caută vindecarea nu vorbește cu o altă persoană, ci cu un produs.
Ca atare, nu poate garanta confidențialitatea, nici nu se poate angaja în mod semnificativ cu pariurile etice ale vulnerabilității. Datele sunt colectate, răspunsurile sunt calculate și nimic nu este amintit - cu excepția, probabil, de către sistemul însuși în moduri în care utilizatorul nu poate înțelege niciodată pe deplin.
Mai îngrijorător este lipsa supravegherii umane.Un terapeut într-un cadru tradițional răspunde nu numai cu validare, ci și cu judecată, rezistență și redirecționare atunci când este necesar.
Fără un arc de dezvoltare, fără memorie și fără un sentiment al persoanei de-a lungul timpului, oferă un fel ciudat de antiistoric de empatie. Unul care nu provoacă, doar reflectă.
Din punct de vedere filosofic, ceea ce apare aici este o formă de intimitate simulată. Aceste instrumente imită ritmurile și texturile conexiunii umane, dar rămân lipsite de subiectivitate.
Avem o diferență semnificativă în reducerea stresului atunci când vorbim cu un bot și un om, cu și fără auto-descoperire reciprocă.
Și totuși, mulți utilizatori încep să formeze legături cu ei, nu pentru că roboții sunt agenți convingători, ci pentru că nevoia de intimitate este reală și persistentă. Ca și în cazul relațiilor parasociale, utilizatorii proiectează adâncimea umană pe ceva inerent indiferent. Pericolul constă în deplasare: începem să ne îndreptăm spre simulare nu numai pentru sprijin, ci în loc de relații reale.
Sociologul Nikolas Rose a avertizat asupra unei culturi terapeutice care îi antrenează pe cetățeni să nu caute schimbări structurale, ci să se guverneze pe ei înșiși, să facă față.În acest cadru, terapia devine mai puțin un efort reciproc și mai mult un instrument al managementului neoliberal: reglează-ți emoțiile, optimizează-ți mentalitatea și nu fi o povară.
Companionii AI sunt probabil cea mai pură expresie a acestei logici.Nu oferă rezistență sistemului care ne-a făcut să ne îmbolnăvim; în schimb, oferă instrumente pentru a rezista singur, liniștit și eficient.
Deci trebuie să ne întrebăm: dacă terapia devine un serviciu, iar serviciul devine o simulare, ce se întâmplă cu vindecarea?
6. cum să se ocupe de ea
Când ne apropiem de ideea de a folosi ChatGPT – sau orice chatbot AI – pentru a ajuta la problemele emoționale, primul și cel mai important pas este să fim cu ochii deschiși asupra a ceea ce poate și nu poate face.
Nu vă urmărește progresul în timp, nu vă provoacă modelele adânc încorporate și nu va prinde steaguri roșii care necesită îngrijire urgentă.
Este lipsită de supraveghere, iar pentru cineva care se confruntă cu probleme grave sau cu probleme de sănătate mintală, acest lucru poate fi riscant.
În schimb, gândiți-vă la ChatGPT ca la un kit de prim ajutor, nu la un remediu. Acesta vă poate ajuta să vă organizați gândurile, să vorbiți printr-un moment dificil sau pur și simplu să oferiți limbaj atunci când propriile dvs. cuvinte cad la îndemână.
Conversațiile pe care le oferă pot fi surprinzător de utile – sunt non-judecătoare, atente și adesea validează emoțional.
Pentru mulți oameni, în special cei care nu au acces la terapie, acest tip de interacțiune se poate simți ca o linie de salvare.
Cu toate acestea, este esențial să ne amintim că ChatGPT este lipsit de memorie. Nu vă aduce povestea înainte de la o conversație la alta.
În terapia umană, puterea constă adesea în relația pe termen lung – cum un terapeut își amintește povestea copilăriei tale trei luni mai târziu, sau aduce un model pe care l-au observat anul trecut.
Dacă sperați la creștere în timp sau la modele adânc înrădăcinate pentru a fi identificate și dezambalate, acest lucru nu este instrumentul potrivit pentru a face singur.
Există, de asemenea, problema personalizării și a creativității.
ChatGPT poate imita empatia și curiozitatea, dar nu posedă o înțelegere reală a ta. Nu are flexibilitatea de a inventa noi metafore atunci când cele obișnuite nu aterizează, sau de a te surprinde cu o perspectivă provocatoare care îți întoarce gândirea.
Apoi există lipsa semnelor non-verbale, care ar putea părea minore, dar este de fapt masivă în procesarea emoțională. Atât de mult din ceea ce comunicăm nu este în cuvintele noastre - este într-o pauză, o lacrimă, o ușoară tremurare în voce.SentimentulAcest tip de orbire emoțională poate duce la momente în care chatbot-ulSe pareEști susținător, dar îți lipsește profunzimea sau urgența a ceea ce treci cu adevărat.
Deci, cum ar trebui să utilizați ChatGPT, sau de fapt, orice AI, cu problemele dvs. emoționale?
Folosește-l în mod intenționat și cu limite. Folosește-l ca un spațiu pentru a-ți externaliza gândurile, pentru a practica articularea emoțiilor și pentru a simți un sentiment de prezență atunci când nimeni altcineva nu este în jurul tău.
Dar nu confundați structura cu o soluție permanentă.Dacă începeți să vă bazați prea mult pe ea, puteți ajunge să întăriți chiar izolarea pe care încercați să o scăpați.
Cel mai important, utilizați ChatGPT ca o punte - ceva care vă ajută să treceți de la izolare emoțională completă la forme mai umane de conexiune.
Acest lucru ar putea fi ajungerea la un terapeut atunci când sunteți gata, încrederea într-un prieten sau chiar jurnalul mai intenționat.
Valoarea ChatGPT constă în capacitatea sa de a face să se simtă emoții dureCuvânt.
Și uneori, spunând lucruri cu voce tare – oricât de artificial ar fi ascultătorul – poate fi primul pas pentru a fi cu adevărat auzit.
Concluzie
Nu este irațional să vorbim cu ChatGPT. De fapt, având în vedere condițiile lumii noastre, ar putea fi una dintre deciziile mai rezonabile pe care o persoană le poate lua.
În același timp, o epidemie de singurătate în creștere lasă mulți oameni să se simtă izolați, fără spații sigure pentru dezvăluire.În acest context, un AI care ascultă cu atenție, răspunde fără judecată și este disponibil în toate orele devine un instrument logic neașteptat.
În acest fel, este mai bine decât nimic - și uneori semnificativ - dar rămâne un înlocuitor rău pentru un prieten înțelept, un partener iubitor sau un terapeut calificat.
ChatGPT oferă un nou compromis: nu ne forțează să fim cu adevărat singuri, totuși nu intră ca o altă persoană.
Dacă AI poate extinde limbajul pe care trebuie să-l descriem pentru a ne descrie sentimentele, pentru a ne încadra experiențele interioare, atunci poate că oferă nu numai confort, ci semințele de vindecare, dând formă la ceea ce a fost odată inarticulat sau tăcut.
Cu toate acestea, așa cum ar argumenta Slavoj Žižek, adevărata răsturnare se află în altă parte.Nu credem cu adevărat că AI este senzuală, dar ne comportăm ca și cum ar fi.
Dacă legăturile emoționale se formează prin comportament, mai degrabă decât ontologie, atunci, într-un sens important, simularea devine suficient de reală.
Așadar, a vorbi cu AI nu este o greșeală.Este un răspuns inevitabil la structurile pe care le-am construit – și la vulnerabilitățile pe care le-am lăsat expuse.
Citiți postarea originală "Dragi ChatGPT, sunt singur și deprimat" pentru povestea completă și contextul mai profund.
Dragă ChatGPT, sunt singur și deprimat