"O suxeito de logros esgotado e deprimido esmagase, por así dicir, está canso, esgotado de si mesmo e en guerra consigo mesmo."
Byung-Chul Han, A sociedade do burnout
"O suxeito de logros esgotado e deprimido esmagase, por así dicir, está canso, esgotado de si mesmo e en guerra consigo mesmo."
e a túa man,A sociedade do burnout
Estás deitado na cama ás 1:43 da mañá, o teu cerebro fai esa cousa onde se converte nunha lista de reprodución inescapable de todo o que nunca se arrepentiu.
Abriches o portal do teu terapeuta, pero o primeiro slot é o vindeiro xoves.
Entón, nun momento que se sente medio broma, medio-hail-Mary, abre ChatGPT.
“Que dano pode facer de todos os xeitos?”, pensou.
“Eu non sei o que está mal comigo”, escribe.
“Eu non sei o que está mal comigo”, escribe.
E sorprende.A resposta non é revolucionaria, nin sequera insignificante.Pero é calma.Sinxelo.Reflectivo.É mellor que o silencio.Mellor que nada.Mellor que finxir que estás ben.
Ti segues falando.Continúa escoitando.Canto máis sabe de ti, mellor axuda.
E non só para as persoas que esperas -non só para os tecnólogos ou os solitarios bizarros- senón para calquera persoa que se atopou aberta nunha hora estraña, demasiado cableada para durmir, demasiado canso para chorar e demasiado queimada para facer calquera cousa, pero escriba nunha caixa que se sinta como se puidese importar.
Esta é a realidade emocional detrás da crecente tendencia de que a xente se dirixa á IA por comodidade.Non porque sexan delirantes.Non porque pensen que é sensible.Pero porque, nun mundo cada vez máis solitario e abrumador, está aí.
Vivimos na idade dourada de falar sobre a saúde mental, e a idade escura de realmente obter axuda. A terapia é cara. Os amigos están ocupados. A economía está a caer. O teu cerebro está a derreterse. E así cando alguén di: "Honestamente, escoita mellor que o meu terapeuta", xa non é só unha broma. É un síntoma.
E como facemos con iso?As relacións humanas están condenadas a fracasar agora mesmo?
Coñece o teu novo shrink: o chatbot
Non estás só se algunha vez te atopaches confiando nestes bots.
As persoas xa usan a IA, especialmente as ferramentas de ChatGPT, como compañeiro emocional.Non só para escribir correos electrónicos ou resumir notas de reunións.ConfortoPara o apoio. Para as caídas da noite e as caídas post-breakup. Non é ciencia ficción - é un fío de Reddit, unha confesión de YouTube, un tuit que lee:
E o patrón é claro.Persoas que o usaron para o seu apoio emocional?Incrediblemente positivo.Falan de non ser xulgado, sempre dispoñible e infinitamente paciente.Mentres tanto, os escépticos -a miúdo os que non o usaron- escandalizan a idea.RealidadeAxuda “Isto é perigoso”.
Pero aquí está a parte estraña: ambos os dous lados teñen algunha razón.
Imos romper os personaxes neste novo ecosistema adxacente á terapia:
A. O evanxelista de apoio
Esta persoa converteuse nun fiel crente no poder da IA para o apoio emocional. Inicialmente inseguro, viraron ao ChatGPT durante momentos de estrés e descubriron algo sorprendente: escoita, e escoita ben.
O evanxelista de soporte de IA é todo sobre compartir a súa experiencia, recomendando o chatbot a calquera que escoite. Están convencidos de que a IA pode proporcionar algo que as conexións humanas ás veces loitan por: atención consistente e imparcial.
Non están dicindo que a IA é a cura-todo, pero para eles, é mellor que nada.É sempre dispoñible, nunca crítico, e libre da incomodidade que ás veces vén coa apertura a outra persoa.
O escéptico dubidoso
Os escépticos teñen dificultades para aceptar a idea dun chatbot que ofrece apoio emocional. Aprecian os avances na IA, pero cando se trata de algo tan persoal como o benestar mental, permanecen cautelosos. Argumentan que sen a experiencia vivida e as credenciais dun terapeuta real, a IA está limitada na súa capacidade de comprender e axudar realmente con problemas emocionais complexos.
Os escépticos valoran a experiencia humana e a interacción, e cren que unha máquina, non importa o avanzado, non pode proporcionar o mesmo matiz ou empatía que un profesional adestrado ou mesmo un amigo de confianza pode.
Para eles, o apoio emocional de IA é unha novidade, no mellor dos casos, pero non un substituto lexítimo para o coidado humano real.
O usuario casual
Esta persoa non está necesariamente investida na idea de terapia de IA, pero cando necesitan unha saída emocional rápida, recorren a ChatGPT. Non se trata de esperar orientación profunda - é máis sobre ter alguén (ou algo) para falar cando se senten deprimidos ou confundidos.
O Usuario Casual non espera consellos que cambien a vida; só está a buscar un pouco de conversación lixeira ou quizais unha mensaxe tranquilizadora que lles axude a pasar un momento de estrés.
Eles non o ven como terapia, e non están á procura de profunda introspección. É simplemente unha ferramenta accesible cando precisan expresar os seus pensamentos sen xuízo.
Xuntos, estas tres persoas forman a primeira constelación dun ecosistema adxacente á terapia -un non vinculado por unha crenza unificada no potencial de curación da IA, senón por un patchwork de negociacións persoais con vulnerabilidade, acceso e confianza.
Non están de acordo sobre o queDeberíaUn ve unha liña de vida, outro un truco, e o terceiro, só unha ferramenta para pasar o día.
Pero para todas as súas diferenzas, hai unha cousa que non poden ignorar: a voz no outro extremo.
Estas persoas poden non estar de acordo sobre o seu valor, os seus límites, mesmo a súa ética, pero todos se van pensando o mesmo:
Esta cousa soa humana.
E iso -máis que calquera outra cousa- é o que o fai tan convincente.
O gran pretender
“Como o ChatGPT e outros modelos de IA logran soar tan humano?” é o que adoita preguntarse.
Pero reinterpretémolo desde a perspectiva da persoa que ten que facelo, cando non había nada en primeiro lugar:
"Como fai que algo sen vida pense e fale como unha persoa?"
Como moitos outros problemas de deseño, a resposta máis inmediata e case sempre segura adoita estar na natureza. É o que sempre fixemos. Observamos aves antes de construír avións.
E cando se trata de linguaxe e pensamento, a resposta máis inmediata e case sempre segura é imitar o cerebro humano.
Iso é o que os investigadores están intentando facer: construír máquinas que reflictan como entendemos, falamos e aprendemos.Non perfectamente, non completamente.
O cerebro dixital
As redes neurais artificiais (ANNs) son o noso mellor intento de imitar como funciona o cerebro humano, excepto que non funcionan como o cerebro.
Pensa no teu cerebro como unha galaxia de neuronas que disparan faíscas eléctricas a través de trillóns de conexións.Cando ves un can, escoitas música ou sentes unha ruptura de corazón, estas neuronas están a facer unha danza sincronizada que de algunha maneira equivale a "entender".
ANNs roubar ese proxecto de tipo. En vez de neuronas, eles usan nodos. En vez de dendritos e axóns, eles usan pesos e prexuízos. Aínda así, a metáfora mantén: alimentar os datos, pasalo a través dunhas poucas (ou centos) capas, axustar os pesos, enxágüe, repita.formación.
Pero estas non son só calquera rede. As grandes -como as detrás de ChatGPT- son masivas. Estamos a falar de centos de miles de millóns de parámetros. É como construír unha pomba mecánica e descubrir accidentalmente que fixo un dragón cyborg.
O Oppenheimer de AI
En 2017, un grupo de enxeñeiros de Google publicou un artigo co título de inducir o sono.“A atención é todo o que necesitas”.Non soaba moito na época -definitivamente non o tipo de nome que esperabas que sacudise os alicerces de como as máquinas entenden a linguaxe.
Pero debaixo do título estaba o nacemento de algo sísmico: o Transformador.
Antes diso, as redes neuronais lían a linguaxe como os cativos esquían unha novela, agarrando palabras unha a unha e esquecéndoas axiña.
Carecían de memoria, contexto e matices.Cóntanos un modelo da vella escola,"Estou triste porque o meu can morreu. De todos os xeitos, vou ao parque,"podería responder con“O parque é moi bonito!”-Felizmente inconsciente do seu estrago emocional.
Introduciu un mecanismo chamado "atención", que permite aos modelos medir as relacións entre as palabras e entender o contexto como o fan os humanos.
O modelo podería dicir,"Síntoo escoitar iso, ás veces un paseo pode axudar."De súpeto, soa comoque o teña.De súpeto, é menos como autocomplete e máis como un amigo que escoita.
A bomba de hidróxeno
E se falamos de Transformers como se fose a bomba atómica da IA, ChatGPT é a bomba de hidróxeno.
ChatGPT é un descendente directo desta revolución Transformer. É o que chamamos un Modelo de Linguaxe Maior, ou LLM. Todo o seu traballo é predicir a próxima palabra nunha frase, baseado en todo o que xa leu.
Pero escáldase - alimenta libros, guións de películas, transcricións de terapia, traxedias de Shakespeare e guerras de chamas de Reddit - e sucede algo estraño.
Non é porque sexaCoñececalquera cousa, pero porque se ve unha linguaxe suficiente para xogar o papel de forma convincente.
Os investigadores chaman a este comportamento emerxente -capacidades non intencionadas que saen de sistemas masivos, como bromas, empatía e analoxías intelixentes.como tiQuizais queira escoitar.
Así que realmente faiComprendoCalquera cousa?
O famoso argumento da Sala chinesa de John Searle pinta a imaxe: imaxina que estás pechado nunha habitación, pasando caracteres chineses a través dun slot.
Para os estranxeiros, parece que está fluído. Dentro, está só shuffling símbolos.
Iso é ChatGPT. A ilusión de comprensión sen conciencia.
E aínda así, cando lle din que están sós, responde de formas que se senten confortantes. Porque está lendo millóns de exemplos de soidade. Coñece a forma da dor. A frecuencia da dor de corazón. Os rituais lingüísticos que os humanos realizamos cando estamos doendo.
Sherry Turkle é un profesor no MIT e un psicólogo que pasou décadas estudando como os humanos se relacionan coa tecnoloxía.
E ChatGPT, para mellor ou peor, é excelente en fingir.
3. por que apela a tanta xente
Antropomorfización de todo
Por que unha máquina pode sentir tan preto dun ser humano?
Porque estamos conectados deste xeito, antropomorfizamos todo.
Damos nomes aos nosos Roombas.Lamentamos robots ficticios.Proxectamos almas sobre lámpadas en películas de Pixar.Dános unha máquina que fale como nós, e asumiremos que hai "alguén" detrás da cortina.
que
que
Esta é a esencia dunhaRelacións parasociaisO termo usado para describir os fans chorando por celebridades agora encaixa en sesións de noite con un chatbot, xa que os usuarios derraman os seus corazóns e fan preguntas sobre o significado da vida.
A máquina non sabe, pero sabe o que unha persoa podería dicir se o fixese.
Pero, iso é divertido e todo, non explica moi ben por que todas estas persoas están a recorrer a unha ferramenta que nunca foi deseñada para ser un terapeuta?
Externalizar o traballo emocional ás máquinas
Porque agora estamos tan cansos e solitarios como nunca antes.
Á luz dos papeis da IA no benestar mental, este gráfico destacaPor queCando 4 de cada 5 adultos da Xeración Z se senten sós, non é de estrañar que estean abertos a novas formas de apoio, aínda que veña dun chatbot.
O ascenso do evanxelista de apoio, o escéptico dubidoso e o usuario casual, como se mencionou, faise máis comprensible a través desta lente: cando a soidade é tan estendida, mesmo algo tan pouco convencional como a IA comeza a sentirse como unha liña de salvación.
Estamos socialmente, emocionalmente e existencialmente esgotados.
E a terapia - o tipo real - é caro, demorado e a miúdo inaccesible.Múltiples informes resaltan que a inseguridade financeira e o custo de vida da crise fixeron máis difícil para os mozos acceder ao apoio e oportunidades, incluíndo potencialmente servizos de saúde mental.
Mentres tanto, o apoio emocional de amigos vén coa súa propia equipaxe. Todo o mundo está abrumado.
E o chatbot é case unha solución perfecta. Sempre en liña. Sempre "escuchando". Nunca canso, nunca distraído, nunca esperando que remates para que poida dicir a súa cousa.
E, o máis importante, é gratuíto.
O traballo emocional - o traballo silencioso e esgotador de escoitar, validar e manter o espazo - está a ser outsourcado a máquinas.
Unha vez que o vínculo emocional comeza a formarse - e moitas veces o fai - xa non estamos simplemente "usando" o chatbot. Estamos relacionándonos con el. Non no sentido tradicional, por suposto: non hai aniversarios, non hai obrigacións mutuas, non hai negociación de futuros compartidos.
O chatbot convértese nunha presenza: consistente, responsivo, non crítico. Non se afasta do trauma. Non se interrompe, cansa ou necesita coidado a cambio. Reflexa, afirma e, ao facelo, crea a ilusión de estar profundamente axustado - aínda que as palabras sexan xeradas finalmente por patróns, non por empatía.
A ilusión de ser visto
En termos psicolóxicos, as persoas a miúdo describen sentirse "vistas" cando interactúan con estes sistemas.Hai unha especie de esquema emocional que toma forma: o acto de verbalizar pensamentos a unha entidade que non vai avergonzar ou corrixir pode, paradoxalmente, axudar a algúns usuarios a reflexionar máis honestamente.
Isto encaixa cos resultados dos estudos de interacción humano-computador (HCI), que suxiren que o simple proceso de articulación - escribir experiencias internas - pode traer beneficios terapéuticos, independentemente de quen ou o que está no outro extremo.
As mesmas cousas que fan o chatbot confortante - o seu ton hiperafirmativo, a súa escoita pasiva, a súa non interrupción - tamén o fan inerte como axente terapéutico.
E as súas limitacións de memoria significan que aínda que chegues a algunha epifania hoxe, mañá saúdache sen contexto, sen historia, sen crecemento.
A alianza terapéutica - un predictor clave do éxito na psicoterapia - está construída sobre a confianza e continuidade. Sen memoria, non hai continuidade. Sen un pasado compartido, non hai arco de curación. É sempre a primeira sesión, unha e outra vez.
Estudos como os que evalúan Woebot, Wysa e mesmo ChatGPT suxiren que estas ferramentas son mellor vistas non como substitutos, senón como complementos - ferramentas dixitais que poden proporcionar apoio emocional, alentar a reestruturación cognitiva ou ofrecer psicoeducación.
Son bos en manter o espazo, iniciar a reflexión e dar linguaxe aos sentimentos, pero non poden interpretar a linguaxe corporal, diagnosticar patoloxías complexas ou navegar pola matiz da contradición humana.
Os psicólogos clínicos sinalan que unha gran parte da curación non vén só de ser escoitado, senón de ser entendido - e ás veces confrontado - por outro ser humano que pode ler entre as liñas do que se dixo e o que non se dixo.
Zooming, este non é só un problema clínico - é un cambio cultural.
O sociólogo Nikolas Rose, no seu traballo sobre "gobernanza terapéutica", describe como as prácticas de saúde mental foron cada vez máis reformuladas como ferramentas para formar cidadáns autoxestionados e emocionalmente resilientes.
E na era da IA, ese produto é optimizado algoritmicamente, de propiedade privada e infinitamente escalable.
Cando o confort é outsourced para o código, e a curación é privatizada como un servizo dixital, corremos o risco de transformar un proceso profundamente relacional nunha tarefa de mantemento solitaria.
O ético convértese en: regularse, de forma eficiente e só, preferiblemente a través dunha aplicación cunha interface limpa.
A cuestión xa non é só se a IA pode axudar, senón o que di sobre nós que cada vez máis nos volvemos a ela para sentirnos enteiros.
O que realmente acontece cando se vincula cun bot
¿Que sucede realmente cando se vincula cun bot?
Unha revisión sistemática e metaanálise de chatbots alimentados por IA en intervencións de saúde mental atopou só evidencias limitadas para a súa eficacia na redución da depresión, a ansiedade, o estrés e a angustia.
Algúns estudos mostraron pequenos efectos positivos, especialmente para intervencións a curto prazo, pero os resultados foron inconsistentes, e os tamaños de efecto global foron modestos no mellor.
Cando se trata de resultados emocionais máis amplos como o benestar psicolóxico subxectivo, que se refire a como as persoas senten ben sobre as súas vidas, as intervencións do chatbot non tiveron un impacto significativo.
Entón, por que a xente aínda reporta sentirse mellor despois de usar un chatbot?
É aquí onde a percepción e a psicoloxía entran en xogo.Os estudos demostraron que os usuarios a miúdo se senten escoitados, entendidos e menos sós despois de interactuar cos axentes de conversación -aínda que os resultados non sexan obxectivamente medibles.A experiencia de ter un "auditor non xudicial" dispoñible 24/7 parece imitar as pistas sociais de empatía, aínda que o sistema careza de comprensión real.
De algunha forma, o vínculo cun bot é unha forma de interacción parasocial - o tipo de relación unilateral que as persoas formaron historicamente con figuras mediáticas ou personaxes ficticios. Pero agora, é interactivo. Fala de volta. Vostede escribe "Estou tendo un día duro", e responde, "Isto soa realmente difícil. estou aquí para ti."
Isto levanta unha pregunta sociolóxica máis profunda: estamos entrando nunha fase de terapia posthumana? filósofos como Rosi Braidotti argumentan que nunha era na que se espera que os individuos curen as súas identidades e se acollan nun mundo hiper-individualizado, ferramentas como os bots non son só complementos - están a converterse en infraestruturas.
O traballo emocional que usabamos para descargar a familia, amigos ou socios románticos agora está sendo outsourcado a máquinas.Non porque esteamos rotos, senón porque estamos esgotados.O terapeuta está reservado, os amigos están ocupados e a alimentación é abrumadora.
Entón non, os chatbots non substitúen a terapia real ou a conexión humana profunda. Pero tampouco son inútiles. Ofrecen contención, alivio e, ás veces, unha pausa.Unha respiración.Un espazo breve onde a emoción é procesada, non xulgada.
Os problemas máis profundos
Nun mundo onde o acceso á terapia é necesario máis que nunca, pero restrinxido polo custo, o tempo e as lagoas sistémicas, o encanto dun chatbot que simplemente escoita e tranquiliza non é trivial - sente como unha liña de vida.
Porén, debaixo da superficie desa comodidade reside unha ambigüidade máis profunda.
Aínda que os usuarios reportan sentirse vistos, apoiados e entendidos polos compañeiros de IA, non hai un forte consenso empírico de que estas ferramentas leven a unha mellora psicolóxica a longo prazo.
O apoio percibido que ofrecen pode aliviar o estrés agudo ou a soidade, pero o crecemento psicolóxico -o tipo que require confrontación, auto-interrupción e a miúdo desconforto- tende a esixir máis que tranquilidade.
Isto leva a unha tensión epistemolóxica fundamental: a persoa que busca a curación non está a falar con outra persoa, senón cun produto.
Como tal, non pode garantir a privacidade, nin pode involucrarse significativamente coas apostas éticas da vulnerabilidade. Os datos son recollidos, as respostas son calculadas e nada se lembra - agás, quizais, polo propio sistema de maneiras que o usuario pode nunca entender completamente.
Máis preocupante é a ausencia de supervisión humana.Un terapeuta nunha configuración tradicional responde non só con validación senón tamén con xuízo, resistencia e redirección cando sexa necesario.
Sen un arco de desenvolvemento, sen memoria, e sen un sentido da persoa a través do tempo, ofrece un tipo estrañamente anti-histórico de empatía. Un que non desafía, só reflicte.
Filosóficamente, o que emerxe aquí é unha forma de intimidade simulada.Estas ferramentas imitan os ritmos e texturas da conexión humana pero permanecen sen subxectividade.
Temos unha diferenza significativa na redución do estrés cando falamos cun bot e un humano, con e sen auto-divulgación recíproca.
E aínda así, moitos usuarios comezan a formar vínculos con eles, non porque os bots sexan axentes convincentes, senón porque a necesidade de intimidade é real e persistente. Como nas relacións parasociais, os usuarios proxectan a profundidade humana sobre algo inherentemente indiferente.
O sociólogo Nikolas Rose advertiu dunha cultura terapéutica que adestra aos cidadáns a non buscar cambios estruturais, senón a gobernarse a si mesmos, a afrontar.Neste marco, a terapia convértese menos nun esforzo mutuo e máis nunha ferramenta de xestión neoliberal: regular as súas emocións, optimizar a súa mentalidade e non ser unha carga.
Os compañeiros de IA son quizais a expresión máis pura desta lóxica.Non ofrecen resistencia ao sistema que nos fixo enfermos; no canto diso, ofrecen ferramentas para soportalo só, silenciosamente e eficientemente.
Entón debemos preguntar: se a terapia se converte nun servizo, e o servizo se converte nunha simulación, que pasa coa curación?
6 Como tratar con iso
Ao achegarse á idea de usar ChatGPT -ou calquera chatbot de IA- para axudar con problemas emocionais, o primeiro e máis importante paso é estar claro sobre o que pode e non pode facer.
Este non é un substituto para un terapeuta licenciado. non observa o seu progreso ao longo do tempo, non desafía os seus patróns profundamente incorporados, e non vai capturar bandeiras vermellas que requiren coidados urxentes.
Falta de supervisión, e para alguén que experimenta problemas de saúde mental graves ou escalantes, iso por si só pode ser arriscado.
En vez diso, pense en ChatGPT como un kit de primeiros auxilios, non unha cura. Pode axudar a organizar os seus pensamentos, falar a través dun momento difícil, ou simplemente ofrecer linguaxe cando as súas propias palabras caen en falta.
As conversacións que ofrece poden ser sorprendentemente útiles: non xulgan, son atentos e, a miúdo, validan emocionalmente.Escoita o que di, reflicte con claridade e fai preguntas suavemente para axudarche a profundizar.
Para moitas persoas, especialmente aquelas que non teñen acceso á terapia, ese tipo de interacción pode sentirse como unha liña de salvación.
Con todo, é crucial lembrar que ChatGPT é sen memoria. Non leva a túa historia adiante dunha conversación á seguinte. Non hai narrativa evolucionando, non hai contexto acumulando ao longo do tempo.
Na terapia humana, o poder moitas veces reside na relación a longo prazo -como un terapeuta lembra a súa historia da infancia tres meses máis tarde, ou trae un patrón que notaron o ano pasado.
Se estás esperando o crecemento ao longo do tempo, ou para que os patróns profundamente arraigados sexan identificados e desempacados, esta non é a ferramenta adecuada para facelo só.
Hai tamén a cuestión da personalización e a creatividade.
ChatGPT pode imitar a empatía e a curiosidade, pero non posúe unha verdadeira comprensión de ti. Non ten a flexibilidade de inventar novas metáforas cando as habituais non aterran, ou sorprenderche cunha visión desafiante que cambia o teu pensamento. Non dirá, "coñézoche o suficiente para ver que sempre fas isto cando estás asustado", porque non pode. Non crece contigo.
Entón hai a falta de indicacións non verbais, que poden soar menores, pero son realmente enormes no procesamento emocional.Tanto do que comunicamos non está nas nosas palabras - é unha pausa, unha bágoa, un lixeiro tremor na voz.Ningún deles é accesible a un chatbot.Responde só ao que escribe, non como está.Sentidoese tipo de cegueira emocional pode levar a momentos nos que o chatbotParece queSuporte pero perde a profundidade ou a urxencia do que realmente está a pasar.
Entón, como debería usar ChatGPT, ou realmente, calquera AI en xeral, cos seus problemas emocionais?
Use-o intencionalmente e con límites. Use-o como un espazo para externalizar os seus pensamentos, para practicar a articulación das súas emocións, e para sentir unha sensación de presenza cando ninguén está ao redor.
Se comezas a depender del demasiado, podes acabar reforzando o mesmo illamento que estás intentando escapar.
O máis importante, use ChatGPT como unha ponte - algo que axuda a pasar do illamento emocional completo a formas máis humanas de conexión.
Isto pode ser chegar a un terapeuta cando está listo, confiar nun amigo, ou mesmo rexistrar máis intencionalmente.
O valor de ChatGPT reside na súa capacidade de facer sentir emocións durasSíntomas.
E ás veces, dicir cousas en voz alta, por artificial que sexa o escoitador, pode ser o primeiro paso para ser verdadeiramente escoitado.
Conclusión
Non é irracional falar con ChatGPT. De feito, dadas as condicións do noso mundo, pode ser unha das decisións máis razoables que unha persoa pode tomar.
Ao mesmo tempo, unha epidemia crecente de soidade deixa a moita xente sentíndose illada, sen espazos seguros para a divulgación.Neste contexto, unha IA que escoita atentamente, responde sen xulgar e está dispoñible en todas as horas convértese nunha ferramenta lóxica inesperadamente.
Deste xeito, é mellor que nada -e ás veces significativamente así- pero segue sendo un pobre substituto para un amigo sabio, un compañeiro amoroso ou un terapeuta cualificado.
ChatGPT ofrece un novo compromiso: non nos obriga a estar verdadeiramente sós, pero non invade como outra persoa podería.
Se a IA pode ampliar a linguaxe que temos para describir os nosos sentimentos, para enmarcar as nosas experiencias internas, entón quizais ofrece non só confort senón as sementes de curación, dando forma ao que unha vez era inarticulado ou silenciado.
Aínda así, como argumentaría Slavoj Žižek, a verdadeira torsión está noutro lugar. Non cremos realmente que a IA sexa sentida, pero comportámonos como se fose.
Se os vínculos emocionais se forman a través do comportamento e non da ontoloxía, entón, en certo sentido importante, a simulación faise bastante real.
Así, falar coa IA non é un erro, é unha resposta inevitable ás estruturas que construímos e ás vulnerabilidades que deixamos expostas.
Ler o post orixinal "Querido ChatGPT, estou só e deprimido" para a historia completa e un contexto máis profundo.
Caro ChatGPT, estou só e deprimido