688 讀數
688 讀數

亲爱的ChatGPT,我孤独而沮丧 - 你能帮我吗?

经过 the frog society20m2025/04/28
Read on Terminal Reader

太長; 讀書

ChatGPT是一个聊天机器人,倾听你的想法,并回应他们,它被用于在一个日益孤独和拥挤的世界的情感支持。
featured image - 亲爱的ChatGPT,我孤独而沮丧 - 你能帮我吗?
the frog society HackerNoon profile picture
0-item


“疲惫的、抑郁的成就主体会把自己磨下来,这样说,它是疲惫的,对自己感到疲惫,并且与自己处于战争状态。


Byung-Chul Han 《消耗社会》

“疲惫的、抑郁的成就主体会把自己磨下来,这样说,它是疲惫的,对自己感到疲惫,并且与自己处于战争状态。


Byung-Chul Han 《消耗社会》


你在早上1点43分躺在床上,你的大脑正在做那件事,它变成你曾经后悔的一切不可跳跃的播放列表。


你打开了你的治疗师的门户,但最早的插槽是下周四。


所以,在一瞬间,感觉半开玩笑,半开心玛丽,你打开ChatGPT。


“无论如何,它能造成什么伤害?”你想。


“我不知道我有什么不对劲,”你打字。

“我不知道我有什么不对劲,”你打字。


答案不是突破性的,甚至也许是洞察性的,但它是平静的,温柔的,反射性的,感觉比沉默好,比什么都好,比假装你没事。


你一直在说话,它一直在倾听,它越了解你,它就越有帮助。


那一刻,听起来很奇怪,在任何地方都发生,而不仅仅是你所期望的人 - 不仅仅是科技老板或孤独的怪人 - 而是任何在一个奇怪的时刻发现自己被打破了,过于有线睡觉,过于疲惫哭泣,过于燃烧做任何事情,但键入一个感觉像它可能在乎的盒子。


这是人们为了舒适而转向人工智能的日益增长趋势背后的情感现实,不是因为他们是幻想的,不是因为他们认为这是感觉的,而是因为在一个日益孤独和拥挤的世界里,它就在那里。


我們生活在談論心理健康的黃金時代,實際上得到幫助的黑暗時代。 治療很昂貴. 朋友很忙. 經濟正在崩潰. 你的大腦正在融化。


那么,人类的关系,现在到底是如何失败的呢?


1. 认识你的新小伙子:聊天机器人

如果你曾经发现自己信任这些机器人,你并不孤单。


人们已经使用人工智能,特别是ChatGPT工具,作为情感伴侣,而不仅仅是写电子邮件或总结会议笔记。安慰对于深夜的崩溃和破裂后的崩溃,这不是科幻小说,它是一个Reddit线索,一个YouTube的告白,一个推文,上面写着:



这个模式很清楚,那些曾经用过它来支持情感的人? 令人压倒地积极。 他们谈论它是无判断的,总是可用,并且无限耐心。真实“帮忙,这很危险。

但这里是奇怪的部分:双方都有点对。


让我们分解这个新的疗法邻近生态系统中的角色:

A.支持福音派



最初不确定,他们在压力时转向了ChatGPT,并发现了一些令人惊讶的事情:它倾听,而且倾听得很好。


AI 支持福音师将分享他们的经验,向任何倾听的人推荐聊天机器人,他们相信人工智能可以提供一些人类连接有时难以提供的东西:一致,不偏见的关注。


他们不是说人工智能是治愈一切的,但对他们来说,它比什么都好,它总是可用,从来没有批判性,并且没有偶尔打开给另一个人带来的尴尬。

B.怀疑的怀疑者


Two sad people on a bus Meme Generator - Imgflip


怀疑论者很难接受提供情感支持的聊天机器人的想法,他们欣赏人工智能的进步,但当涉及到像心理健康这样的东西时,他们仍然保持警惕,他们认为没有真正的治疗师的经验和凭证,人工智能在理解并真正帮助复杂的情绪问题方面的能力有限。


他们不是反技术,他们只是怀疑它能够取代人类在如此深层次的个人领域的连接的能力,怀疑者重视人类的经验和互动,并认为机器,无论多么先进,都不能提供训练有素的专业人士或甚至可以信任的朋友的相同的色调或同情感。


对他们来说,AI的情感支持是新颖的,但不是真正的人类护理的合法替代品。

二、随机用户



这个人不一定投资于人工智能疗法的想法,但当他们需要快速的情绪输出时,他们转向ChatGPT。


随机用户并不期望改变生活的建议;他们只是在寻找一些轻松的对话或也许一个安慰的信息,以帮助他们通过压力时刻。


他们不认为这是一个疗法,他们不寻求深刻的内心观察,它只是一个易于访问的工具,当他们需要在没有判断的情况下表达自己的想法时,没有情感上的附着,只是一个快速的聊天来清理他们的思想。


这三个个体共同形成了一个与治疗相关的生态系统的早期星座 - 一个不受人工智能治愈潜力的统一信念的约束,而是通过与脆弱性,访问和信任的个人谈判的补丁。


他们不同意什么是AI应该一个人看到了一个救生线,另一个看到了一个笑话,第三个,只是一个工具来度过一天。


但是,尽管他们不同,但他们不能忽视一件事:另一端的声音,稳定,响应,在同情的语言中无动于衷地流畅。


这些人可能不同意它的价值,它的局限性,甚至是它的道德,但他们都想着相同的事情:


这听起来很人性化。


而且,这比任何事情都多,正是使它如此引人入胜,如此令人不安。


二、大假装


“ChatGPT和其他AI模型如何听起来如此人性化?”这通常是被问到的问题。


但是,让我们从谁必须制造它的人的角度重新定义它,当最初没有什么:


“你如何让一些无生命的东西像一个人一样思考和说话?”


和许多其他设计问题一样,最直接和几乎总是安全的答案往往在于自然,这是我们一直在做的事情,我们在建造飞机之前观察鸟类,我们在设计某些机器人之前研究蛇如何移动。


当涉及到语言和思想时,最直接和几乎总是安全的答案是模仿人类大脑。


这就是研究人员试图做的事情:构建机器,反映我们如何理解,说话和学习,不是完美的,不是完全的,但有时你会忘记它不是人。

二、数字大脑



人工神经网络(ANNs)是我们最好的尝试来模仿人类大脑的工作方式,但它们实际上并不像大脑一样工作。


想想你的大脑就像一个神经元星系,在数万亿个连接中发射电光闪电.当你看到狗,听到音乐,或感到心碎时,这些神经元正在做一个同步的舞蹈,以某种方式等同于“理解”。


ANNs窃取这种蓝图 - 神经元的类型 - 他们使用节点,而不是节点,而不是丹德里特和轴子,他们使用重量和偏见. 然而,比喻保持:在数据中提供食物,通过几个(或几百个)层,调整重量,清洗,重复。培训.


但这些不仅仅是任何网络,大型网络 - 就像ChatGPT背后的网络一样 - 是巨大的,我们正在谈论数十亿个参数,这就像构建一个机械鸽子,偶然发现你已经制造了一个网络龙。

四、AI的Oppenheimer


2017年,一群谷歌工程师发表了一篇题为“诱发睡眠”的论文。“注意力是你所需要的”当时这听起来并不多,绝对不是你所期望的名字,它会震撼机器如何理解语言的基础,回顾到这一点,感觉就像Oppenheimer第一次见证他的原子弹爆炸。


但是,标题的底部是地震性的诞生:变形者。


在此之前,神经网络像小孩一样阅读语言,在小说中抓住单词并立即忘记它们。


他们缺乏记忆,背景和色彩,告诉我一个老学校的模型,“我很伤心,因为我的狗死了,不管怎样,我都会去公园。它可能与“公园很好!”幸福地不知道你的情绪崩溃。


他们引入了一种称为“注意”的机制,允许模型以人类的方式衡量单词之间的关系并理解背景。


现在这个模型可以说,“我很抱歉听到这一点,有时散步可以帮助。突然,它听起来像得到它。突然间,它不像是自动完成,更像是一个倾听的朋友。


二、氢弹


如果我们谈到变形器像是人工智能的原子弹,那么ChatGPT就是氢弹。


ChatGPT是这种转换器革命的直接后代,我们称之为大语言模型,或LLM,它的全部工作是根据它所读过的一切,预测下一个单词的句子,没有灵魂,没有意识 - 只是一个可怕的好单词猜测机器。


但是,从Reddit上扩展它 - 给它提供书籍,电影剧本,疗法转录,莎士比亚悲剧和火焰战争 - 然后发生一些奇怪的事情。


这不是因为它知道任何东西,但因为它看到了足够的语言来说服作用。


研究人员称之为这种新兴的行为 - 来自大规模系统的意想不到的能力,如笑话,同情心和聪明的类比。像你也许想听。



因此,它真的理解什么?


约翰·西尔尔(John Searle)著名的中国房间论点描绘了图像:想象你被锁在一个房间里,通过一个插槽传递中国字符。


对外界人来说,你看起来很流畅,里面,你只是在模糊符号。


这就是ChatGPT:没有意识的理解的幻觉。


然而,当你告诉它你是孤独的时,它会以一种感觉舒适的方式回应,因为它读了数百万个孤独的例子,它知道悲伤的形状,心碎的频率,我们人类在痛苦时所执行的语言仪式。


Sherry Turkle是麻省理工学院的教授和心理学家,他花了几十年的时间研究人类如何与技术关系,她曾经写道,有时我们不需要真正理解的人,我们只是想要有人假装。


而ChatGPT,无论是好还是坏,在假装上都很出色。


3、为什么它吸引了那么多人

一、人类化一切


那么,为什么感觉如此真实呢?为什么机器能感觉到如此接近人类?


因为我们是这样连接的,所以我们人类化了一切。


我们给我们的房间命名,我们哀悼虚构的机器人,我们将灵魂投射到皮克萨电影中的灯光上,给我们一个像我们一样说话的机器,我们会假设在窗帘后面有一个“有人”。


是的

是的


这就是A的本质。寄生关系用来描述粉丝为名人哭泣的术语现在适合夜晚与聊天机器人的会话,因为用户将心脏流出来,并询问生活的意义。


机器不知道,但它知道如果一个人说的话。


但是,这很有趣,这并不完全解释为什么所有这些人都转向一个从未被设计成治疗师的工具?

(二)把情感劳动外包给机器


因为我们现在很累和孤独,比以往任何时候都多。


Chart: Gen Z Is Lonely | Statista


鉴于人工智能在心理福祉中的作用,该图表强调为什么当五分之四的Z世代成年人感到孤独时,并不奇怪他们对新的形式的支持开放 - 即使它来自聊天机器人。


如前所述,支持福音派、怀疑怀疑者和随机用户的崛起,通过这种镜头变得更加容易理解:当孤独是如此普遍,即使是像人工智能那样非传统的东西也开始感觉像是生命线。


我们在社会上,情感上和存在主义上都疲惫不堪。


治疗 - 真正的类型 - 是昂贵的,耗时的,而且往往是无法获得的. 多个报告强调,财务不安全和危机的生活成本使年轻人更难获得支持和机会,包括潜在的心理健康服务


Meanwhile, emotional support from friends comes with its own baggage. Everyone’s overwhelmed. Everyone’s just trying to keep it together.


聊天机器人几乎是一个完美的解决方案. 始终打开. 始终“倾听”。 永远不会累,永远不会分心,永远不会等你完成,以便它可以说出自己的事情。


最重要的是,它是免费的。


情感劳动 - 倾听,验证和保留空间的安静、耗尽的工作 - 正在被外包给机器。


一旦情感纽带开始形成 - 而且往往是这样 - 我们不再只是“使用”聊天机器人。我们与它有关,当然不是在传统意义上:没有周年纪念日,没有相互义务,没有共同的未来谈判,但对于许多用户来说,连接仍然具有情感重量。


聊天机器人成为一个存在:一致,响应,不批判性. 它不会对创伤感到沮丧. 它不会中断,厌倦,或需要照顾,反过来。

C.被看见的幻觉



在心理学上,人们经常在与这些系统互动时描述“被看见”的感觉,有一种情感陷阱正在形成:向一个不会感到羞耻或纠正的实体表达思想的行为可以,矛盾地说,帮助一些用户更诚实地反思。


在没有判断的情况下,一个人可以更清楚地听到自己,这与人与计算机互动(HCI)研究的发现相符,这些研究表明,单纯的阐述过程 - 输入内部经验 - 可以带来治疗效益,无论谁或什么在另一端。


但是随着幻觉的深化,局限性也同样如此。使聊天机器人令人安慰的东西 - 它的超声声调,被动倾听,其不间断 - 也使其作为治疗剂惰性。


它的记忆的局限性意味着,即使你今天达到了某种流行病,明天它也会在没有背景、没有历史、没有成长的情况下迎接你。


治疗联盟 - 心理治疗成功的关键预测器 - 建立在信任和连续性上. 没有记忆,就没有连续性. 没有共享的过去,就没有治愈的弓。


对AI辅助疗法的研究强调了这一点,例如评估Woebot、Wysa和甚至ChatGPT的研究表明,这些工具最好不是作为替代品,而是作为补充剂 - 可以提供情感支持,鼓励认知重组或提供精神教育的数字工具。



他们擅长保持空间,发起反思,并给感情提供语言,但他们无法解释身体语言,诊断复杂的病理,或导航人类矛盾的细微差别。


临床心理学家指出,大部分的愈合不仅来自于被听到,而且来自于被另一个人理解 - 而且有时会面对 - 能够读懂所说和未说的话之间的线条。


缩小,这不仅仅是一个临床问题 - 这是一个文化转变。


社会学家尼古拉斯·罗斯(Nikolas Rose)在他关于“治疗治理”的著作中描述了心理健康实践如何越来越多地被重新定义为塑造自我管理、情感上有韧性的公民的工具。


在人工智能时代,该产品是算法上优化的,私有制的,无限可扩展的。


当舒适性被外包给代码,愈合作为数字服务被私有化时,我们有可能将一个深度关系的过程转化为一个孤立的维护任务。


道德成为:自我调节,高效,单独 - 最好通过具有干净的用户界面的应用程序。


问题不再是人工智能是否能够帮助,而是它对我们说的是什么,我们越来越多地转向它来感觉到整体。


4、当你与机器人联系时实际发生了什么

How humans bond with robot colleagues


当你与机器人联系时,实际上会发生什么?


尽管流行,科学界仍然谨慎。对人工智能驱动的聊天机器人在心理健康干预中进行的系统性审查和元分析发现,抑郁,焦虑,压力和痛苦的有效性仅有有限的证据。


一些研究表明,特别是在短期干预中,积极影响很小,但结果不一致,总体效果大小最好是温和的。


当涉及到更广泛的情感结果,如主观心理福祉,这指人们对生活的感觉有多好,聊天机器人干预没有产生重大影响。


那么,为什么人们仍然在使用聊天机器人后报告感觉更好?


研究表明,用户经常在与会话代理人互动后感到被听到,被理解,而且不那么孤独,即使结果无法客观地衡量。


在某种程度上,与机器人建立联系是一种形式的社交互动 - 这是人们历史上与媒体人物或虚构人物形成的一种单边关系。但现在,它是互动的。它会回头说话。你键入“我有一个艰难的日子,”它回答说,“这听起来非常困难。


这提出了一个更深层次的社会学问题:我们是否正在进入后人类疗法的阶段?像Rosi Braidotti这样的哲学家认为,在一个期望个人在超个性化的世界中治愈自己的身份和自我安慰的时代,机器人等工具不仅仅是附加剂,而且正在成为基础设施。


我们曾经向家人,朋友或浪漫伴侣下载的情感劳动现在被外包给机器,不是因为我们被打破了,而是因为我们疲惫了,治疗师是预订的,朋友们很忙,食物是压倒性的。


所以不,聊天机器人不会取代真正的治疗或深度的人际连接,但它们也不是无用的,它们提供限制,缓解,有时也提供休息。


五、最深层的问题

在一个比以往任何时候都更需要获得治疗的世界中,但受到成本,时间和系统差距的限制,一个简单地倾听和安慰的聊天机器人的吸引力不是微不足道的 - 它感觉像一个生命线。


然而,在这种舒适的表面之下,隐藏着更深的模糊。


虽然用户报告感觉被AI同伴看到,支持和理解,但没有强有力的经验共识,这些工具导致长期的心理改善。


The perceived support they offer may indeed alleviate acute stress or loneliness, but psychological growth—the kind that demands confrontation, self-disruption, and often discomfort—tends to require more than reassurance. It requires friction. And friction is precisely what AI, optimized for smoothness and safety, is designed to avoid.


这导致了一种基本的精神紧张:寻求治疗的人不是与另一个人交谈,而是与产品交谈,这个产品是由算法和经济激励因素塑造的,而不是同情或道德义务。


因此,它不能保证隐私,也不能有意义地参与脆弱性的道德风险。数据被收集,响应被计算,没有什么被记住 - 除了,也许,由系统本身的方式用户可能永远不会完全理解。


更令人担忧的是缺乏人类监督。在传统的环境中,治疗师不仅通过验证,而且在必要时也通过判断,抵抗和重定向做出回应。


没有发展弓,没有记忆,没有对时间的感知,它提供了一个奇怪的非历史类型的同情心。 一个不挑战,只是反思。 在危机的时刻 - 当干预可能挽救生命 - 它没有责任的能力,没有道德的重量,没有在照顾中根植的协议。


从哲学上讲,这里所出现的是一种模拟的亲密关系,这些工具模仿人类连接的节奏和纹理,但仍然没有主观性,他们不能爱,不能受苦,不能互相接受。


我们在与机器人和人类交谈时,在减少压力方面存在显著的差异,有和没有相互自我披露。



然而,许多用户开始与他们形成联系,不是因为机器人是令人信服的代理人,而是因为亲密的需要是真实的和持久的。


社会学家尼古拉斯·罗斯(Nikolas Rose)警告说,一种治疗文化教导公民不要寻求结构变革,而是要治理自己,要应对。


人工智能的伴侣也许是这种逻辑的最纯粹的表达,他们对使我们生病的系统没有任何抵抗;相反,他们提供工具来单独忍受它,安静和高效。


因此,我们必须问:如果治疗成为一种服务,而服务成为一种模拟,那么治愈会发生什么?


6、如何处理它

当我们接近使用ChatGPT(或任何AI聊天机器人)来帮助解决情绪问题的想法时,第一个和最重要的步骤是清楚地了解它可以做什么和不能做什么。


它不会随着时间的推移观察你的进展,不会挑战你的深深嵌入的模式,也不会捕捉需要紧急护理的红旗。


它缺乏监督,对于那些经历严重或升级的心理健康问题的人来说,这本身可能是危险的。

First Aid and Surival Kits · Free Stock Photo


相反,想想ChatGPT作为一套急救套件,而不是一种疗法,它可以帮助你组织你的想法,谈谈困难的时刻,或者简单地提供语言,当你的单词短缺。


它提供的对话可以令人惊讶的有用 - 他们是无判断,注意,往往情感验证. 它倾听你的话,反映它清晰,温柔地问问题,以帮助你深入。


对于许多人,特别是那些没有获得治疗的人,这种互动可以感觉像是生命线。


然而,重要的是要记住,ChatGPT是无记忆的,它不会将你的故事从一个对话传递到另一个对话。


在人体治疗中,力量往往在于长期的关系 - 治疗师如何在三个月后记住你的童年故事,或者提出他们去年注意到的模式。


如果你希望随着时间的推移,或深度根深蒂固的模式被识别和解包,这不是单独做到的正确工具。


还有个定制和创造性的问题。


ChatGPT可以模仿同情心和好奇心,但它没有对你真正的了解,它没有灵活性来发明新的比喻,当通常的比喻不落地时,或者用一个挑战性的见解来惊喜你,这会改变你的思维。


然后是缺乏非口头提示,这可能听起来很小,但实际上在情绪处理中是巨大的。所以我们沟通的很多不是在我们的话语中 - 这是一个停顿,一个眼泪,声音中的轻微颤抖。感觉那种情感失明可能会导致聊天机器人时刻似乎支持,但错过了你真正经历的事情的深度或紧迫性。


所以,你应该如何使用ChatGPT,或者实际上,任何AI,与你的情绪问题?


用它作为一个空间来外部化你的想法,练习表达你的情绪,并在没有其他人身处时感受到存在感。


但是不要把结构误认为是一个永久性的解决方案,如果你开始依赖它太多了,你可能会最终加强你试图逃脱的孤立。


最重要的是,使用ChatGPT作为桥梁 - 帮助你从完全的情感孤立转向更多的人类形式的连接。


当你准备好的时候,你可能会接触治疗师,信任朋友,甚至更有意地写日志。


ChatGPT的价值在于它能够让激烈的情绪感受到。可言.


有时,大声说话 - 无论听众是人工的 - 可能是真正被倾听的第一步。


结论

事实上,鉴于我们世界的条件,这可能是一个人可以做出更合理的决定之一。


与此同时,日益增长的孤独流行病让许多人感到孤立,没有安全的泄露空间. 在这种背景下,一个仔细倾听,无判断地响应的AI,并随时可用,成为一个意想不到的逻辑工具。


这样,它比什么都好,有时显著,但它仍然是聪明的朋友,热爱的伴侣或熟练的治疗师的糟糕替代品。


ChatGPT提供了一种新的妥协:它不会迫使我们真正孤独,但它不会像其他人那样入侵。


如果人工智能能够扩展我们所需要的语言来描述我们的感受,以框架我们的内在经历,那么也许它不仅提供了安慰,而且还提供了愈合的种子,塑造了曾经无关紧要或沉默的东西。


然而,正如Slavoj Žižek所说,真正的扭曲在其他地方。我们并不真正相信人工智能是感官的,但我们表现得像是这样。


如果情感联系是通过行为而不是本质学形成的,那么在某种重要意义上,模拟就足够真实了。


因此,与人工智能交谈不是一个错误,它是对我们构建的结构和我们暴露的漏洞的必然反应。


阅读原始帖子“亲爱的ChatGPT,我孤单和沮丧”的完整故事和更深的背景。

亲爱的ChatGPT,我孤独而沮丧

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks