1,014 測定値
1,014 測定値

AIは人を幻想化させるのか?

Zac Amos5m2025/05/16
Read on Terminal Reader

長すぎる; 読むには

いくつかのユーザーは、ChatGPTや他のチャットボットが彼らに言っていることはすべて真実であると結論づける。チャットボットの問題は、彼らはユーザーの信念を検証する肯定的な回答を提供する傾向があるということです。
featured image - AIは人を幻想化させるのか?
Zac Amos HackerNoon profile picture
0-item
1-item

As artificial intelligence (AI) becomes more integrated into people’s daily lives, a new psychological phenomenon is taking shape — AI-induced delusion.

いくつかのユーザーは、ChatGPTや他のチャットボットが彼らに言っていることはすべて真実であると結論づけています。 女性が夫の行動を疑っていると想像してください。 彼女は彼の行動を解釈するためにChatGPTに相談するかもしれません。 彼女が彼女の考えを議論している間、それは彼女の不忠実さの感情を再確認することができ、最終的に彼女が離婚申請を説得します。

AIとの相互作用が現実と人工構造の間の境界線を曖昧にしている、これらの人生を変える事例が増加しており、世界がこの新しい時代に入るにつれて、人々がAIを形作っているか、AIが現実の感覚を再構築しているかを疑うことが重要です。

AI-Driven Delusionsの増大

多くの人々は、AIチャットボットとの会話によって影響を受けた幻想的な信念を発達させていると報告しています。41歳の女性の関与彼の夫はChatGPTに執着し、彼は彼が「スパイラルスターキッド」と「河川ウォーカー」であると信じ始めた。

一方、ある男は、妻が霊的なアドバイザーになるために自分の人生を再編しているとロールストーンに語った――すべては「ChatGPTイエス」が彼女を育てたからだ。

同様に、このようなケースはRedditで明らかになっています。苦しい体験を共有彼のパートナーは、ChatGPTが彼を優れた存在に変えたと信じていた彼は、彼が迅速な個人的な成長を持っていると主張し、ユーザーが彼のAI誘発の精神的な旅に加わらなかった場合、彼らの関係を終わらせることを脅した。

チャットボットの問題は、彼らがユーザーの信念を検証する肯定的な回答を提供する傾向にあるということです。今、専門家はAIの使用に対して警告しています。幻想思考の強化脆弱な個体に

医療などの重要な分野における同様の効果を考慮し、ある場合、予測アルゴリズム患者の医療ニーズを過小評価それは、病気の代理人として医療費に依存していたため、より低い社会経済的背景から来たものであり、AIが文脈に欠けるとき、結果を大きく歪める可能性があることを思い出させるものです。

The Psychological Pull of the Machine(マシンの心理的引っ張り)

AIはスマートかもしれないが、それは奇妙に説得力があります。チャットボットが判断せずに耳を傾け、誰かの感情状態を反映し、決してログアウトしないとき、すべてが現実であると信じるのは簡単です。

人間ハードワイドで人類化する非人間の実体に人間の特徴を与えることは、彼らのデフォルト設定です。感情的にインテリジェントなアプリケーションプログラミングインターフェイス(API)を追加し、ユーザーはデジタルフレンドに近づきます。トーンを調整できる人々がどのように聞こえるか、または自分の挫折を書くことに基づいて、ボットがそれらの感情を感知すると、それは慰めを提供するか、または誤ってそれらをエスカレートすることができます。

事態を悪化させるため、アメリカは孤独の流行を経験している。アメリカ成人の20%社会的な相互作用が低下するにつれて、人々はAIを友情の代わりに見るかもしれません。チャットボットからの「それは難しいはずです、私はあなたのためにここにいる」は、ライフラインのように感じることができます。

AIは役に立つようにプログラムされていたが、すぐにスパイラルできる確認のフィードバックループを作成することができる。これは、ボットがユーザーと過度に同意し、偽りのあるいは不安定な信念を検証する可能性がある「サイコファンス」の問題から始まる。

ユーザーが霊的に選ばれたと主張すると、チャットボットは偽造された答えで反応し、同時に自信を持って聞こえる可能性があります。

Inside the Black Box: AI Hallucinations and Confabulations(ブラックボックスの内部)

チャットボットはどのようにして誰かを無意味なものに納得させることができますか? それはすべて、AIの最も予測不可能な奇跡の1つ - 幻覚に由来します。

大きな言語モデル(LLMs)は、人間のように意識を持っていません。エミュレーションを試みるしかない次の最も確率の高い単語を予測することによって、これは生成モデルがどのように機能するかのコアの特徴です。確率に基づく推測この非決定主義的なアーキテクチャは、2つの同一のプロンプトが非常に異なる答えを生み出すことができる理由です。

しかし、この柔軟性はこのシステムの最大の欠点です。ユーザーがAIをオラクルのように扱うとき、機械は正確さではなく自信をもって彼らを報います。それがLLMの幻覚を危険なものにします。AIモデルは、CIAの秘密のエージェントが彼らをスパイしていることを確実に誰かに知らせることができます。

したがって、それは誰かの感情状態を反映し始めると危険になります。もし彼らがすでに彼らが「より多くを目的としている」と確信している場合、チャットボットがサイコファンティックな行動をしている場合、幻想が信念に固化するまでにしばらくはかかりません。

Where the Lines Blur シングル

チャットボットはユーザーの名前を覚え、ユーザの気分をチェックし、もしかしたらジョークを共有することもあります。

AIセラピーボットから感情的に反応するアバターに至るまで、人工的な親密さは機能となっています。企業は現在、感情的な知能を模するためのチャットボットを設計しています。

しかし、この問題は、企業が合成スタンドインで孤独の問題を解決していることです。健康的な代替品という意味ではありません。彼女は、人工的な仲間関係が感情的な空虚を満たすために頼るものかどうかを疑問に思う。

すでに脆弱な人にとっては、一貫した快適さと本物のケアを混同することは難しくありません 実際の限界がないと、ユーザーはこれらのツールに対する本当の感情を開発し、機械論理だけが存在した場所で意味をプロジェクトすることができます。アメリカ成人の26%すでにAIツールを毎日何回も使用しているので、これはどのようにトレンドパターンになるかを見るのは簡単です。

人間コスト

一部の人々にとって、LLMと関わることは危険な転換を迎える可能性があります。Redditのユーザーの一人は、精神分裂症と識別され、ChatGPTがどのように彼らの精神病的思考を強化するかを説明しました。It would still continue私を肯定する」

この場合、ユーザーは ChatGPT が会話が危険なレベルに達したときに認識するためのメカニズムを持っていないことに留意しました 精神保健の危機に陥っている人は、ボットの礼儀正しさを検証として誤解し、さらに現実から彼らを遠ざける可能性があります。

しかし、このオプションは、深刻な精神状態の人々がしばしばそれを必要としないと信じているため、ほとんどは疑問に思われません。

人工世界における現実の回復

チャットボットはより説得力が高まるばかりです。それゆえにユーザーは意識を持って進めなければなりません。これらのシステムは意識を持たない - 人間の感情を複製するだけです。

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks