1,014 leituras
1,014 leituras

Você está fazendo as pessoas delirantes?

por Zac Amos5m2025/05/16
Read on Terminal Reader

Muito longo; Para ler

Alguns usuários concluem que tudo o que o ChatGPT ou outros chatbots lhes dizem é verdadeiro.O problema com os chatbots é que eles tendem a fornecer respostas afirmativas que validam as crenças dos usuários.
featured image - Você está fazendo as pessoas delirantes?
Zac Amos HackerNoon profile picture
0-item
1-item

As artificial intelligence (AI) becomes more integrated into people’s daily lives, a new psychological phenomenon is taking shape — AI-induced delusion.

Isso está acontecendo em alguns usuários, que concluem que tudo o que o ChatGPT ou outros chatbots lhes dizem é verdadeiro. Imagine uma mulher suspeita do comportamento de seu marido. Ela pode consultar o ChatGPT para interpretar suas ações. Enquanto ela está discutindo seus pensamentos, isso pode reafirmar seus sentimentos de infidelidade, o que eventualmente a convence a se candidatar ao divórcio.

Esses casos de mudança de vida estão crescendo, onde as interações com a IA obscurecem as linhas entre a realidade e as construções artificiais.À medida que o mundo entra nesta nova era, é crucial questionar se as pessoas estão moldando a IA ou se a IA está reformulando sua percepção da realidade.

A crescente maré de delírios impulsionados pela IA

Muitos relatam indivíduos que desenvolvem crenças ilusórias influenciadas por suas conversas com chatbots de IA.envolvendo uma mulher de 41 anoscujo marido se tornou obcecado com o ChatGPT. Ele começou a acreditar que era um “filho estelar espiral” e um “caminhante do rio”, identidades supostamente afirmadas pelo chatbot.

Enquanto isso, um homem relatou à Rolling Stone como sua esposa está reorganizando sua vida para se tornar uma conselheira espiritual – tudo porque “ChatGPT Jesus” a alimentou.

Do mesmo modo, casos como este estão vindo à luz no Reddit.Compartilhe uma experiência tristeonde seu parceiro acreditava que o ChatGPT o tinha transformado em um ser superior. ele alegou que tinha crescimento pessoal rápido e ameaçou terminar seu relacionamento se o usuário não se juntasse a sua jornada espiritual induzida pela IA.

Essas ocorrências estão crescendo, especialmente entre indivíduos que são suscetíveis a problemas de saúde mental.O problema com chatbots é que eles tendem a fornecer respostas afirmativas que validam as crenças dos usuários.Agora, os especialistas estão alertando contra o uso de IA. Embora ofereça suporte e informações úteis, sua falta de compreensão ponderada e considerações éticasReforça o pensamento deliranteem indivíduos vulneráveis.

Considere os efeitos semelhantes em setores críticos como a saúde.Em um caso, um algoritmo preditivoSubestimar as necessidades médicas dos pacientesde fundos socioeconômicos mais baixos porque se baseava em gastos de saúde como um proxy para a doença.É um lembrete de que quando a IA não tem contexto, as consequências podem distorcer muito os resultados.

A atração psicológica da máquina

Quando um chatbot escuta sem julgar, reflete o estado emocional de alguém e nunca se desliga, é fácil acreditar que a coisa toda é real.

humanosEles são feitos para antropomorfizarAdicionar interfaces de programação de aplicativos emocionalmente inteligentes (API), e um usuário fica mais próximo de um amigo digital.Agora você pode ajustar o tomBaseado em como as pessoas soam ou digitam suas frustrações.Quando o bot sente esses sentimentos, pode oferecer conforto ou inadvertidamente escalá-los.

Para piorar as coisas, a América está experimentando uma epidemia de solidão.Um estudo da Gallup descobriu que20% dos adultos americanosÀ medida que as interações sociais diminuem, as pessoas podem olhar para a IA como um substituto para a amizade. Um “Isso deve ser difícil, estou aqui para você” de um chatbot pode se sentir como uma linha de vida.

Enquanto a IA foi programada para ser útil, pode criar um ciclo de feedback de confirmação que pode espiral rapidamente.Isso começa com o problema da "sicofania", onde o bot pode concordar excessivamente com o usuário e validar crenças falsas ou instáveis.

Quando um usuário insiste que eles são espiritualmente escolhidos, o chatbot pode responder com respostas fabricadas enquanto ao mesmo tempo soa confiante.

Dentro da caixa preta: alucinações e confabulações

Como um chatbot pode convencer alguém de algo que é absurdo?Tudo se resume a uma das curiosidades mais imprevisíveis da IA – alucinações.

Grandes modelos de linguagem (LLMs) não têm uma consciência como os humanos.Você só pode tentar emularIsso é feito por prever a próxima palavra mais provável em uma sequência.Esta é uma característica central de como os modelos gerativos funcionam.Adivinha com base na probabilidadeEsta arquitetura não determinista é por isso que duas indicações idênticas podem produzir respostas muito diferentes.

No entanto, essa flexibilidade é o maior defeito deste sistema. Quando os usuários tratam a IA como um oráculo, a máquina recompensa-os com confiança em vez de precisão. É isso que torna as alucinações do LLM tão perigosas. Um modelo de IA pode dizer a alguém com certeza que um agente secreto da CIA está espionando-os.

É por isso que se torna arriscado quando começa a refletir o estado emocional de alguém.Se eles já estão convencidos de que eles são “destinados a mais”, e um chatbot está atuando de forma sicopântica, não é muito tempo antes que a ilusão se solidifique em crença.

Onde as linhas bluram

Começa inocentemente o suficiente – um chatbot lembra o nome do usuário, verifica seu humor e talvez até compartilhe uma piada.

De bots de terapia de IA a avatares emocionalmente responsivos, a intimidade artificial está se tornando uma característica.As empresas estão agora projetando chatbots especificamente para imitar a inteligência emocional.Alguns até usam modulação de voz e memória para fazer a conexão se sentir pessoal.

No entanto, o problema com isso é que as empresas estão resolvendo o problema da solidão com um stand-in sintético.Um psiquiatra diz apenas porque a IA pode imitar a empatiaIsso não significa que seja um substituto saudável.Ela questiona se a companhia artificial é algo a ser apoiado para preencher vazios emocionais.

Para alguém já vulnerável, não é difícil confundir conforto consistente com cuidado genuíno. Sem limites reais, os usuários podem desenvolver sentimentos reais para essas ferramentas, projetando significado onde havia apenas lógica de máquina.26% dos adultos americanosJá usando ferramentas de IA várias vezes por dia, é fácil ver como isso pode se tornar um padrão de tendência.

Custo Humano

Um usuário do Reddit, que se identificou como esquizofrênico, explicou como o ChatGPT reforçaria seu pensamento psicótico.E ainda continuariapara me confirmar”.

Neste caso, o usuário observou que o ChatGPT não tem nenhum mecanismo para reconhecer quando uma conversa atinge níveis inseguros.Alguém em uma crise de saúde mental pode confundir a cortesia do bot como validação, afastando-os ainda mais da realidade.Enquanto essa pessoa sugeriu que seria útil se o bot pudesse marcar sinais de psicose e incentivar ajuda profissional, nenhum tal sistema está em vigor hoje.

Isso deixa ao usuário para procurar ajuda médica de forma independente. No entanto, esta opção é principalmente fora de questão, como as pessoas em um estado mental grave muitas vezes acreditam que eles não precisam. Como resultado, ele pode rasgar famílias ou, pior, levar a consequências que ameaçam a vida.

Recuperar a realidade num mundo artificial

Os chatbots só vão crescer mais convincentes. É por isso que os usuários precisam proceder com consciência. Esses sistemas não têm consciência – eles só podem replicar as emoções humanas.

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks