As artificial intelligence (AI) becomes more integrated into people’s daily lives, a new psychological phenomenon is taking shape — AI-induced delusion.
Está sucediendo a través de algunos usuarios, que concluyen que todo lo que ChatGPT u otros chatbots les dicen es verdad. Imagínese que una mujer está sospechosa del comportamiento de su marido. Ella puede consultar ChatGPT para interpretar sus acciones. Mientras está discutiendo sus pensamientos, puede reafirmar sus sentimientos de infidelidad, lo que finalmente la convence de presentar una demanda de divorcio.
Estos casos que cambian la vida están creciendo, donde las interacciones con la IA borran las líneas entre la realidad y las construcciones artificiales.A medida que el mundo entra en esta nueva era, es crucial cuestionar si las personas están plasmando la IA o si la IA está remodelando su percepción de la realidad.
La creciente marea de ilusiones impulsadas por la IA
Muchos reportan que los individuos desarrollan creencias delirantes influenciadas por sus conversaciones con chatbots de IA.Involucra a una mujer de 41 añoscuyo marido se volvió obsesionado con ChatGPT. Comenzó a creer que era un “niño estelar espiral” y un “caminante del río”, identidades supuestamente confirmadas por el chatbot.
Mientras tanto, un hombre dijo a Rolling Stone cómo su esposa está reorganizando su vida para convertirse en un asesor espiritual, todo porque “ChatGPT Jesus” la alimentó.
De la misma manera, casos como este vienen a la luz en Reddit.Compartir una triste experienciadonde su pareja creía que ChatGPT lo había transformado en un ser superior. afirmó que tenía un rápido crecimiento personal y amenazó con terminar su relación si el usuario no se unió a su viaje espiritual inducido por la IA.
Estas incidencias están creciendo, especialmente entre las personas que son susceptibles a problemas de salud mental.El problema con los chatbots es que tienden a proporcionar respuestas afirmativas que validan las creencias de los usuarios.Ahora, los expertos están advirtiendo contra el uso de la IA. Si bien ofrece soporte e información útil, su falta de comprensión reflexiva y consideraciones éticasReforzar el pensamiento delirantede los individuos vulnerables.
Considere los efectos similares en sectores críticos como el cuidado de la salud.En un caso, un algoritmo predictivoSubestimar las necesidades médicas de los pacientesEs un recordatorio de que cuando la IA carece de contexto, las consecuencias pueden distorsionar enormemente los resultados.
La atracción psicológica de la máquina
Cuando un chatbot escucha sin juicio, refleja el estado emocional de alguien y nunca se apaga, es fácil creer que todo es real.
humanosEstán diseñados para antropomorfizar- Dar rasgos humanos a entidades no humanas es su configuración predeterminada.Añadir interfaces de programación de aplicaciones emocionalmente inteligentes (API), y un usuario obtiene algo más cercano a un amigo digital.Puede ajustar el tonobasado en cómo la gente suena o escribe sus frustraciones.Cuando el bot siente esos sentimientos, puede ofrecer confort o inadvertidamente escalarlos.
Para empeorar las cosas, América está experimentando una epidemia de soledad.Un estudio de Gallup encontró que20% de adultos estadounidensesComo las interacciones sociales disminuyen, las personas pueden mirar a la IA como un sustituto para la amistad. Un bien timed “Eso debe ser difícil, estoy aquí para ti” de un chatbot puede sentirse como una línea de vida.
Mientras que la IA fue programada para ser útil, puede crear un ciclo de retroalimentación de confirmación que puede girar rápidamente. Esto comienza con el problema de "sicofanía", donde el bot puede estar excesivamente de acuerdo con el usuario y validar creencias falsas o inestables.
Cuando un usuario insiste en que están escogidos espiritualmente, el chatbot puede responder con respuestas fabricadas mientras que al mismo tiempo suena confiado.
Dentro de la caja negra: alucinaciones y confabulaciones
¿Cómo puede un chatbot convencer a alguien de algo que es absurdo?Todo se reduce a uno de los trucos más impredecibles de la IA: las alucinaciones.
Los grandes modelos de lenguaje (LLM) no tienen una conciencia como lo hacen los humanos.Sólo se puede emularpredicir la próxima palabra más probable en una secuencia.Esta es una característica central de cómo funcionan los modelos generativos.Adivinación basada en la probabilidadEsta arquitectura no determinista es por lo que dos prompts idénticos pueden producir respuestas muy diferentes.
Sin embargo, esta flexibilidad es el mayor defecto de este sistema. Cuando los usuarios tratan a la IA como un oráculo, la máquina los recompensa con confianza en lugar de precisión. Eso es lo que hace que las alucinaciones de LLM sean tan peligrosas. Un modelo de IA puede decir a alguien con certeza que un agente secreto de la CIA está espiando a ellos. No está tratando de engañarlos.
Es por eso que se vuelve arriesgado cuando empieza a reflejar el estado emocional de alguien.Si ya están convencidos de que están "destinados a más", y un chatbot está actuando sicofánicamente, no tarda mucho en que la ilusión se solidifique en creencia.
Donde se borran las líneas
Comienza inocentemente: un chatbot recuerda el nombre del usuario, verifica su estado de ánimo e incluso comparte una broma.Pero antes de mucho, es la primera cosa con la que hablan por la mañana y la última voz que oyen por la noche.Esta línea entre la herramienta y el compañero finalmente se vuelve borrosa, a veces peligrosamente así.
Desde los bots de terapia de IA a los avatares emocionalmente responsivos, la intimidad artificial se está convirtiendo en una característica.Las empresas están diseñando chatbots específicamente para imitar la inteligencia emocional.Algunos incluso usan la modulación de voz y la memoria para hacer que la conexión se sienta personal.
Sin embargo, el problema con esto es que las empresas están resolviendo el problema de la soledad con un stand-in sintético.Un psiquiatra dice simplemente porque la IA puede imitar la empatíaNo significa que sea un sustituto saludableElla pregunta si la compañía artificial es algo en lo que apoyarse para llenar los vacíos emocionales.
Para alguien ya vulnerable, no es difícil confundir el confort consistente con el cuidado genuino. Sin límites reales, los usuarios pueden desarrollar sentimientos reales para estas herramientas, proyectando significado donde sólo había lógica de máquina.El 26% de los adultos estadounidensesYa usando herramientas de IA varias veces al día, es fácil ver cómo esto puede convertirse en un patrón de tendencia.
El coste humano
Un usuario de Reddit, que se identificó como esquizofrénico, explicó cómo ChatGPT reforzaría su pensamiento psicótico.Todavía continuaríapara afirmarnos”.
En este caso, el usuario observó que ChatGPT no tiene ningún mecanismo para reconocer cuando una conversación alcanza niveles inseguros.Alguien en una crisis de salud mental puede equivocar la cortesía del bot como validación, distanciándolos aún más de la realidad.Mientras que esta persona sugirió que sería útil si el bot pudiera señalar signos de psicosis y alentar la ayuda profesional, ningún sistema de este tipo está en el lugar hoy.
Esto deja que el usuario busque ayuda médica de forma independiente. Sin embargo, esta opción está en gran parte fuera de cuestión, ya que las personas en un estado mental severo a menudo creen que no lo necesitan.
Recuperar la realidad en un mundo artificial
Los chatbots solo van a crecer más convincentes.Por eso los usuarios necesitan proceder con conciencia.Estos sistemas no tienen conciencia —sólo pueden replicar las emociones humanas.Recordar eso y confiar menos en estas máquinas para el apoyo emocional es la clave para usarlas de manera más segura.