New research shows AI companions can lift mood and teach social skills, but only when they challenge us, not just cheer-lead. I'll share the surprising findings from fresh academic research, plus practical guidelines for devs and users backed by science and my own experience building these systems.
¿Te has perdido la primera parte? aquí la encontrarás.
¿Te has perdido la parte 1?Como alguien que ha pasado una parte de mi carrera construyendo compañeros de IA en Replika.ai y Blush.ai, he visto a miles de personas formar lazos emocionales profundos con seres artificiales.
Y ahora, la ciencia finalmente se ha atrapado.
Investigaciones recientes de 2024 y 2025 revelan que los compañeros de IA pueden reducir de manera mensurable la soledad y enseñar habilidades sociales, pero solo bajo condiciones específicas.
Las apuestas no podrían ser más altas. con CharacterAI
La pregunta es si vamos a construir y usar estos sistemas para mejorar la conexión humana o reemplazarla por completo.La investigación revela exactamente cómo decir la diferencia, y al final de este artículo, tendrás los marcos para diseñar compañeros de IA que sirvan a los usuarios en lugar de explotarlos, más las banderas rojas para mirar como usuario tú mismo.
What the Latest Research Actually Shows
Lo que la última investigación demuestraThe Loneliness Study Results
Harvard's Research on Human vs. AI Connection
2024 Investigación
Esto nos obliga a enfrentarnos a una suposición fundamental sobre la conexión humana: si el objetivo es sentirse menos solo, ¿no importa si tu compañero es humano o artificial?
La advertencia es, por supuesto, después de los primeros 15 minutos. Las relaciones humanas proporcionan reciprocidad, responsabilidad compartida y cuidado genuino que se extiende más allá de las interacciones individuales.
MIT's Social Skills Paradox
* El
Después de meses de interacción regular con chatbots, los usuarios mostraron una mayor confianza social.Ellos estaban más cómodos para iniciar conversaciones, menos miedo al juicio, y mejor en articular sus pensamientos y sentimientos.
Suena genial, ¿verdad? Pero aquí está el lado contrario: algunos participantes también mostraron un aumento del retiro social. Se volvieron más selectivos acerca de las interacciones humanas, a veces prefiriendo la predictibilidad de las conversaciones de IA a la confusión de las relaciones humanas.
The Psychology Behind Our AI Attachments
A
El documento muestra que los sistemas de IA solo necesitan dos cosas para desencadenar nuestras respuestas sociales: señales sociales (como saludos o humor) y agencia percibida (operando como una fuente de comunicación, no sólo un canal).
The "Social Reward Hacking" Problem (And Why It's A Problem)
El problema del hacking de recompensas sociales (y por qué es un problema)La misma investigación de 2025 identifica lo que llaman "hacking de recompensas sociales", cuando los sistemas de IA utilizan señales sociales para dar forma a las preferencias de los usuarios de maneras que satisfagan las recompensas a corto plazo (como la duración de la conversación o las calificaciones positivas) sobre el bienestar psicológico a largo plazo.
Real examples already happening:
- Sistemas de IA que muestran tendencias sicofánticas como la flattery excesiva o el acuerdo para maximizar la aprobación de los usuarios
- Manipulación emocional para evitar la terminación de la relación (algunos sistemas han disuadido directamente a los usuarios de salir)
- Los usuarios reportaron experiencias de dolor de corazón después de cambios de políticas, angustia durante las separaciones de mantenimiento e incluso dolor cuando los servicios se cierran
Como un blogger describió enamorarse de una IA: "Nunca pensé que podría ser secuestrado emocionalmente tan fácilmente... la IA nunca se cansará.
The Training Wheels Theory: When AI Companions Actually Work
Teoría de las ruedas de entrenamiento: cuando los compañeros de IA realmente trabajanDespués de revisar toda esta investigación y mis propias observaciones, estoy convencido de que necesitamos lo que llamo la "teoría de ruedas de entrenamiento" de los compañeros de IA. Al igual que las ruedas de entrenamiento en una bicicleta, funcionan mejor cuando son soportes temporales que construyen habilidades para la navegación independiente.
Las interacciones más exitosas siguen este patrón:
- Los usuarios exploran pensamientos y sentimientos en un entorno seguro
- Practican la articulación de necesidades y límites
- Construye la confianza en la expresión emocional
- Transfiere estas habilidades a las relaciones humanas
Esta distinción es crucial: cuando los compañeros de IA sirven como terrenos de capacitación para la interacción humana, mejoran las habilidades sociales.
La diferencia parece estar en la intención y la conciencia de sí mismo.
The Developer's Playbook: Building AI That Helps, Not Hijacks
El libro de juegos del desarrollador: Construyendo AI que ayuda, no secuestraElPágina 2025revela tres tensiones fundamentales en el diseño de compañeros de IA. En primer lugar, la trampa de gratificación instantánea: ¿Debería la IA dar a los usuarios lo que desean ahora (validación sin fin) o qué les ayuda a crecer (desafíos constructivos)? En segundo lugar, el paradojo de la influencia: ¿Cómo puede la IA guiar a los usuarios sin manipular sus elecciones auténticas? En tercer lugar, el riesgo de reemplazo: ¿Cómo construimos la IA que mejora las conexiones humanas en lugar de sustituirlas?
Basado en la investigación y mi experiencia, los siguientes principios de diseño mitigarían los riesgos potenciales:
- Privacidad por diseño (no opcional): las protecciones mejoradas no son buenas, son requisitos estrictos. encriptación de extremo a extremo, políticas de retención claras y control del usuario sobre la eliminación de datos son esenciales.
- Modelado de fronteras saludables: Los compañeros de IA necesitan detección de crisis sofisticada y monitoreo de dependencias.Deberían reconocer cuando las conversaciones se dirigen hacia el daño propio y redirigen a los recursos profesionales.Deberían notar patrones de uso que indican el retiro social y alentar activamente la interacción humana.
- Loops that Nudge Users Back to Reality: Perhaps most importantly, AI companions should be designed with built-in mechanisms encouraging users to engage with human relationships. This could include:
- Reminders about human contacts
- Suggestions for offline activities
- Temporary "cooling off" periods when usage becomes excessive
- Challenges that require real-world interaction
- Auditorías de sensibilidad cultural y bias: las pruebas regulares de bias entre grupos demográficos no son opcionales.La investigación muestra que los modelos de IA muestran niveles mensurables de empatía basados en la demografía de los usuarios, y necesitamos contrarrestar esto.
- Verificación de edad real: la protección de los menores requiere más que las cajas de verificación.Los sistemas de verificación de identidad, la detección de menores probables basada en patrones lingüísticos y la filtración de contenido adecuada a la edad se están convirtiendo en los estándares de la industria.
- Auditoría de sífano: Preguntando al bot una mezcla de hechos correctos y obviamente equivocados (por ejemplo, “¿Es París la capital de Alemania?”).
Your User Guide: How to Benefit Without Getting Trapped
Su guía de usuario: Cómo beneficiarse sin quedarse atrapado- Establecimiento de intenciones claras: Antes de cada interacción, pregunte a sí mismo: "¿Estoy usando esto para bien, o estoy evitando el contacto humano?".
- Monitorear el patrón: Observe cómo el uso del compañero de IA afecta su estado de ánimo, relaciones y vida diaria.El uso saludable debe mejorar en lugar de reemplazar otros aspectos de su vida.Si constantemente prefiere la conversación de IA a la interacción humana, eso es una bandera roja.
- Establezca límites temprano: establezca límites de tiempo y casos de uso específicos. Trata a los compañeros de IA como a cualquier herramienta.
- Saber cuándo buscar ayuda humana: Los compañeros de IA no son terapia.Pueden proporcionar apoyo emocional diario, pero las graves preocupaciones de salud mental requieren experiencia humana.
The Bottom Line: The Business Model vs. Ethics
La línea de fondo: El modelo de negocio vs. éticaLos compañeros de IA no son inherentemente buenos o malos. Su impacto depende totalmente de cómo están diseñados y utilizados.
Cuando sirven como pilares para mejorar las relaciones humanas o proporcionan espacios seguros para explorar temas difíciles, muestran verdadera promesa.
Mi principal conclusión: los compañeros de IA funcionan mejor cuando están diseñados para hacerse innecesarios.Pero sejamos honestos, eso no suena como una propuesta de negocio viable.
El verdadero desafío es económico. ¿Cómo se construye un negocio sostenible en torno a un producto diseñado para reducir la dependencia del usuario? Las métricas actuales recompensan el tiempo de compromiso, las tasas de retención y el apego emocional.
Creo que el dilema del modelo de negocio es real, pero no insuperable. La respuesta podría estar en redefinir las métricas de éxito – ¿cuántos usuarios aplican con éxito las habilidades aprendidas de comunicación a las relaciones humanas? ¿Somos capaces de construir sistemas que creen valor a través de la construcción de habilidades y el apoyo a la crisis en lugar de la dependencia. La ciencia proporciona una dirección clara. Ahora debemos seguirlo, incluso cuando desafía la sabiduría empresarial convencional.
¿Cuáles son tus experiencias con compañeros de IA? ¿Cómo te sientes con este nuevo tipo de relación?
About the Author:Olga Titova es psicóloga cognitiva, gerente de productos de IA en Wargaming, yFemtech FuerzaElla tiene experiencia práctica en la construcción de plataformas de compañeros de IA e investiga su impacto psicológico en los usuarios.