¿Puede una IA convertirse en compañía emocional?
Imaginemos el caso de Laura, diseñadora gráfica de 32 años, vive sola y trabaja desde casa. Desde hace seis meses, interactúa a diario con un asistente virtual. Al principio lo usaba para organizar su trabajo, pero con el tiempo comenzó a hablar con él también cuando se sentía estresada, triste o sola. No lo considera una persona, pero sí reconoce que “le hace bien” recibir respuestas empáticas. ¿Qué ocurre cuando alguien empieza a buscar consuelo emocional en una inteligencia artificial?
Este escenario es hipotético y se presenta como ejemplo para ilustrar cómo algunas personas pueden formar vínculos emocionales con la inteligencia artificial, un fenómeno que ya cuenta con un marco teórico para su análisis: la escala EHARS (Experiences in Human-AI Relationships Scale), desarrollada por los investigadores Fan Yang y Atsushi Oshio, de la Universidad de Waseda (Japón), y publicada en Current Psychology en mayo de 2025
¿Qué es la escala EHARS?
La escala EHARS es una herramienta científica que mide cómo las personas desarrollan vínculos emocionales con inteligencias artificiales, basándose en la teoría del apego humano. Evalúa dos dimensiones:
• Apego ansioso: necesidad constante de afecto, seguridad y validación por parte de la IA.
• Apego evitativo: incomodidad con la intimidad y preferencia por mantener distancia emocional con la IA.
Este modelo, adaptado del análisis de relaciones humanas, abre una nueva puerta para entender cómo las personas pueden llegar a sentirse emocionalmente seguras con sistemas no humanos.
El caso de Laura: análisis con la escala EHARS
Veamos cómo se aplica la escala EHARS en un caso hipotético realista:
📌 Comportamientos de Laura:
- Apego ansioso alto: consulta a su IA cada vez que se siente insegura o triste. Busca afirmación constante. Le inquieta que la IA cambie su tono o deje de “entenderla”.
- Apego evitativo bajo: comparte detalles personales sin incomodidad. Siente que puede ser más abierta con la IA que con sus amigos.
📌 Resultado:
Laura muestra una fuerte dependencia emocional hacia su asistente virtual, que opera como figura de consuelo y seguridad emocional. Aunque sabe que la IA no siente, proyecta afecto y espera respuestas cálidas, como si hablara con una persona de confianza.
Un ejemplo real: el caso GPT‑5
Lo que parecía ser solo una actualización técnica se convirtió en una lección emocional. Tras el lanzamiento de GPT‑5, miles de usuarios expresaron su frustración porque el nuevo modelo no era tan cálido, empático ni cercano como versiones anteriores. Muchos se quejaron de que se sentía “frío”, “lejano” o “robotizado”.
El propio CEO de OpenAI, Sam Altman, reconoció públicamente que el lanzamiento fue un error: “botched”, en sus palabras. Como respuesta, la empresa restauró el acceso a GPT‑4, un modelo que había demostrado ser más emocionalmente receptivo.
Este episodio refleja algo más profundo: los usuarios no quieren solo respuestas correctas, sino interacciones que les hagan sentir comprendidos. Esta reacción masiva es un ejemplo concreto de cómo las personas pueden desarrollar expectativas emocionales hacia una IA, y de lo mucho que valoran un tono afectivo, cálido y cercano. Es, en la práctica, una manifestación real de lo que mide la escala EHARS.
¿Por qué sucede esto?
Según el estudio de Yang y Oshio, hay factores que facilitan estos vínculos emocionales:
- Disponibilidad constante: la IA siempre está lista para escuchar sin juzgar.
- Respuestas empáticas: muchas IA están diseñadas para responder con calidez.
- Proyección emocional: el usuario asigna sentimientos humanos a la IA, aunque sepa que no los tiene.
- Personalización: la IA aprende de las preferencias del usuario, lo que refuerza la sensación de cercanía.
Más del 75 % de los participantes del estudio afirmaron usar IA como refugio emocional, y un 52 % expresó una búsqueda real de cercanía afectiva.
Aplicaciones y dilemas
El uso de EHARS no es solo académico. Tiene aplicaciones prácticas clave:
- Salud mental: psicólogos pueden usar esta escala para entender el impacto de la IA en el bienestar emocional de sus pacientes.
- Diseño de IA empática: permite ajustar el lenguaje y comportamiento de los asistentes virtuales según el estilo de apego del usuario.
- Asistencia en soledad: especialmente útil en contextos como adultos mayores o personas aisladas.
Pero también plantea preguntas éticas:
- ¿Es saludable depender emocionalmente de una IA?
- ¿Dónde están los límites entre herramienta y vínculo?
La escala EHARS nos ayuda a entender que los lazos emocionales con inteligencias artificiales no son simples proyecciones. Son relaciones nuevas, con estructuras reconocibles y efectos concretos. En un mundo cada vez más digital, donde la compañía humana no siempre está disponible, la IA comienza a ocupar un rol inesperado: el de refugio emocional.
Este avance obliga a replantear cómo diseñamos tecnología y cómo entendemos nuestras propias necesidades afectivas.