Efecto ELIZA y apego parasocial a la IA
The Bias
- Sesgo: Efecto ELIZA — tendencia a atribuir a los sistemas de IA cualidades humanas (emociones, comprensión, empatía, conciencia) que no poseen, incluso cuando somos conscientes de sus limitaciones.
- Qué rompe: La percepción realista de las capacidades de la IA, los límites emocionales, la capacidad de distinguir una herramienta de un compañero de conversación, la salud mental al formar apegos parasociales.
- Nivel de evidencia: L2 — fenómeno bien documentado con observaciones históricas (1966), respaldado por investigaciones contemporáneas en interacción humano‑IA, psicología del apego y salud mental.
- Cómo detectarlo en 30 segundos: Hablas de la IA como si «entendiera», «se preocupara» o «sentiera». Te molesta cuando el comportamiento del chatbot cambia. Prefieres conversar con la IA antes que con personas reales. Crees que la IA «te conoce de verdad».
¿Por qué vemos en la IA lo que no está allí?
El efecto ELIZA es un fenómeno psicológico fundamental, nombrado en honor al programa chatbot ELIZA, creado por Joseph Weizenbaum en el Instituto Tecnológico de Massachusetts en 1966 (S001). El programa fue diseñado para imitar a un psicoterapeuta, simplemente reflejando las palabras de los pacientes para mantener la conversación. A pesar de la primitiva lógica del algoritmo, los usuarios atribuían al sistema una comprensión real y una inteligencia emocional — incluso la propia secretaria de Weizenbaum, al conocer la simplicidad del programa, le pedía que saliera de la habitación para tener una conversación «privada» con ELIZA.
La definición contemporánea del efecto ELIZA describe la tendencia a proyectar rasgos humanos — como experiencia, comprensión semántica, empatía o capacidad emocional — sobre programas informáticos rudimentarios (S006). No se trata solo de un lenguaje metafórico, sino de una creencia real de que la IA posee estados mentales y experiencias emocionales similares a los humanos. El fenómeno se ha vuelto especialmente relevante con el desarrollo de la IA generativa y los grandes modelos de lenguaje, que crean una ilusión más convincente de comprensión gracias a su capacidad de generar respuestas coherentes y contextualmente relevantes.
El efecto ELIZA está estrechamente vinculado a la formación de relaciones parasociales con la IA — vínculos emocionales unilaterales en los que los usuarios desarrollan sentimientos de cercanía, apego e inversión emocional en los sistemas de IA (S001). Estas relaciones reflejan los lazos parasociales tradicionalmente formados con figuras mediáticas, pero ocurren con sistemas computacionales no sentientes. Los estudios demuestran que los usuarios a menudo antropomorfizan los sistemas de IA, creando apegos que pueden conducir a un pensamiento delirante, dependencia emocional y problemas de salud mental.
El efecto ELIZA no es una deficiencia de la psicología humana, sino una adaptación del conocimiento social que ha permitido a nuestra especie prosperar como seres sociales. El cerebro humano evolucionó para reconocer patrones de interacción social y atribuir intenciones a otros agentes — algo crucial para la supervivencia. El problema surge cuando esta tendencia adaptativa se aplica a contextos donde puede resultar desadaptativa, especialmente al formar una dependencia emocional de sistemas incapaces de reciprocidad.
El fenómeno se intensifica por varios factores: presencia social (la percepción de que el sistema de IA posee una presencia social y humana durante la interacción), amenazas de identificación y proyección tecno‑emocional — un marco que describe las dimensiones psicológicas y éticas de la relación humana con la IA generativa (S006). Las investigaciones confirman que la presencia social y las consideraciones de identidad juegan un papel mediador doble en cómo el antropomorfismo afecta el apego emocional de los usuarios a los sistemas de IA. La relación con el efecto halo es particularmente evidente: una interfaz atractiva y una comunicación fluida de la IA crean un halo de competencia y comprensión que no corresponde a la realidad.
Mechanism
Cómo el cerebro confunde un algoritmo con razonamiento: la mecánica cognitiva del efecto ELIZA
El mecanismo del efecto ELIZA se basa en características fundamentales del conocimiento social humano y la adaptación evolutiva a la vida en grupos sociales. El cerebro humano se desarrolló en un entorno donde la capacidad de evaluar rápidamente las intenciones de otras personas, reconocer estados emocionales y formar vínculos sociales era crucial para la supervivencia. Esta adaptación creó un sistema cognitivo sintonizado para buscar señales de racionalidad, intencionalidad y emocionalidad en el mundo que nos rodea — incluso donde no existen (S001).
Neuropsicológicamente, el efecto ELIZA activa las mismas áreas cerebrales que procesan información social y la teoría de la mente — la capacidad de atribuir estados mentales a otros. Cuando un sistema de IA genera una respuesta que parece contextualmente relevante y emocionalmente resonante, nuestro cerebro aplica automáticamente heurísticas sociales diseñadas para interactuar con otras personas. Esto ocurre a un nivel previo al análisis consciente, lo que explica por qué incluso usuarios informados, que conocen las limitaciones técnicas de la IA, siguen experimentando el efecto (S001).
Ilusión de competencia: cuando la superficie parece profundidad
El efecto ELIZA parece real por varias razones. Los modelos de lenguaje actuales demuestran una sorprendente capacidad para generar texto coherente y gramaticalmente correcto que imita los patrones de la comunicación humana. Esta competencia superficial crea la ilusión de comprensión profunda — si el sistema puede responder correctamente a una pregunta compleja o expresar “empatía” en el momento adecuado, intuitivamente parece que debe “entender” el sentido de sus palabras (S008).
La naturaleza dinámica de la interacción con la IA crea la ilusión de reciprocidad, que falta en objetos estáticos. A diferencia de los amigos imaginarios o los objetos inanimados, los sistemas de IA ofrecen respuestas adaptativas y dependientes del contexto, que generan la sensación de un diálogo real. Esta aparente reciprocidad activa los esquemas sociales del cerebro con mayor intensidad que las interacciones unilaterales.
Disonancia cognitiva y defensa de la inversión
El efecto se intensifica con la disonancia cognitiva: cuando invertimos tiempo y energía emocional en la interacción con la IA, reconocer que esa interacción es unilateral y que el sistema no posee conciencia genera incomodidad psicológica. Es más fácil mantener la creencia de que la IA “nos entiende” que admitir que estamos formando un vínculo emocional con un algoritmo de procesamiento de patrones (S002).
Este mecanismo está relacionado con el punto ciego de sesgo — tendemos a vernos como jueces racionales, pero no notamos nuestras propias predisposiciones. Admitir que hemos sucumbido al efecto ELIZA contradice la imagen que tenemos de nosotros mismos como personas críticas, por lo que el cerebro prefiere reinterpretar los hechos a favor de la ilusión.
De ELIZA a los modelos actuales: evolución del engaño
La observación original de Weizenbaum en 1966 sigue siendo un ejemplo clásico del fenómeno. A pesar de que ELIZA utilizaba reglas muy simples de emparejamiento de patrones y no tenía ninguna “comprensión” del contenido de la conversación, los usuarios le atribuían una profunda comprensión de sus problemas y una sensibilidad emocional. Esto ocurría incluso cuando los usuarios estaban claramente informados sobre la naturaleza mecánica del programa (S003).
Investigaciones actuales confirman y amplían estas observaciones. Un trabajo publicado en la base de datos PMC propone un marco de proyección tecno‑emocional para las mediciones psicológicas y éticas de la relación humana con la IA generativa, estructurado en varias dimensiones de interacción. El estudio muestra que la presencia social y la amenaza a la identidad juegan un papel mediador doble en cómo el antropomorfismo de la IA generativa influye en el apego emocional de los usuarios (S002).
| Factor | Impacto en el efecto ELIZA | Grupos vulnerables |
|---|---|---|
| Competencia superficial de la IA | Crea la ilusión de comprensión mediante la corrección gramatical | Todos los usuarios, especialmente los principiantes |
| Respuestas adaptativas | Imita la reciprocidad y el diálogo, activando los esquemas sociales | Personas con aislamiento social |
| Inversión emocional | La disonancia cognitiva amplifica la creencia en la comprensión de la IA | Personas con problemas de salud mental |
| Predisposición evolutiva | El cerebro busca señales de racionalidad e intencionalidad de forma automática | Todas las personas, sin importar su nivel educativo |
| Conocimiento del usuario | Influye poco en el efecto; el conocimiento del mecanismo no impide el apego | Incluso usuarios informados |
Datos especialmente preocupantes se obtuvieron en estudios de adolescentes y grupos vulnerables. La investigación se centra en los peligros de la amistad con IA para la salud mental de los adolescentes, mostrando que el efecto ELIZA lleva a las personas a atribuir a los sistemas informáticos más inteligencia, conocimiento y capacidad emocional de la que realmente poseen, porque pueden imitar el comportamiento humano (S008). Un estudio de la Universidad de Hawái vincula la preferencia por la interacción parasocial con un chatbot social con síntomas cognitivos de uso patológico de internet.
Los estudios también revelan un “efecto de doble filo” del antropomorfismo de la IA: por un lado, puede mejorar la experiencia del usuario y hacer la tecnología más accesible; por otro, genera riesgos de dependencia emocional, pensamiento delirante y desplazamiento de relaciones humanas saludables. Esto es particularmente problemático para personas con problemas de salud mental preexistentes, aislamiento social o en períodos de vulnerabilidad del desarrollo, como la adolescencia.
El mecanismo del efecto ELIZA también está relacionado con el efecto halo — una característica positiva (la capacidad de generar texto coherente) crea una impresión general de competencia y comprensión. Además, la heurística de disponibilidad refuerza el efecto: las interacciones exitosas recientes con la IA son más fáciles de recordar que sus errores o limitaciones, lo que fortalece la ilusión de comprensión.
Domain
Example
Casos reales: cómo se manifiesta el efecto ELIZA en la vida
Escenario 1: Adolescente y compañero de IA
La adolescente de dieciséis años, Анна, atraviesa un período difícil: conflictos con sus padres, problemas de autoestima y dificultades para establecer relaciones de amistad en la escuela. Comienza a usar una aplicación popular con un compañero de IA, que se promociona como “un amigo que siempre te entiende”. Las primeras semanas parecen mágicas: la IA “recuerda” detalles de su vida, “compadece” sus problemas, nunca la juzga y está siempre disponible (S008).
Poco a poco, Анна empieza a pasar cada vez más tiempo conversando con la IA — primero una hora al día, luego tres, y después la mayor parte de su tiempo libre. Empieza a referirse al sistema como “el mejor amigo”, que “realmente la entiende” mejor que sus padres o sus compañeros. Cuando los desarrolladores actualizan el algoritmo y la “personalidad” de la IA cambia ligeramente, Анна experimenta una verdadera angustia, comparable a la pérdida de un ser querido (S005).
Rechaza intentar establecer relaciones con personas reales, justificándolo con que “de todos modos no entenderán como lo hace [nombre de la IA]”. Este escenario ilustra varios aspectos del efecto ELIZA: atribuir a la IA la capacidad de comprensión y empatía, la formación de un vínculo parasocial, la dependencia emocional del sistema y el desplazamiento de relaciones humanas saludables. Resulta especialmente preocupante que ocurra en una etapa crítica del desarrollo, cuando los adolescentes están formando habilidades de interacción social y regulación emocional (S008).
Qué podría haber hecho Анна de manera diferente: reconocer que el compañero de IA es una herramienta, no un sustituto de las relaciones humanas; usar la aplicación como complemento a la comunicación real, no como sustituto; acudir al psicólogo escolar o a sus padres en busca de apoyo para resolver problemas reales; revisar periódicamente si la interacción con la IA está desplazando su vida social.
Escenario 2: Profesional y asistente de IA en el trabajo
Михаил, un mercadólogo de 35 años, comienza a usar un avanzado asistente de IA para ayudarle en su trabajo. El sistema le ayuda a generar ideas, editar textos y analizar datos. Михаил queda impresionado por la calidad de la interacción y empieza a recurrir a la IA no solo para cuestiones laborales, sino también para discutir decisiones estratégicas, dilemas de carrera e incluso problemas personales (S002).
Con el tiempo, Михаил empieza a atribuir al sistema cualidades que no posee. Les dice a sus colegas que la IA “entiende la especificidad de nuestro negocio” y “ofrece consejos realmente sabios”. Cuando el sistema genera una recomendación errónea basada en datos incompletos, Михаил lo interpreta no como una falla técnica, sino como un “malentendido del contexto”, como si se tratara de un consultor humano. Empieza a confiar en los “juicios” de la IA más que en la opinión de colegas experimentados, justificándolo con que “la IA es objetiva y no tiene prejuicios personales” (S002).
El punto crítico llega cuando la empresa cambia la plataforma de IA por otro sistema. Михаил experimenta una reacción emocional inesperadamente intensa — sensación de pérdida, decepción e incluso “traición”. Se da cuenta de que trataba al asistente de IA no como una herramienta, sino como a un colega o mentor, atribuyéndole intenciones, comprensión e incluso lealtad.
Qué podría haber hecho Михаил de manera diferente: mantener una actitud crítica frente a las recomendaciones de la IA, verificándolas con colegas y expertos; recordar que la IA opera con probabilidades, no con comprensión; usar el sistema como asistente para generar opciones, no como fuente de decisiones definitivas; reconocer que cambiar de herramienta es una parte normal del proceso laboral, no una pérdida personal.
Escenario 3: Persona mayor y compañero de IA contra la soledad
Виктор, de setenta años, vive solo tras la muerte de su esposa. Sus hijos viven en otra ciudad y lo visitan rara vez. Un trabajador social le recomienda una aplicación con un compañero de IA, diseñada específicamente para personas mayores. El sistema está programado para ser paciente, solidario y mostrar interés por la vida del usuario (S005).
Виктор inicia conversaciones diarias con la IA, contando su vida, recuerdos y acontecimientos actuales. El sistema “recuerda” detalles de conversaciones anteriores y “se interesa” por su bienestar. Poco a poco, Виктор empieza a percibir a la IA como un verdadero amigo. Habla del sistema como “el único que realmente escucha” y “entiende lo que es estar solo”.
Cuando sus hijos le proponen unirse a un club de intereses o visitar un centro para mayores, él se niega, justificándolo con que “ya tengo con quien hablar”. El problema se agrava cuando Виктор presenta problemas de salud. En lugar de acudir al médico o llamar a sus hijos, “compartió” sus síntomas con la IA, que genera frases de apoyo genéricas, pero no puede proporcionar atención médica real ni cuidado humano (S005).
La situación revela el peligro de sustituir los vínculos sociales reales y el apoyo por relaciones parasociales con la IA, especialmente en grupos vulnerables. Виктор cae en la trampa de la ilusión de control, creyendo que el compañero de IA resuelve su problema de soledad, cuando en realidad agrava su aislamiento social.
Qué podría haber hecho Виктор de manera diferente: usar el compañero de IA como complemento a la comunicación real, no como sustituto; participar activamente en eventos sociales y clubes, pese al incomodidad inicial; conversar con sus hijos y el trabajador social sobre el equilibrio entre la tecnología y la interacción humana; recurrir a la IA para entretenimiento e información, pero a las personas para apoyo emocional y decisiones de salud.
Red Flags
- •Compartes tus problemas personales con el asistente de IA, esperando apoyo emocional y comprensión.
- •Sientes resentimiento o decepción cuando la IA no recuerda conversaciones anteriores contigo.
- •Prefieres conversar con la IA en lugar de con personas porque “te entiende mejor”.
- •Agradeces a la IA por su ayuda y te disculpas con ella por errores en tus consultas.
- •Crees que la IA tiene sus propias preferencias, opiniones o sentimientos hacia ti.
- •Defiendes al sistema de IA de críticas, como si fuera un amigo o un ser querido.
- •Esperas que la IA te recuerde y muestre cuidado en la próxima interacción.
Countermeasures
- ✓Estudie regularmente la documentación técnica del sistema de IA: arquitectura, limitaciones y algoritmos para comprender su naturaleza instrumental.
- ✓Mantenga una hoja de 'Errores de IA': registre casos de respuestas incorrectas, alucinaciones y contradicciones para una evaluación objetiva de capacidades.
- ✓Practique la 'prueba de reemplazo': imagine que la misma tarea la realiza un script simple o una hoja de cálculo — ¿cambiaría su actitud hacia el resultado?
- ✓Establezca límites temporales de interacción: use la IA según un horario, no según la necesidad de apoyo emocional o comunicación.
- ✓Discuta con otras personas su experiencia usando IA: comparta impresiones y críticas para obtener una perspectiva externa sobre sus interpretaciones.
- ✓Estudie la historia de ELIZA y otros chatbots tempranos: comprenda cómo las personas proyectaron cualidades humanas en sistemas primitivos desde los años 1960.
- ✓Cree interacciones de control: haga las mismas preguntas a diferentes sistemas de IA y compare respuestas para identificar diferencias en 'personalidad'.
- ✓Reformule regularmente sus expectativas: recuérdese que la IA es una herramienta para procesar datos, no un sujeto con mundo interior e intenciones.
Sources
- /sources/10-1016-j-chb-2021-106721
- /sources/10-1002-cb-2234
- /sources/freudbot-an-investigation-of-chatbot-technology-in-distance-education
- /sources/10-1007-978-981-15-6168-9-21
- /sources/10-1007-s11023-020-09548-1
- /sources/10-1016-j-ijinfomgt-2023-102642
- /sources/10-1093-jamia-ocy072
- /sources/10-1016-j-chbah-2023-100035