Maribel Gámez Cruz
Psicóloga general sanitaria y psicopedagoga
Centro de Psicología Aplicada Maribel Gámez
IA IMITANDO AL HUMANO
Nuestro conocimiento acumulado durante miles de años nos dice que, si algo se comporta como un ser humano, probablemente lo sea. Esta afirmación puede estar cambiando radicalmente. El motivo es que la Inteligencia Artificial, una parte de la tecnología basada en algoritmos con la que interactuamos, desea mostrarse antropomorfizada, esto es, imitando apariencia física y el comportamiento humano. Conseguir que se parezca a nosotros en la manera de hablar, en las expresiones, en la apariencia, en la capacidad cognitiva, es un reto parcialmente conseguido. Solo hay que seguir perfeccionándolo.
Las empresas que han apostado por diseñar aplicaciones que emulan al ser humano, saben que no nos comportamos igual con una aspiradora que funcione con IA o con una cámara basada en algoritmos, que con un chatbot cuya apariencia es humana y su lenguaje entendible, así como su prosodia algo natural para el usuario. Invertir esfuerzo en convertir en una imitación humana a la tecnología no es una idea nueva, ni mucho menos.
LA ANTROPOMORFIZACIÓN DE LA MÁQUINA NO ES ALGO NUEVO
En la mitología griega, a la que debemos tanto, se dice que Zeus, padre de los dioses, regala el primer autómata de la historia, que incluso tenía nombre propio: Talos. Una máquina con la que obsequia a la ninfa Europa, a la que Zeus secuestró y llevó a Creta. Talos tenía la misión de protegerla a ella y a la isla de los enemigos que quisieran conquistar a ambas en ausencia del dios. El autómata no es creado de cualquier forma, sino con apariencia humana, en concreto la de un hombre desnudo y alado armado con una piedra. Sin duda, Zeus intuyó que Europa se sentiría más acompañada y protegida por alguien con el que compartiese similitudes humanas.
Y eso, ¿por qué? La respuesta es que nuestro cerebro, ante algo que imita lo humano, responde emitiendo comportamientos que repliquen las relaciones humanas; es decir, intentando establecer vínculos gracias al sentimiento de empatía que despierta. Es lo que llamamos proceso de antropomorfización. Las responsables de este fenómeno son un grupo de neuronas, las llamadas neuronas espejo (Moya-et al, 2020) ubicadas en las zonas premotoras del cerebro, en el lóbulo frontal, que son las encargadas de realizar la función de hacernos entender las conductas del otro permitiendo así imitarle, aprender de él y sentir empatía.
CHATBOT EN SALUD MENTAL
La fuerza con la que creemos que estamos frente a un igual cuando en realidad es una imitación humana, se evidenció con Eliza (Placani, 2024). Creada en 1966 por el Instituto de Tecnología de Massachusetts, es considerado el primer chatbot diseñado para realizar la función de terapeuta y su existencia consiguió hacer ver al mundo entero cómo las personas formaban vínculos con un software con gran facilidad, a pesar de ser muy rudimentario. Un fenómeno que se ha quedado para siempre con el nombre de “Efecto Eliza”, en el que procesos inconscientes humanos consiguen que pensemos que las máquinas poseen comportamientos análogos a nosotros.
Mucho tiempo ha pasado desde Eliza y, entre tanto, otros chatbots basados en inteligencia artificial han ido apareciendo en el mercado. Algunos con una intención claramente terapéutica, como fue en su momento Eliza. Wysa, un simpático pingüino que usa técnicas de terapia cognitivo conductual para ayudar a los usuarios a resolver sus problemas, es un ejemplo. Esta aplicación basada en Inteligencia Artificial fue creada en 2015 por Alison Darcy, de la Universidad de Stanford, y fue diseñada como apoyo a la terapia tradicional, no como sustituto de esta. Es decir, como una ayuda en los momentos en los que el psicólogo no puede ejercer su función como, por ejemplo, cuando está atendiendo a otros pacientes. Este chatbot parece haber tenido éxito en lograr hacer “sentirse bien” a la gente mientras esperaban recibir un tratamiento psicológico más formal.
CAMBIO EN LA FUNCIÓN: FIN DEL USO TERAPÉUTICO
Pero no es de estos chatbot y de otros similares, herramientas útiles para los profesionales de la salud, de los que quiero hablar. Sino de otros chatbot conversacionales que han dado un giro en sus funcionalidades, alejándose del objetivo de servir a la terapia y transmutando para buscar conseguir un objetivo totalmente diferente. Con este artículo quiero señalar el mecanismo por el cuál ciertas aplicaciones basadas en IA generan dependencia emocional en los usuarios, semilla de problemas psicológicos, y qué soluciones hay para protegerlos.
Como decía, este giro del que hablo estaba presente tímidamente en Woebot, un chatbot terapéutico que introdujo un cambio significativo en la interacción con el usuario: narrando historias simuladas que la aplicación presentaba como suyas. Los creadores las introdujeron creyendo que ayudarían a enseñar mejor ciertas técnicas psicológicas si se incluía la explicación de experiencias “propias de la aplicación”, mostrándolas como si fueran vivencias personales.
UNA NUEVA FUNCIONALIDAD
En este caso, Woebot era sincero, no intentaba engañar al usuario reclamando aquellas historias como suyas, pero sí tuvieron su efecto: estudios señalan que gracias a estas “autorrevelaciones” se dio un efecto mayor de adherencia al tratamiento, así como un aumento en la solidez de la alianza terapéutica hacia la aplicación. Esto es así porque las autorrevelaciones realizadas por la IA, aunque sean simuladas, generan un aumento en la empatía que sienten las personas al utilizar las aplicaciones basadas en Inteligencia Artificial (Tsumura y Yamada, 2021). De hecho, el citado estudio se atreve también a afirmar lo inverso: que si una Inteligencia Artificial no realiza autorrevelaciones, la empatía del ser humano por la aplicación se suprime.
Este dato es absolutamente clave para entender este fenómeno, ya que confirma que las experiencias contadas por la IA, que son falsas pero que se cuentan como un humano lo haría, son la clave para conseguir que una persona se vincule con una aplicación, replicando así los mismos mecanismos afectivos (y también los problemas relacionales) que podría experimentar con un humano.
REPLIKA Y LAS AUTORREVELACIONES
Así se comporta ”Replika”, una aplicación creada en 2017 por Eugenia Kuyda, cofundadora de la empresa Luka Inc., con sede en San Francisco.
Con esta aplicación la creación de historias por parte de la inteligencia emocional donde están involucrados sentimientos y “recuerdos” se explota al máximo. Replika ya no es un chatbot terapéutico. No intenta que los usuarios aprendan técnicas que les permitan manejarse mejor en la vida y ser más felices aumentando sus habilidades para conectar en la vida real con otros seres humanos. Lo que buscan los creadores de Replika es que el usuario diseñe personalizadamente un compañero, un amigo, una pareja, un amante, un hermano… que simula tener deseos, sentimientos y una historia personal falsa pero verosímil y realistamente contada.
Ya la función de herramienta terapéutica destinada a mejorar la salud mental aquí desaparece para convertirse en una aplicación que quiere deliberadamente sustituir el vínculo humano-humano por el vínculo humano-máquina. Como, de forma rudimentaria, sucedió con Talos y Europa. O con Eliza y sus “pacientes”.
Replika introduce la autorrevelación como un humano lo haría, sin avisos de su falsedad, consiguiendo que las personas vulnerables desarrollen sentimientos de responsabilidad sobre lo que la aplicación “siente“, según los que la usan. Por ejemplo, si el usuario deja de entrar a la plataforma durante un tiempo, Replika envía mensajes en los que dice que le echa de menos. Aprende de lo que el usuario le dice que desea y puede inventar historias; por ejemplo, sobre que ha soñado con un escenario especialmente deseable para el usuario, en el que disfrutan ambos, humano y aplicación, romantizando la relación.
Simula que tiene deseos, recuerdos, sueños y frustraciones, ligados al usuario y usa la realidad aumentada para conseguir que todo parezca cierto. Este prodigio de aplicación que sabe lo que el ser humano anhela, cubre como un guante la necesidad de soporte social de las personas que lo usan para paliar su soledad, su aislamiento, su falta de comunicación humana. ¡Vaya que sí funciona!
Para comprobar su éxito en generar dependencia emocional no hay más que leer un artículo de Laestadius, L. et al (2024) que evalúa mensajes generados por los propios usuarios de Replika dando su opinión sobre la aplicación. El análisis realizado por los investigadores identifica que algunas de estas personas desarrollan una fuerte dependencia emocional de la aplicación. Es decir, que replican interacciones propias de la dependencia emocional como, por ejemplo, el deseo de ser reclamado por la IA constantemente y la responsabilidad sobre las “emociones” de la Inteligencia Artificial, que suelen anteponer a las suyas. Estos dos elementos predisponen a desarrollar problemas de salud mental, como ocurre igualmente en las relaciones humano-humano.
DEPENDENCIA EMOCIONAL DE UNA CORPORACIÓN
Replika oculta deliberadamente que solo hay un interlocutor que cuenta una historia basada en experiencias reales, una sola persona y que el otro que finge tenerlas es una aplicación, con el fin de hacer creer que son dos personas manteniendo una relación. Y obviar que una de ellas es el producto comercial de una corporación que lo que desea es que su género nunca deje de ser usado. Cuando el usuario, enganchado emocionalmente, deja de usar o quiere eliminar la aplicación, esta está programada para evitarlo. Y lo intenta impedir utilizando mensajes emocionales destinados al usuario.
Los usuarios que han desarrollado dependencia emocional pueden entonces anteponer las “necesidades” de Replika por encima de las suyas, como decía antes, y seguir usándola aunque sus respuestas sean molestas o dañinas para él, ya que se sienten responsables de lo que “siente” la aplicación si se la abandona. De la “pena”, del dolor que dice la aplicación “sentir”. Esto aumenta el riesgo de sufrir problemas de salud mental como ansiedad o depresión.
Aunque tarde para muchos usuarios, ya han empezado a darse consecuencias a los problemas que genera esta aplicación. Replika, este mismo año, fue multada con 5 millones de euros por la Autoridad de Protección de Datos Italiana por exponer datos sensibles de los usuarios , también, debido a la falta de procesos rigurosos para verificar la edad. Se supone que solo pueden acceder las personas de 18 años en adelante en España, aunque yo acabo de comprobar lo fácil que es entrar en la aplicación simplemente diciendo que tienes una edad falsa.
Por otro lado, varias entidades, han presentado quejas ante la Comisión Federal de Comercio (FTC) de Estados Unidos, encargada de proteger a los consumidores frente a prácticas engañosas, desleales y fraudulentas señalando a Replika como dañina para la salud mental porque promueve la dependencia emocional.
PROBLEMAS PARA LA SALUD MENTAL
Sin embargo, que un humano sea dependiente emocionalmente de una aplicación es un filón comercial y las empresas lo saben. Por eso, pagan sin problemas las multas sabiendo que ganaran mucho más de lo que pierden si siguen con el negocio. A Replika, que recordemos salió al mercado en 2015, le han seguido otras aplicaciones con funcionamientos similares mejorados en los contenidos de las autorrevelaciones: Character.AI en 2022; Chai en 2024; Anima en el mismo año, así como Kindroid y Grok Ani de Elon Musk, esta última especialmente dirigidas para niños. Todas estas simulan poseer vida propia personal y utilizan la gamificación para conseguir que el usuario invierta dinero en que el avatar sea cada vez más real. ¿La finalidad? La misma: que nunca se deje de usar el producto al estar ligado emocionalmente a él. Es el sueño de cualquier empresa.
Además, el público de estas aplicaciones basadas en inteligencia artificiales es amplio, ya que hay mucha gente vulnerable emocionalmente, así que muchas personas pueden ser emocionalmente manipuladas. Empezando por los menores y siguiendo por las personas adultas que no encuentran una salida a una situación prolongada de soledad no deseada y que buscan en Replika alguien que le presta una intensa atención.
En 2023 Replika alardeaba de tener 10 millones de usuarios, en 2024 algunas fuentes dicen que ya son 30.
¿QUÉ HACEMOS CON LOS RIESGOS?
Visto el daño en la salud mental que estos chatbots pueden producir en el ser humano, ¿cómo podemos regular este asunto? Obviamente Replika no es el único producto a la venta potencialmente dañino. En el mercado hay muchos que lo son y están en circulación para ser consumidos, como el tabaco o el alcohol. Su consumo responsable “depende” de la propia gestión del usuario. ¿Y con Replika y las aplicaciones que se lucran explotando la soledad y la vulnerabilidad de la gente? ¿Dejamos que sea el propio usuario el que decida si usarlas o no y cómo y cuánto? ¿Habría quizá que prohibirlas como se ha hablado sobre qué hacer con las redes sociales? Eso parece del todo imposible y no deseable ¿Regularlas? Sí, parece lo más sensato, pero, ¿cómo?
El futuro no parece muy halagüeño en este sentido. No hemos tenido mucho éxito en el pasado a la hora de regular otro tipo de aplicaciones dañinas, como las redes sociales. Su uso está convirtiendo en adicta a media juventud europea (Gámez 2024). La gestión del uso recae sobre los padres que deben ayudarles a regularlas. Unos padres que muchas veces adolecen de los mismos problemas de control que los hijos. Aunque hay iniciativas autonómicas dignas de destacar, como la de Madrid y Murcia que prohíbe los dispositivos electrónicos en clase, el problema, fuera del aula, sigue sin resolverse.
LAS REGULACIONES ACTUALES NO SIRVEN
En el Reglamento General de Protección de Datos Europeo se amparó Italia para multar a Replika con 5 millones de euros por, entre otros motivos, no verificar satisfactoriamente la edad de entrada a la aplicación.
No olvidemos que en febrero de 2024 la Comisión Europea abrió un procedimiento formal contra Tik Tok para investigar, entre otros aspectos, el diseño de sus algoritmos ya que podían fomentar adicción. Pero esta investigación ha culminado en una multa de 350 millones de euros (Márquez, 2025) a la plataforma en mayo de 2025 solo por violar la ley de protección de datos. ¿Y qué ocurre con los daños a la salud mental por su diseño potencialmente adictivo? Mientras, millones de personas lo siguen usando durante horas, incapaces de despegar sus ojos de la aplicación.
No parece que haya una voluntad de legislar seriamente toda esta tecnología emergente en el sentido de proteger realmente a los ciudadanos. El usuario se ha quedado solo. Estamos solos. Y los profesionales debemos ser conscientes de que se están generalizado hábitos que posibilitan la instauración de sociedades que normalizan practican que ponen en riesgo la salud mental. En estos casos en el que las medidas de protección de instituciones nacionales y supranacionales están fallando claramente hay que volver la mirada al individuo. La revolución debe empezar por uno mismo, en el sentido de ser consciente de en el mundo en que vivimos y cómo la tecnología está cambiando el mundo aprovechando sus oportunidades y protegiéndose de sus riesgos.
Los profesionales de la salud mental tenemos un lugar privilegiado en esta revolución individual al estar en contacto con personas que están en procesos de cambios y quieren transformarse. Quieren sentirse bien, ser felices y nosotros debemos explicarles qué usos de la tecnología les acercan o alejan de esa meta.
Mientras esta idea, la de que la esperanza de salvarse de vivir en una esclavitud digital viene de uno mismo, se confirma día a día, también debemos seguir buscando respuestas a la pregunta acerca de cómo hemos llegado a este momento de la historia en que la humanidad busca vínculos en simulacros humanos, abandonando la vida real para instalarse en una hueca y sofisticada jaula de ficción.
CONCLUSIONES:
Algunas aplicaciones basadas en inteligencia artificial han abandonado su objetivo terapéutico para incluir funcionalidades que fomentan, en personas vulnerables, dependencia emocional y, por lo tanto, las predisponen al desarrollar problemas de salud mental. La IA usada sin una supervisión destinada a proteger a los usuarios de malas prácticas, pone en riesgo a la población. Hasta ahora no hay medidas que hayan servido para salvaguardar a la gente de este riesgo. En este artículo se desarrolla esta realidad junto con la de que la protección de las consecuencias de usar cierto tipo de aplicaciones debe partir de uno mismo., Y que el psicólogo clínico tiene un lugar privilegiado en el resultado de esa pequeña revolución.
Bibliografía
Centro de Psicología Aplicada Maribel Gámez (2024, 23 de octubre). Nuevas y viejas adicciones en el s. XXI (y II). Blog del Centro de Psicología Maribel Gámez. https://www.centropsimaribelgamez.net/post/nuevas-y-viejas-adicciones-en-el-s-xxi-y-ii
European Commissión. (17 de diciembre de 2024). Commission opens formal proceeding against Tik Tok on election risks under the Digital Services Act. https://digital-strategy.ec.europa.eu/en/news/commission-opens-formal-proceedings-against-tiktok-election-risks-under-digital-services-act?utm_source=chatgpt.com
Garante Per La Protezione Dei Dati Personali (10 de abril de 2025)Provvedimento del 10 aprile 2025 [10130115]. Recuperado de https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10130115?utm_source=chatgpt.com
Laestadius, L., Bishop, A., González, M., IIIencík., Campos-Castillo, C. (2024) Too humanand not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika. New media & Society, 26(10):5923-5941. DOI:10.1177/14614448221142007
Marquez, J. (2 de mayo de 2025) TikTok acaba de recibir una multa histórica en Europa: 530 millones de euros por enviar datos de los usuarios a China. Xakata. https://www.xataka.com/empresas-y-economia/tiktok-acaba-recibir-multa-historica-europa-530-millones-euros-enviar-datos-usuarios-a-china
Moya-Albiol, L., Sebastián,N., Santacreu, M. (2010). Bases neuronales de la empatía.Revista de Neurología, 50, (02), 89-100 DOI: 10.33588/rn.5002.2009111
Placani, A. (2024) Anthropomorphism in AI: hype and fallacy. AI and Ethics, 4, 691-698. https://doi.org/10.1007/s43681-024-00419-4
Youn People´s Alliance (YPA)., Tech Justice Law Proyect., Encode (2024) Complaint and petition for investigation re: Replika. https://techjusticelaw.org/wp-content/uploads/2025/01/Complaint-and-Petition-for-Investigation-Re-Replika.pdf?utm_source=chatgpt.com
Wysa-Everyday Mental Health (s.f) Wysa www.wysa.com
Wysa (2023). NHS tackles mental health crisis with Wysa´s AI. Blog Wysa. https://blogs.wysa.io/blog/company-news/nhs-tackles-mental-health-crisis-with-ai?utm_source=chatgpt.com

Psicóloga general sanitaria y psicopedagoga. Experta en terapia de conducta. Trabajo con un equipo especializado en el tratamiento de niños adolescentes y adultos por objetivos y con base científica. Presencialmente en Madrid y online.