Rebeca Cáceres, psicóloga: “Que una IA te hable bonito no significa que te esté apoyando emocionalmente”


Hablamos con la experta sobre los riesgos de utilizar la inteligencia artificial en busca de consuelo emocional, orientación psicológica o respuestas rápidas sobre cómo nos sentimos


mujer sentada en el sofá, con gesto serio, mirando su móvil© Getty Images/Image Source
24 de septiembre de 2025 - 7:00 CEST

En una era marcada por la inmediatez y la tecnología, cada vez más personas recurren a la inteligencia artificial en busca de consuelo emocional, cierta orientación psicológica o alguna respuesta rápida que dé explicación a su malestar. Pero ¿puede una máquina realmente ofrecer apoyo emocional? ¿Dónde trazamos la línea entre acompañamiento real y simulación? Estamos ante un tema controvertido, sin duda, pero que comienza a estar en el centro del debate. Es el momento de tener bien presentes los límites, peligros y posibles usos responsables de la IA en el ámbito de la salud mental. Por eso, no hemos querido perder la oportunidad de preguntarle a una psicóloga su visión.

Para ti que te gusta

Este contenido es exclusivo para la comunidad de lectores de ¡HOLA!

Para disfrutar de 5 contenidos gratis cada mes debes navegar registrado.

Este contenido es solo para suscriptores.

Suscríbete ahora para seguir leyendo.

TIENES ACCESO A 5 CONTENIDOS DE CADA MES POR ESTAR REGISTRADO.

Recuerda navegar siempre con tu sesión iniciada.

Lo primero que nos planteamos es si la IA puede ofrecer apoyo emocional útil en momentos puntuales. Rebeca Cáceres Alfonso, directora de Tribeca Psicólogos y profesora de la Universidad Internacional de Valencia, lo tiene claro: “No. Apoyo emocional es presencia, empatía, regulación. Es alguien que te mira, que te sostiene, que conoce tu historia y te conoce a ti. Una máquina puede responderte, darte frases ordenadas o incluso parecer empática. Pero no nos olvidemos que está programada. Que no es real”. 

Así, en su opinión, confundimos alivio momentáneo con acompañamiento emocional real. “Que una IA te hable bonito no significa que te esté apoyando emocionalmente. Confundir eso resulta peligroso. El apoyo emocional nace del vínculo, y el vínculo se da entre humanos. Es relacional, no programable. Lo otro es simulación”, nos cuenta.

© Rebeca Cáceres
Rebeca Cáceres, psicóloga

Recurrir a la IA en lugar de a un profesional

Por eso, en su opinión es contraproducente recurrir a una IA en lugar de a un profesional. “Absolutamente. No hay duda. Cuando alguien necesita ayuda profesional no está en cuestión elegir entre una IA o un psicólogo. La IA no es alternativa. Puede dar información, ordenar ideas, incluso entretenerte, pero no puede hacer el trabajo terapéutico que se hace con un profesional”, apunta la experta, que reivindica el papel de la terapia. “La terapia implica conocimiento, vínculo, ética, contención, regulación y valores. Eso es humano y no está al alcance de ninguna inteligencia artificial porque nada hay más real que un humano. Nada más artificial que una máquina programada”, nos cuenta. 

Para Rebeca Cáceres, la pregunta no es “IA o psicólogo”, porque eso nunca ha estado en el mismo plano. “La única respuesta posible, si hay sufrimiento real, es acudir a un profesional”, comenta.

Cada vez más personas llegan a consulta diciendo: ‘Esto ya lo he consultado con ChatGPT y me ha dicho…’. A veces lo usan para ordenar ideas, pero otras llegan muy confusas e incluso autodiagnosticándose

Rebeca Cáceres, psicóloga

Riesgos de recurrir a la IA como psicólogo

Cuando le planteamos cuáles son los principales riesgos de recurrir a la IA para buscar ayuda psicológica, destaca especialmente tres:

  • Aislamiento emocional: si me siento escuchado por una IA, puedo dejar de buscar apoyo humano real.
  • Falsa sensación de vínculo: no hay un otro real, pero el cerebro interpreta que sí.
  • Respuestas artificiales: La IA va a responder dependiendo de las preguntas que haga la persona de una manera programada. No hay nada más artificial que eso. Se pierden todos los matices y toda la verdad de lo que es en realidad la ayuda psicológica.

Pero es que, además, la IA puede generar dependencia emocional en ciertos usuarios. “La buscan para desahogarse, para validar decisiones o simplemente porque sienten que ‘les entiende’. Esa dependencia puede reforzar la evitación de relaciones reales y profundizar el aislamiento”, nos dice.

Una tendencia en aumento

Pese a todos estos riesgos, lo cierto es que los profesionales, poco a poco, van notando un aumento de pacientes que consultan primero a una IA antes de acudir a terapia. “Cada vez más personas llegan a consulta diciendo: ‘Esto ya lo he consultado con ChatGPT y me ha dicho…’. A veces lo usan para ordenar ideas, pero otras llegan muy confusas e incluso autodiagnosticándose porque han recibido respuestas sin contexto y sin matices y sin contención”, nos cuenta. 

Entre las motivaciones que llevan a un paciente a buscar consejo psicológico en estas herramientas de inteligencia artificial, la experta destaca principalmente la inmediatez y el anonimato. “Pero también influyen las largas listas de espera en salud mental, el coste de la terapia privada y la creencia de que ‘el psicólogo no me dirá nada distinto’. A eso se suma que una máquina no juzga ni exige emocionalmente, lo que hace que muchos la perciban como un espacio más fácil y accesible que una relación humana real”, nos cuenta.

Le preguntamos, además, qué tipo de personas tienden más a usar la IA como psicólogo: jóvenes, personas solitarias, usuarios con ansiedad… “No hay un único perfil, pero sí se repiten ciertos patrones”, nos cuenta, y nos los resume en los siguientes:

  • Personas jóvenes, muy habituadas a la tecnología, suelen usarla como un espacio rápido de desahogo.
  • También quienes atraviesan soledad, ansiedad social o dificultades para confiar en los demás.
  • Y, en otro extremo, personas exigentes y perfeccionistas, que buscan respuestas claras e inmediatas sin pasar por la vulnerabilidad de una relación humana. 
© Getty Images

Buscando la inmediatez en la respuesta

Nos planteamos también si la inmediatez de respuesta puede ser más atractiva que la profundidad de una terapia. “Totalmente. Vivimos en una cultura que premia lo inmediato. La terapia requiere tiempo, compromiso, profundidad, responsabilidad, aceptación, incomodidad, reflexión. La IA, en cambio, contesta al segundo y no hay nada de todo lo anterior”, nos comenta Rebeca Cáceres. Y es que la IA, a priori, está disponible 24/7. “La disponibilidad constante es uno de los factores que más engancha. No necesitas pedir cita ni esperar”, nos detalla.

Respuestas que el usuario quiere escuchar

La IA, además, puede reforzar sesgos cognitivos al ofrecer respuestas que el usuario “quiere escuchar”. Tal y como nos cuenta Rebeca Cáceres, muchas veces replica lo que el usuario sugiere, en lugar de cuestionarlo. “Esto puede reforzar creencias disfuncionales, justificar decisiones impulsivas o mantener patrones de pensamiento rígidos. La realidad es más amplia que lo que el usuario pregunta pero ampliar esa realidad se necesita alguien que te pregunte cosas diferentes porque te vea en tu totalidad”, nos comenta. 

Puede suceder, incluso, que algunas personas sientan que la inteligencia artificial “les entiende” mejor que su entorno, lo cual ya delata un problema. “Justamente eso ya puede estar indicando un problema que la IA, obviamente, no va a resolver”, nos comenta la psicóloga.

La IA puede generar dependencia emocional en ciertos usuarios. La buscan para desahogarse, para validar decisiones o simplemente porque sienten que ‘les entiende’.

Rebeca Cáceres, psicóloga

La IA no nos cuestiona

¿Qué efecto tiene que la IA nunca juzgue, contradiga o cuestione lo que el usuario dice? “Puede ser reconfortante a corto plazo, pero es algo que no es real. Creer que eso es la realidad puede favorecer el narcisismo, la falta de empatía, el conflicto en las relaciones y la soledad”, nos explica la psicóloga, que añade que en terapia, necesariamente hay que confrontar para ver diferentes perspectivas de uno mismo, de los demás y del mundo. “Todo desde la comprensión, la compasión y el vínculo”, matiza. 

Nos explica, además, que lo que se genera es un vínculo ilusorio. “Nuestro cerebro tiende a proyectar humanidad en cualquier cosa que nos responde con aparente calidez. Así, algunas personas sienten que la IA ‘los acompaña’ o incluso llegan a depender de ella para tomar decisiones o calmarse”, comenta la experta.

El lado positivo de la IA en psicología

Para finalizar, le planteamos a la experta si en el lado positivo, ve posible que la IA se convierta en un apoyo para psicólogos en tareas como el seguimiento emocional o la detección precoz de riesgos. Aquí Rebeca Cáceres también lo tiene claro: “Sin duda. Bien utilizada, la IA puede ser una herramienta valiosa para acompañar procesos terapéuticos: formaciones, conocimientos, recordatorios de tareas, o incluso alertas tempranas ante señales de riesgo. Pero siempre bajo la supervisión de un profesional”. 

© ¡HOLA! Prohibida la reproducción total o parcial de este reportaje y sus fotografías, aun citando su procedencia.