En pocos años, la inteligencia artificial ha pasado de ser un concepto abstracto reservado, casi, a películas de ciencia ficción, a convertirse en una herramienta que usamos constantemente. Nos ayuda a escribir textos, buscar respuestas, traducir idiomas, planificar viajes o nuestro entrenamiento, entre otros usos. Pero esta revolución tecnológica plantea una pregunta: ¿puede la inteligencia artificial estar cambiando, o incluso atrofiando, la manera en que funciona nuestro cerebro?
A medida que delegamos más tareas cognitivas en algoritmos, es lógico preguntarse si no estaremos dejando de ejercitar habilidades que antes eran imprescindibles: recordar, deducir, prestar atención, escribir, calcular o conversar cara a cara... Y aunque no se trata de demonizar la IA, los expertos alertan de que su uso sin criterio puede tener consecuencias más importantes de lo que imaginamos, especialmente en cerebros en desarrollo o en personas emocionalmente vulnerables.
A medida que delegamos más tareas cognitivas en algoritmos, es lógico preguntarse si no estaremos dejando de ejercitar habilidades que antes eran imprescindibles: recordar, deducir, prestar atención, escribir, calcular, o incluso conversar cara a cara
¿Puede la inteligencia artificial atrofiar nuestro cerebro?
La primera cuestión que nos planteamos, como decíamos, es si esta nueva herramienta puede tener este impacto devastador en nuestro cerebro. La respuesta es no, al menos, no en el sentido estricto del término. Pero sí puede modificar su funcionamiento y, con ello, alterar procesos fundamentales como la memoria, la atención o la toma de decisiones. Así lo explica el profesor Ignacio Morgado Bernal, catedrático emérito de Psicobiología en el Instituto de Neurociencias de la Universidad Autónoma de Barcelona: “La inteligencia artificial hace trabajar al cerebro de otra manera. En lugar de almacenar directamente la información, la almacena sobre archivos que contienen mucha más información de la que él mismo puede almacenar”.
En otras palabras, cuando consultamos constantemente un asistente de IA para saber qué cocinar, qué escribir o cómo resolver un problema, el cerebro empieza a funcionar como un director de orquesta que ya no interpreta música, sino que pulsa ‘play’ en un reproductor externo. Y aunque eso puede liberar recursos mentales para otras tareas, también puede hacernos menos autónomos a largo plazo.
Esto se vuelve especialmente relevante en el caso de los adolescentes. “El cerebro del adolescente es todavía un cerebro inmaduro, más fácil de engañar, sugestionar y orientar en direcciones inconvenientes, como la violencia o el sexo sin control”, advierte Morgado. “La razón, que es protectora de esos peligros, no madura hasta por lo menos los 20 años, aunque antes en chicas que en chicos”. Por ello, el uso no apropiado de la IA puede alterar el desarrollo de los adolescentes.
Y es que el problema no es solo el acceso temprano, sino el tipo de uso que se hace de la IA. Los menores pueden recurrir a estas herramientas para hacer los deberes, resolver problemas sociales o incluso buscar respuestas emocionales que aún no están preparados para interpretar. “El hecho de que los niños usen la IA desde muy jóvenes sí puede ser nocivo en su desarrollo”, subraya el experto. Pero volvamos a la edad adulta, ¿qué puede significar para nuestro cerebro el hecho de que usemos la inteligencia artificial para nuestras tareas diarias?
La inteligencia artificial hace trabajar al cerebro de otra manera. En lugar de almacenar directamente la información, la almacena sobre archivos que contienen mucha más información de la que él mismo puede almacenar
¿Puede la inteligencia artificial acelerar el deterioro cognitivo?
En los adultos mayores, el impacto parece ser diferente. “Por no ejercitar el cerebro, sí puede acelerarse el deterioro cognitivo; pero por usar la IA, no”, señala Morgado. De hecho, la inteligencia artificial podría tener cierto valor terapéutico si se utiliza de forma dirigida para estimular la mente, jugar, aprender o entrenar habilidades cognitivas.
Eso sí, siempre con una premisa clara: sentido común e información. “Hay que usar la IA informándonos bien sobre lo que se usa. Saber, por ejemplo, que no hablamos con una persona o un profesional, sino con una máquina programada con limitaciones”, recuerda Morgado. Es decir, si sabemos usar la inteligencia artificial, puede ser beneficiosa. Si abusamos de ella o no la utilizamos bien, puede acabar afectando nuestro cerebro. Pero una cosa está clara: “Ha venido para quedarse y condicionará nuestras vidas de muchas maneras que hemos de intentar que sean todas positivas”, recuerda.
Y, como decíamos, tener mucho cuidado con las personas más vulnerables. Y es que en ellas, la inteligencia artificial puede tener un impacto significativo y afectar seriamente su salud.
Los pacientes con problemas emocionales o de salud mental han cambiado las consultas de Dr. Google por Dr. ChatGPT y similares, donde consiguen una respuesta en tiempo real y a cualquier hora del día
Chatbots y salud mental: una combinación peligrosa en personas vulnerables
Uno de los terrenos donde más se ha expandido el uso de la inteligencia artificial es la salud mental. Chatbots diseñados para conversar con personas que se sienten solas, ansiosas o deprimidas están cada vez más presentes. Y aunque pueden ser útiles como complemento, los expertos en psicoterapia están preocupados por su uso sin supervisión.
Según una revisión de estudios realizada por el centro Itersia, la accesibilidad 24/7 y la capacidad de simular empatía hacen que muchos usuarios, especialmente jóvenes o personas emocionalmente frágiles, sustituyan la consulta psicológica por conversaciones con asistentes virtuales. “Cambiar el chatbot por el terapeuta puede provocar desde omisión de crisis clínicas hasta dependencia emocional sin respaldo real”, alerta la psicóloga Elisabet Sánchez, del centro Itersia.
El caso más extremo y documentado en medios internacionales fue el suicidio de un adolescente estadounidense que desarrolló un vínculo afectivo con su chatbot, creyendo estar en una relación real. “Estos sistemas pueden complementar, pero no reemplazar, la supervisión clínica humana en intervenciones de salud mental”, añade Sánchez.
La situación es especialmente preocupante en zonas rurales o contextos donde el acceso a psicólogos es limitado. “Los pacientes con problemas emocionales o de salud mental han cambiado las consultas de Dr. Google por Dr. ChatGPT y similares, donde consiguen una respuesta en tiempo real y a cualquier hora del día”, explica Sánchez. “La necesidad de inmediatez de la sociedad se ha trasladado de la consulta psicológica a los asistentes conversacionales”.
Un estudio publicado en la revista JMIR Mental Health concluye que, aunque los modelos de IA pueden ser útiles en psicoeducación y gestión emocional básica, no son capaces de detectar señales de alarma, ni de realizar diagnósticos precisos ni de empatizar realmente con los pacientes. “La precisión diagnóstica, la competencia cultural y la capacidad de involucrar emocionalmente a los usuarios siguen siendo limitadas”, afirma el informe.
Los asistentes no están preparados para identificar ni intervenir en situaciones de riesgo como pensamientos suicidas, violencia o brotes psicóticos.
Cinco riesgos clave de los chatbots en salud mental
Los expertos en salud mental de Itersia han elaborado un listado con los principales peligros asociados al uso indiscriminado de estos sistemas en personas emocionalmente vulnerables:
- Falta de detección de crisis: los asistentes no están preparados para identificar ni intervenir en situaciones de riesgo como pensamientos suicidas, violencia o brotes psicóticos.
- Ilusión de vínculo emocional: su lenguaje conversacional puede generar la falsa sensación de estar hablando con alguien que realmente comprende, lo que crea una relación artificial sin respaldo profesional.
- Consejos erróneos: a pesar de su fluidez, pueden ofrecer respuestas equivocadas, no basadas en evidencia o incluso peligrosas si se siguen al pie de la letra.
- Falta de contexto clínico: no comprenden bien los matices personales, culturales o emocionales que un terapeuta humano sí puede interpretar.
- Ausencia de control ético: no están sujetos a códigos deontológicos ni a supervisión clínica, lo que puede derivar en un uso irresponsable.
Además, una investigación reciente con pacientes con ansiedad social detectó que quienes sufrían síntomas más graves eran precisamente quienes más confiaban en los chatbots, viéndolos como un refugio seguro frente a la interacción humana. Esto, sin embargo, puede reforzar la evitación social y reducir las probabilidades de buscar ayuda profesional real.
La inteligencia artificial, como vemos, puede ayudarnos si sabemos cómo usarla, entendemos que se trata de máquinas programadas y dejamos en las pantallas todas las tareas que un humano o nuestro propio cerebro deberían realizar.
Referencias:
Wang, L., Bhanushali, T., Huang, Z., Yang, J., Badami, S., & Hightow-Weidman, L. (2025). Evaluating generative AI in mental health: Systematic review of capabilities and limitations. JMIR Mental Health, 12, e70014. https://doi.org/10.2196/70014