El riesgo de la 'pereza cognitiva': una experta alerta de cómo la IA puede afectar al cerebro de los estudiantes


La experta Silvia Leal analiza el impacto del uso de herramientas como ChatGPT en las aulas y advierte que, sin límites claros, se podría priorizar la eficiencia de la máquina sobre el aprendizaje real y el pensamiento crítico de los jóvenes


Silvia Leal, experta en tecnología y nuevas tendencias y Senior Advisor de evercom,
22 de septiembre de 2025 - 16:10 CEST

Miles de estudiantes en España ya usan la Inteligencia Artificial para sus trabajos, pero ¿están haciendo algo ilegal? Mientras los colegios improvisan normas, existe un vacío legal que genera una enorme confusión. Silvia Leal, experta en tecnología y nuevas tendencias y Senior Advisor de evercom, analiza la situación y advierte sobre las "zonas grises" del Reglamento Europeo de IA que ya afectan a los centros educativos y lo que se considera trampa, dejando todo en manos de la interpretación de cada profesor.

Para ti que te gusta

Este contenido es exclusivo para la comunidad de lectores de ¡HOLA!

Para disfrutar de 5 contenidos gratis cada mes debes navegar registrado.

Este contenido es solo para suscriptores.

Suscríbete ahora para seguir leyendo.

TIENES ACCESO A 5 CONTENIDOS DE CADA MES POR ESTAR REGISTRADO.

Recuerda navegar siempre con tu sesión iniciada.

Desde un punto de vista legal, ¿existe en España alguna norma que regule explícitamente el uso de la inteligencia artificial para hacer trabajos escolares o universitarios? ¿O estamos ante un vacío legal que deja todo en manos de la interpretación de cada centro educativo?

Todos sabemos que cuando se habla de tecnología la regulación casi siempre va por detrás. De esta forma, en España, no existe una norma nacional específica que regule de forma explícita el uso de la IA generativa (herramientas como ChatGPT) para elaborar trabajos académicos. Sin embargo, lo cierto es que no se trata de un vacío total. El Reglamento Europeo de IA, transpuesto en España mediante un anteproyecto de ley aprobado en marzo de 2025, establece marcos generales que impactan indirectamente en la educación. Por ejemplo, prohíbe sistemas de IA que infieran emociones en entornos educativos o evalúen comportamientos en exámenes, salvo por razones médicas o de seguridad. De la misma forma, obliga a etiquetar contenidos generados por IA para evitar deepfakes o manipulaciones.

© Rido - stock.adobe.com

Más allá de la legalidad, ¿qué implicaciones éticas tiene que un alumno entregue un trabajo elaborado por IA como si fuera propio? ¿Estamos hablando de una nueva forma de plagio o de un recurso legítimo de apoyo al aprendizaje?

En mi opinión, desde un punto de vista ético, entregar un trabajo generado por IA como propio sin citar el uso de esta herramienta es una forma de plagio, ya que vulnera, entre otras cosas, la integridad académica al falsear la autoría y el esfuerzo personal. Sin embargo, si se usa con transparencia, como apoyo para ideas o correcciones, es un recurso legítimo que potencia el aprendizaje, tal y como sucede en las tesis doctorales. Eso sí, es fundamental que siempre se cite adecuadamente.

¿Deberían los colegios y universidades establecer protocolos claros sobre cuándo y cómo se puede usar la IA? ¿Qué riesgos existen si cada profesor o institución aplica criterios distintos?

Creo firmemente que los colegios y universidades deben establecer protocolos claros para el uso de la IA, definiendo cuándo y cómo emplearla. Porque si esto no sucede, los riesgos de criterios dispares incluyen, entre muchos otros, desigualdad en evaluaciones, frustración estudiantil y desconfianza institucional. De hecho, hay una estadística del BID que habla por sí sola, y es que el 30% de docentes se siente abrumado sin guías, lo que puede llevar a prohibiciones reactivas en lugar de una integración ética y equitativa. En pocas palabras, no tengo ninguna duda de que debe ser así.

¿Qué efectos puede tener la normalización del uso de la IA en la educación sobre la autonomía, la creatividad y el pensamiento crítico de los alumnos? ¿Podría acabar fomentando la dependencia tecnológica en lugar del aprendizaje real?

La normalización del uso de la IA en la educación puede tener un impacto de doble sentido. En primer lugar, si se usa pasivamente y sin control, reduce la autonomía, la creatividad y el pensamiento crítico. Además, el abuso estandariza respuestas, fomentando dependencia tecnológica en lugar de aprendizaje profundo, según distintas investigaciones. Sin embargo, bien integrada, y supervisión, la IA potencia estas habilidades, pero sin límites claros, la “pereza cognitiva” podría prevalecer, priorizando eficiencia sobre aprendizaje real. Y el riesgo de que algo así pudiera llegar a suceder es muy alto.

En términos sociológicos, ¿puede la brecha digital acrecentarse si algunos alumnos tienen acceso a herramientas avanzadas de IA y otros no? ¿Estamos ante una desigualdad educativa de nuevo tipo?

Desde una perspectiva sociológica, y en mi opinión, sin duda la normalización de la IA en la educación puede agravar la brecha digital, creando una nueva desigualdad educativa. Alumnos con acceso a herramientas avanzadas de IA obtienen ventajas en eficiencia y calidad de trabajos. Esta disparidad podría perpetuar situaciones que den a los más favorecidos mejores oportunidades laborales, aunque, por otro lado, la IA también puede cerrar brechas, si se implementan políticas de acceso universal. Es decir, llega con las dos caras de una moneda y el resultado final dependerá de nosotros.

Mirando hacia el futuro, ¿cree que la IA acabará integrándose como un aliado en la enseñanza —igual que lo fueron en su día las calculadoras o Internet—, o que siempre estará asociada a la trampa y la deshonestidad académica?

Personalmente, estoy convencida de que la IA se integrará como un aliado en la enseñanza, similar a las calculadoras o Internet, si se regula éticamente y se fomenta su uso responsable. Son muchos los organismos y las investigaciones que destacan su potencial para personalizar el aprendizaje, reducir la deserción y promover la inclusión. Y aunque el riesgo de un mal uso sigue estando ahí, la posible detección del uso de IA, entre otros, harán que prevalezca como herramienta transformadora, no como trampa, siempre que prioricemos la formación en lugar de la prohibición. Tan solo mi humilde opinión.

© ¡HOLA! Prohibida la reproducción total o parcial de este reportaje y sus fotografías, aun citando su procedencia.