¿Se puede detectar en segundos si un alumno ha usado ChatGPT en un trabajo? Enrique Dans, experto en innovación educativa, lo tiene claro: “ningún detector es fiable”. En esta entrevista, el director de Innovación en TuringDream —plataforma tecnológica que aplica inteligencia artificial para ofrecer educación personalizada— revela qué estrategias están utilizando ya los profesores, los riesgos de confiar ciegamente en la IA y por qué prohibirla en las aulas sería, en sus palabras, “una aberración intelectual”. Hablamos con él sobre el futuro del aprendizaje y por qué el verdadero problema no está en los estudiantes, sino en un sistema educativo obsoleto que se resiste a cambiar.
Para ti que te gusta
Este contenido es exclusivo para la comunidad de lectores de ¡HOLA!
Para disfrutar de 5 contenidos gratis cada mes debes navegar registrado.
Este contenido es solo para suscriptores.
Suscríbete ahora para seguir leyendo.Este contenido es solo para suscriptores.
Suscríbete ahora para seguir leyendo.TIENES ACCESO A 5 CONTENIDOS DE
Recuerda navegar siempre con tu sesión iniciada.
¿Qué herramientas o métodos utilizan hoy los profesores para detectar un plagio en cuestión de segundos?
Las herramientas tradicionales de detección de plagio, como Turnitin o similares, comparan textos con grandes bases de datos para encontrar coincidencias. Son útiles cuando alguien copia y pega, pero no sirven cuando hablamos de inteligencia artificial, ya que el texto se genera desde cero. Aplicar los métodos de detección de plagio a algo que no es plagio es un error conceptual grave. Es como tratar de encontrar ADN en un holograma. El problema no es técnico, sino mental; seguimos utilizando métodos de otro tiempo para abordar un fenómeno completamente nuevo.
¿Hasta qué punto la inteligencia artificial está cambiando la forma de “hacer trampa” en trabajos o exámenes?
Hablar de “hacer trampa” ya no tiene mucho sentido. Usar una herramienta de inteligencia artificial, como Tau, no es hacer trampa, sino aprovechar el conocimiento disponible, de la misma forma en que antes usábamos Google o una calculadora científica. Lo que está cambiando no es la forma de copiar, sino lo que entendemos por aprender. El alumno que usa la IA no necesariamente engaña; de hecho, puede estar aprendiendo de una forma más rápida, estructurada y profunda. El verdadero problema está en los sistemas educativos que se niegan a aceptar la existencia de la IA y quieren seguir con prácticas obsoletas. En TuringDream, creemos que la IA debe ser vista como una aliada en el proceso educativo. Con plataformas como Tau, que utilizan IA avanzada para ofrecer educación personalizada, estamos facilitando el aprendizaje de los estudiantes de una forma más adaptada a sus necesidades y estilo de aprendizaje.
Lo que está cambiando no es la forma de copiar, sino lo que entendemos por aprender.
¿Qué señales levantan sospechas en un texto que ha podido ser generado con IA?
No existen señales fiables que permitan identificar si un texto fue generado por IA. Algunos profesores piensan que los textos "demasiado perfectos" o "demasiado impersonales" son sospechosos, pero eso es un error. Hay estudiantes que escriben de manera impecable, y la IA puede adoptar cualquier tono. Las señales que se suelen buscar son intuiciones sin base científica. Lo único que logran es generar desconfianza y confusión. Al final, lo relevante no es saber quién escribió un texto, sino qué aprendió el alumno al producirlo.
¿Existen programas o softwares capaces de identificar automáticamente contenido creado con ChatGPT u otras IA? ¿Son realmente fiables?
Sí, existen, pero todos fallan estrepitosamente. Ningún detector de IA es mínimamente fiable. Estos programas generan falsos positivos constantes, lo que ya ha llevado a acusaciones erróneas contra estudiantes inocentes. Usarlos para sancionar a un alumno es irresponsable, casi criminal. Estas herramientas no miden lo que dicen medir. Es como decidir si alguien mintió basándose en el horóscopo. Lo más preocupante es que algunos docentes lo confunden con “rigor académico”, cuando en realidad es un claro ejemplo de pseudociencia.
Lo relevante no es saber quién escribió un texto, sino qué aprendió el alumno al producirlo.
¿Qué riesgos corren los estudiantes que recurren a la IA para entregar trabajos como propios?
El riesgo no está en usar la IA, sino en no saber cómo utilizarla. Quien copia sin pensar está desaprovechando una oportunidad increíble para aprender con el mejor profesor que jamás haya existido: una IA que se adapta a tu ritmo, nivel y curiosidad, y que te responde de forma personalizada, paciente y constante. En el futuro, la IA será ese “profesor perfecto” que conoce a cada estudiante mejor que cualquier ser humano. Los estudiantes que aprendan a usarla bien dominarán el aprendizaje personalizado, mientras que los que la rechacen se quedarán atrás en un mundo que ya está aquí. Tau, la plataforma educativa de TuringDream, es un claro ejemplo de cómo la IA puede ser un aliado para mejorar el aprendizaje, no solo facilitando la comprensión, sino también ajustando el proceso educativo al ritmo y estilo único de cada alumno.
¿Cómo deberían los centros educativos adaptarse a esta nueva realidad: prohibir el uso de la IA o integrarla en el aprendizaje?
Prohibir la IA es una aberración intelectual. El futuro de la educación no estará basado en memorizar datos, sino en saber cómo hacer preguntas, analizar y contextualizar respuestas. La IA debe ser una herramienta de aprendizaje omnipresente, y los centros educativos deben adaptarse para enseñar a los estudiantes a usarla con criterio. Los profesores no desaparecerán, pero su papel cambiará, y se convertirán en guías que enseñan valores, pensamiento crítico, empatía y adaptación social. La IA enseña los contenidos; los humanos enseñan a ser personas. Quien no entienda eso, está condenando a sus alumnos a la irrelevancia.
Prohibir la inteligencia artificial en las aulas es una aberración intelectual.
¿Qué estrategias recomiendas a los docentes para enseñar a diferenciar entre usar la IA como apoyo y caer en el plagio?
La línea no está en el uso, sino en la comprensión. Si un alumno utiliza la IA para entender mejor, explorar ideas o corregir errores, está aprendiendo. Si la usa para entregar un trabajo que no comprende ni podría defender, se está engañando a sí mismo. Los profesores deben pedir a los alumnos que expliquen cómo usaron la IA, qué aprendieron del proceso y qué criterio aplicaron. En lugar de cazar “tramposos”, deberían evaluar la calidad del pensamiento. Enseñar con IA no es renunciar al rigor, sino llevarlo al siguiente nivel. Lo que debemos hacer es enseñar a los estudiantes a usar la IA como una herramienta que complementa su aprendizaje, tal como lo hace Tau, que guía y personaliza el estudio de manera efectiva y sin juicios.
¿Qué mensaje daría a los alumnos sobre su futuro académico y profesional si basan sus estudios en trabajos generados por inteligencia artificial?
El futuro será de quienes sepan trabajar con la inteligencia artificial, no de quienes intenten ignorarla. La IA no sustituye la inteligencia humana, la amplifica. Es una extensión de nuestra capacidad de aprender, de razonar y de crear. Quien hoy aprenda a usarla como herramienta de aprendizaje, tendrá mañana una ventaja inmensa en cualquier profesión. Y cuando llegue el momento en que una IA pueda adaptarse a cada estudiante, enseñarle justo lo que necesita y reforzar justo donde falla, habremos alcanzado algo que ningún sistema educativo humano logró nunca: la personalización total del conocimiento. Los profesores humanos seguirán siendo imprescindibles, pero para enseñar lo más importante: a ser humanos, a convivir, a pensar éticamente y a entendernos como sociedad. Todo lo demás, la IA lo hará mejor.