Adolescente con asistente virtual©GettyImages

Nuevas Tecnologías

Los riesgos de la Inteligencia Artificial para los menores, más allá del retoque de imágenes

Desde dependencia emocional y menor desarrollo cognitivo a problemas de privacidad; los peligros asociados a esta tecnología son importantes y es necesario hacerles frente cuanto antes

Hace unas semanas salía a la luz, gracias a la labor de la ginecóloga y divulgadora Miriam Al Adib, una de cuyas hijas se vio afectada, cómo adolescentes de 13 y 14 años habían manipulado imágenes de amigas y compañeras mediante Inteligencia Artificial (IA) de modo que aparecían desnudas con un realismo espeluznante. Este terrible caso puso la voz de alarma sobre muchos padres de niños y adolescentes de los nuevos peligros de las tecnologías, que pueden manipular incluso menores de edad. Sin embargo, “la mayoría de los riesgos asociados al uso de la Inteligencia Artificial por parte de los menores de edad no tienen que ver con estos hechos”, puesto que “retocar imágenes es algo que puede hacerse desde hace mucho tiempo, si bien es cierto que ahora puede realizarse con más facilidad”, nos indica uno de los mayores expertos de España en seguridad infantojuvenil en internet, Guillermo Cánovas, director de EducaLIKE, quien lleva tiempo advirtiendo de los enormes riesgos de la IA: “los problemas asociados al uso de la IA, hasta que esta sea controlada y regulada, van a ser bastantes, y afectarán a menores pero también a los adultos”.

¿Cuáles son los riesgos derivados de la IA a los que se enfrentan los menores?

La Inteligencia Artificial parece haber irrumpido de golpe con la aparición de ChatGPT y herramientas de retoque fotográfico que, como la que utilizaron los menores de Almedralejo, están al alcance de cualquiera, pero lleva ya años entre nosotros. De hecho, son varios los estudios que alertan de las consecuencias en niños y adolescentes del uso de esta tecnología que es la que emplea algo tan común en muchos hogares como los asistentes de voz; incluso algunos juguetes inteligentes la utilizan. Los niños, por tanto, interactúan con la IA sin ni siquiera ser conscientes de ello y esto les afecta directamente desde un punto de vista cognitivo y emocional.

Por un lado, se sentirán atraídos por estos dispositivos por su amigable voz y, por otro, en lo que respecta a los llamados juguetes inteligentes, si su uso es muy prolongado, acabará afectando a una menor capacidad del niño para llevar a cabo el juego simbólico (un tipo de juego fundamental en su correcto desarrollo) y acabará también limitando su imaginación y su creatividad.

Frente a un robot©GettyImages

En este sentido, el estudio Children and AI Where are the opportunities and risks? (’Los niños y la IA, ¿dónde están las oportunidades y los riesgos’?), elaborado por Unicef y el Foro Económico Mundial, se cuestionan acerca de la probabilidad de una “manipulación cognitiva” por parte de esta tecnología en el cerebro de los menores: “¿se puede usar IA para dirigir o controlar el comportamiento de los niños?”.

El citado estudio no da respuesta contundente, deja la pregunta en el aire, pero el mero hecho de plantearla plantea la posibilidad de que ocurra. De lo que no cabe duda es de que sí puede provocar dependencia emocional hacia ella en los niños, como apuntan tanto el citado estudio como Guillermo Cánovas. La dependencia emocional se encuentra, por tanto, entre los principales riesgos de la IA en los menores de edad que, según el experto en seguridad infantojuvenil son los siguientes:

  • La credibilidad de la información. “Estos programas pueden llegar a facilitar información falsa, errónea o condicionada por los sesgos de la información con la que ha sido entrenada. Los menores no deberían utilizar la información facilitada sin verificarla primero”.
  • Problemas para la privacidad de los menores. “Muchas herramientas de IA no cumplen con las leyes de protección de datos, no informan lo que harán con la información que recogen y no restringen ni verifican las edades de los usuarios ni el acceso de los niños. No debe compartirse información personal o confidencial”.
  • Fraude académico. “Cada vez más niños y adolescentes van a utilizar programas de este tipo para realizar tareas de clase o trabajos. Se hace difícil hablar de plagio, ya que no copian a un autor concreto, pero se trata de un fraude académico, ya que ellos no han realizado el trabajo”.
  • Adicción y pérdida de control. “Estos programas responden a lo que les pidas las 24 horas del día y los 365 días del año. Y no responden solo a cuestiones escolares o de información, sino que pueden ofrecer respuestas sobre temas personales y de relación, e incluso sobre cuestiones emocionales”.
  • Dependencia emocional. “Algunas de estas herramientas pueden interactuar con niños y adolescentes manifestando características humanas. Pueden consolar, dar consejos, mostrarse como dignos de confianza, etc., cuando realmente son máquinas que solo entienden números y carecen de toda empatía. No saben lo que dicen, no tiene conciencia y, por supuesto, el niño y el adolescente no son nada para ellos”.
  • Acciones dañinas. “Estos programas pueden dar ideas y facilitar la consecución de actividades dañinas. El ejemplo más cercano lo tenemos con las fotografías de desnudos creadas por uno de estos programas”.

¿Cómo hacer frente a los riesgos de la IA?

Una vez que conocemos los principales riesgos de la IA, hemos de tener en cuenta que también aporta importantes beneficios en lo que a educación se refiere. Así, Cánovas nos explica que muchos programas de IA “permiten realizar tareas muy complicadas y tediosas hasta ahora. Generan dinámicas, perspectivas, nuevas posibilidades que pueden utilizarse para mejorar la educación. Su potencial es realmente impresionante y, bien utilizadas, sus beneficios son innegables en esta y en otras muchas profesiones”.

Partiendo de esto y de que parece inevitable que afecte a todas los ámbitos de la vida a corto plazo, ¿qué podemos hacer para frenar (o, al menos, mitigar) los riesgos asociados a la IA para los menores? Según el director de EducaLIKE, lo primero es elaborar un adecuado marco legal: “Es necesario y urgente desarrollar leyes que permitan afrontar los retos que está planteando la IA. No debería continuarse su desarrollo sin un marco legislativo claro. Este marco debería determinar desde las responsabilidades que tienen estas herramientas si alguien tiene un problema siguiendo sus consejos, hasta respeto a las leyes de privacidad y manejo de datos personales, pasando por la obligación de facilitar información veraz y no falsa o manipulada”.

En segundo lugar, Guillermo Cánovas subraya que “es urgente la formación tanto de las familias como del profesorado en las cuestiones relacionadas con la IA”. ¿Por qué es tan urgente? La respuesta es clara: “niños y adolescentes la están utilizando ya. Hoy he estado en varias aulas de alumnos de 10 años de edad, y en todas las clases había algunos alumnos utilizando ya estos programas. En la ESO es uso será mayoritario dentro de poco tiempo”, advierte. De ahí la importancia de la formación tanto a padres y profesores como a los propios chicos, con los que, nos dice, “debemos trabajar directamente con el alumnado, para trasladarles al menos la información básica sobre los riesgos señalados anteriormente”.

© ¡HOLA! Prohibida la reproducción total o parcial de este reportaje y sus fotografías, aun citando su procedencia.