Valladolid
El uso de la IA en adolescentes «puede afectar al desarrollo de sus funciones ejecutivas»Valladolid
El uso de la IA en adolescentes «puede afectar al desarrollo de sus funciones ejecutivas»«Uno de los peligros de la Inteligencia Artificial (IA) son las alucinaciones» o, lo que es lo mismo, que cuando no tiene una respuesta que ofrecer se la inventa. Así lo advierte Guillermo Cánovas, director del Observatorio para la Promoción del Uso Saludable de ... la Tecnología, ponente de una jornada celebrada en Valladolid dirigida a profesores y en la que abordó el impacto que tiene la Inteligencia Artificial Generativa en los estudiantes, un avance en las tecnologías que no ha tardado en instalarse en las aulas. Y es que, según diferentes estudios, el 80% de los alumnos de tercero de la ESO ya utilizan estas herramientas. Un porcentaje que se amplía hasta el 95% en estudios superiores como Bachillerato o la Universidad.
Publicidad
Es entre los más pequeños donde este uso tan generalizado causa preocupación entre los docentes y los profesionales de la tecnología. Cánovas considera que estas herramientas son «fundamentales»; pero apunta a que, a su juicio, entre los niños y adolescentes es todo lo contrario. No se considera interesante estas funciones entre los más pequeños principalmente porque es necesario que conozcan el «uso poco seguro» que en ocasiones hay detrás de ellas.
Noticias relacionadas
Dentro de la Inteligencia Artificial Generativa se pueden distinguir varios tipos: como la creación de imágenes, de vídeo, de música y la más extendida de texto, el ya famoso 'Chat GPT'. Cánovas incide en que existen riesgos como que esta «no transmita información veraz». Una posibilidad que se puede deber a dos causas. Primero por la «existencia de sesgos», tal y como explica el experto, estas 'inteligencias' son entrenadas a través de información existente en internet, donde sin lugar a duda «abunda la información sesgada ideológicamente», aunque también debe ser un campo a tener en cuenta los sesgos locales o incluso nacionales. Por lo que lo más probable es que se obtenga información contaminada, «no es escéptica la información que hay en internet», recalca.
Por otro lado, los problemas en lo relativo a la privacidad. En muchas ocasiones la información que se vuelca en estas plataformas está relacionada con cuestiones que pueden afectar a la salud o tienen que ver con «una información personal».
Publicidad
Dentro de estas herramientas, existe la preocupación por el «desarrollo de las funciones ejecutivas» -procesos cognitivos para la realización de tareas cognitivas complejas-, que se perfeccionan hasta los 20 años. El uso de estas aplicaciones puede desembocar en un menor aprendizaje, la capacidad de control de impulsos -herramientas de resumir textos-, la capacidad para organizar o planificar -web para realizar esquemas- y la flexibilidad cognitiva -páginas para comparar textos-. Los expertos muestran especial preocupación por la capacidad de control de impulsos, que puede desembocar en perder la capacidad de decisión en acciones tan cotidianas como: mandar fotos atrevidas, frenar la tendencia de consumir las mismas sustancias que los demás o agredir a otras personas cuando se sientan amenazados.
Guillermo Cánovas explica estos riesgos con el uso de una calculadora. Una herramienta que se utiliza de forma diaria en multitud de ámbitos, pero que, sin embargo, no se permite su uso hasta determinada edad o, al menos, «hasta que los niños tengan muy bien interiorizado el uso de la multiplicación o la división». De igual manera ocurre con estas nuevas herramientas: «No se debe poner en manos de adolescentes que estén desarrollando sus funciones ejecutivas porque se pueden ver afectadas».
Publicidad
El fraude académico es otro de los problemas y riesgos que se presentan con estas nuevas tecnologías, «que los alumnos presenten como suyo un contenido que no ha sido desarrollado por él». Si bien los docentes cuentan con herramientas para identificar estos tipos de 'plagios', no están «perfeccionadas».
Se trata de verificadores «bastante buenos» identificando contenido humano pero, sin embargo, cuando se trata de texto generado por máquina, «tienen un margen de error importante». A lo que se suma, por ejemplo, la 'permisibilidad' en algunas universidades en las que se permite un porcentaje importante de contenido realizado a través de Inteligencia Artificial. «Al final los profesores se encuentran con una herramienta de detección que tiene un margen de error importante y que no te permite saber si ese trabajo entra dentro de los parámetros autorizados o no», incide Guillermo Cánovas.
Publicidad
Aunque no todo es malo. Cánovas explica que estas herramientas también cuentan con ventajas en el ámbito de la educación, como la capacidad de personalización, adaptada a cada alumno, la posibilidad de evaluarse a uno mismo y conocer cuál es el nivel u obtener explicaciones distintas a las que se da en el grueso de la clase. Pero sobre todo «los 'chatbots' entre los adolescentes».
El uso cada vez más extendido de estas herramientas preocupa entre los profesores, que «no están formados», pero existe un «gran interés» por sumergirse y aprender del tema. «Lo primero que les interesa es sacarle partido», indica Cánovas, pero también transmitir unas normas básicas para que su uso no sea perjudicial. Y es que se ha identificado que cada vez más padres y madres recurren a la tecnología para ayudar a sus hijos en la realización de las tareas. «Su uso tan generalizado en su campo, pasa por delante de sus ojos cada día, les obliga a estar junto a ella, aunque no estén de acuerdo».
Publicidad
Un capítulo aparte ocupa la Inteligencia Artificial para la generación de imágenes. Si bien puede tener grandes ventajas, sus riesgos son muy elevados y de gran relevancia. Por un lado, existe la posibilidad de caer en diferentes bulos, de creer algo que nunca ha sucedido pero que sin embargo has visto con tus propios ojos. Se trata de herramientas capaces de hacer acciones automáticamente, que permiten clonar el rostro de una persona o su voz y recibir un vídeo de alguien explicando un asunto sobre el que nunca se ha pronunciado. También para un uso mucho más incívico como «desnudar a las personas que tienen delante», apostilla Cánovas.
«Sin duda nos va a dificultar diferenciar lo que es verdad de los que es mentira», asegura Guillermo Cánovas, quien explica que ya existen herramientas para detectar estos bulos, pero «la IA no deja de avanzar», por los que esos «errores» que permiten detectar la falsedad o la mano de la tecnología se van a ir corrigiendo y perfeccionando.
Noticia Patrocinada
Aunque para Cánovas, el mayor problema para controlar el uso dañino de la tecnología IA es la falta de legislación, que en Europa no entrará en vigor hasta 2026. «Se ha construido la casa por el tejado, se han creado las herramientas, se ha distribuido y ahora es cuando nos planteamos qué normas aceptamos respecto a su uso». Cánovas explica que la realidad es que la tecnología «no va a parar de evolucionar» y que eso «dificultará» aún más su legislación. «La tecnología siempre va por delante, pero esta vez va mucho más lejos, va más deprisa y tiene más potencial que nunca», apostilla el experto, que participó en una jornada celebrada en el salón de actos de Cajamar (plaza de Zorrilla) organizada por la Fundación Schola.
0,99€ primer mes
¿Ya eres suscriptor? Inicia sesión
Te puede interesar
Publicidad
Utilizamos “cookies” propias y de terceros para elaborar información estadística y mostrarle publicidad, contenidos y servicios personalizados a través del análisis de su navegación.
Si continúa navegando acepta su uso. ¿Permites el uso de tus datos privados de navegación en este sitio web?. Más información y cambio de configuración.