La IA cambia radicalmente la educación universitaria

D.N.
-

Los docentes apuntan que integrar esta tecnología es el reto y subrayan la necesidad de enseñar en el aula a usarla con ética

Imagen de una persona trabajando con varios ordenadores. - Foto: Jonathan Tajes

El desarrollo de la Inteligencia Artificial (IA) que redacta trabajos o hace diseños está cambiando no solo el mundo laboral, sino también la forma de enseñar en la universidad. Por un lado, los docentes deben modificar la manera de evaluar los trabajos para evitar la picaresca de los alumnos que se limiten a usar programas, como ChatGPT, para hacer una actividad. Y por otro, los profesores creen que deben formar a los estudiantes para que usen con ética esas nuevas herramientas y algunos ya las están incorporando a sus aulas. Al fin y la cabo, cuando lleguen a su puesto de trabajo, estos jóvenes las van a utilizar. 

«Estamos ante un cambio de paradigma del nivel de cuando se inventó la calculadora». Es lo que defiende el profesor de Innovación Empresarial, Estrategia y Creación de Empresas de la Universidad Europea Miguel de Cervantes (UEMC), Juan Vicente García Manjón. No cree en la prohibición del uso de programas de IA por parte de los alumnos porque, entre otros argumentos, en breve el sistema de Office lo va a incorporar a través de un 'copilot'. ¿Cómo van a vetar estas nuevas tecnologías si va a estar en programas para redactar textos como Word que usan los estudiantes?. «No estoy aquí para perseguir a nadie, sino para que aprendan», subraya García Manjón. Y es que añade que sus alumnos van a ir a empresas donde los programas de IA se están usando, así que no tiene sentido vetar esas herramientas. Su objetivo es formar a los estudiantes para que las usen bien. 
Este docente asegura que en Educación «va a ser brutal el impacto que va a tener la IA». Y es que «vamos a ver tutores virtuales totalmente operativos, autocorrección de trabajos...». Y esa transformación se pondrá en marcha ya.

También el director de la Escuela de Ingeniería Informática de la Universidad de Valladolid (UVa), Manuel Barrio, ve «el gran potencial del uso de la IA». Subraya que «va a suponer un cambio muy importante en la forma en la que concebimos y llevamos a cabo la enseñanza». 

Barrio indica que va a obligar a «reconsiderar los métodos educativos convencionales, incluyendo objetivos, contenidos y formas de evaluación. En definitiva, nos enfrentamos al reto de integrar la IA y otras formas de transformación digital en la educación para potenciar y preparar mejor a nuestros estudiantes para un mundo que cambia muy rápido». 

Asimismo, la vicerrectora de Innovación Docente y Transformación Digital de la UVa, Susana Álvarez, remarca que no hay que prohibir el uso de la IA, sino enseñar a los alumnos a usarla. 

Explica que programas como ChatGPT redactan muy bien, pero tienen una forma particular de hacerlo y el alumno no debe conformarse con copiar y pegar esa respuesta. Si lo hace, se arriesga al suspenso. Pero puede usar esa información de punto de partida y luego analizarla. «Todo bien usado, es correcto. El problema es cuando el alumno se queda en esa información que le da, no revisa y copia lo que sale de la herramienta».  
Álvarez subraya para aquellos alumnos que no tengan una actitud académica correcta, hay programas como Turnitin para detectar plagios y, en este segundo cuatrimestre, tras meses de pruebas, la herramienta permitirá detectar textos redactados por IA.  

De hecho, la IA está en desarrollo y no siempre da buenos resultados. Es más, no te lleva la contraria en muchas preguntas y de ahí la necesaria intervención de la persona en todo el proceso de uso de esta herramienta. Es lo que comenta el vicerrector de Calidad y Enseñanza Semipresencial de la UEMC, Javier A. Rodríguez. Asevera que hay que corroborar que los datos y las citas que proporcionan programas como ChatGPT. Pero insiste en que no hay que darle la espalda esta tecnología.  

La IA, una más en el aula.

Hay facultades donde los docentes ya enseñan a manejar estos programas, como es el caso de la vicedecana de la Facultad de Ciencias Económicas y Empresariales, Rebeca San José, que muestra a sus alumnos a usar herramientas de marketing digital, «para que puedan aprender a incorporarlas con responsabilidad, transparencia y haciendo un buen uso legal de las mismas». San José apunta que se pueden utilizar, pero siempre con la intervención de las personas.

En el caso de García Manjón, profesor de la UEMC, su experiencia es que el uso de esos programas «potencia el aprendizaje muchísimo, si el docente que está el mando sabe lo que hace y transmite a los alumnos esa responsabilidad y compromiso de que deben aplicar la IA bien». Subraya que la actitud de los estudiantes es «constructiva» y les sirve para aprender mejor. 

En su aula ha cambiado la forma de evaluación y sus alumnos exponen sus trabajos. Si hay copia y pega, se ve que no se ha preparado este tema. Pero es que la IA les está permitiendo desarrollar prototipos de productos, así que los alumnos disfrutan y aprenden. 

¿Hay plagio?

También está sobre la mesa la palabra plagio cuando se hace mención a los programas de IA que redactan trabajos o diseñan imágenes. Pero no todo el mundo está de acuerdo con esta calificación porque estos programas se nutren de miles de webs y de información que le damos todos, así que docentes, como el vicerrector Rodríguez de la UEMC, ven difícil afirmar que un texto de la IA es un plagio. 

No obstante, las universidades tienen programas para detectar si hay plagios en trabajos de clase y en otro tipo de proyectos de más peso, como los que hacen para finalizar los grados o másteres. Turnitin es la herramienta usada tanto en la UVa como en la UEMC y permite ver el porcentaje de originalidad de un texto. Hace cuatro clasificaciones, siendo más de un 75% de originalidad los trabajos más auténticos y los que tienen menos de un 24%, los que pueden ser un plagio de otros. 

En las facultades de la UVa hay diferentes experiencias al respecto. El director de la Escuela Técnica Superior de Ingenieros de Telecomunicaciones, Carlos Alberola, subraya que los docentes no han percibido problemas con la IA. «Se ha visto que en algún caso se ha usado ChatGPT para diseñar fragmentos de código para programas, pero poco más. No tiene mayor relevancia dado que en GitHub (plataforma de desarrollo colaborativo) hay mucho código disponible para hacer muchas cosas». 

En la Facultad de Medicina se indica que los trabajos tienen «muy poco peso» y que en los de final de grado se vigila, aunque son parte de proyectos de investigación que los alumnos hacen con tutores. 
En Derecho han visto algún que otro trabajo realizado con IA por algún alumno, pero no es algo «generalizado». Es más, el decano de esta facultad, Javier García Medina, remarca que «las soluciones de la IA no son buenas en Derecho. Se detecta con facilidad con los medios de los que disponemos». 

Por otro lado, los alumnos de Ciencias tienen complicado usar la IA en sus trabajos. Eso es lo que afirma el decano de la facultad, Isaías García de la Fuente. Añade que en los exámenes «es dificilísimo» que  esté preparada para la resolución de las ecuaciones que predominan en estas pruebas. 

En Filosofía y Letras no han detectado el uso de la IA en los trabajos y desde la facultad de Educación y Trabajo Social van a abordar este asunto en breve. 

Por último, el docente de la UEMC, García Manjón, indica que todos los informes apuntan a que la IA va a automatizar hasta un 40% de tareas administrativas.Pero su aplicación irá a más sectores. De hecho, ya se usa a la hora de contratar un seguro o de seleccionar currículos. «La IA va a ser omnipresente», concluye.