Hace unas semanas finalizaron, en muchas universidades españolas, las defensas y correcciones de los trabajos de fin de grado. Estos trabajos son obligatorios para obtener el título, se desarrollan en la fase final del plan de estudios y se defienden en un acto público. Su objetivo esencial es la demostración, por parte del estudiante, del dominio y aplicación de los conocimientos, competencias y habilidades definitorios de su título oficial de grado.
Veamos un caso reciente: Alejandra, estudiante de Fisioterapia (caso real con nombre ficticio), completó su trabajo de fin de grado (una labor que suele llevar unas 300 horas de trabajo y ocupar alrededor de 30 páginas con su introducción y justificación, metodología, resultados, discusión y conclusiones) en dos semanas. Obtuvo un 9. Una nota excelente, consecuencia de un trabajo excelente. Pero ¿era merecida? La respuesta a esta última pregunta no es sencilla.
Mejoras meteóricas en dos semanas
Es cada vez más frecuente que estudiantes con una trayectoria académica mediocre obtengan notas altas en los trabajos de fin de grado, presentando textos informativos, precisos, libres de errores ortográficos y gramaticales. Textos quizá demasiado formales, sin elementos subjetivos o emocionales, con algunas repeticiones, pero en definitiva bien escritos. Sería una buena noticia si no plantease la sospecha muy fundada de que no los han escrito ellos.
El caso de Alejandra es paradigmático. Su tutor había corregido una versión del trabajo pobre y con muchos errores que ella mejoró en un tiempo récord con una nueva versión perfecta. Pese a las sospechas fundadas, no se pudo demostrar algo que más tarde ella misma confesó: lo había hecho con ChatGPT.
Más allá de mi percepción como profesor y tutor especializado en estos trabajos, existen datos que apuntan a una transformación silenciosa de este panorama en la educación superior: el 89 % de los estudiantes universitarios usa alguna herramienta de IA generativa, y el 45 % la emplea específicamente para redactar sus trabajos académicos. Ante estos números: ¿qué hacemos?
Posturas dispares ante el uso de la IA
Aunque esta revolucionaria tecnología puede facilitar tareas, su uso intensivo, y sin preparación específica (el 72 % de los universitarios que la usan no ha recibido formación específica sobre su uso ético), está amenazando la originalidad y creatividad del estudiante.
Ante este desafío global, las respuestas están siendo diversas, y van desde la prohibición de su uso dentro del aula, incluso revisando códigos éticos, hasta su aceptación sin barreras, considerándola similar al uso de correctores ortográficos, Wikipedia, calculadoras o enciclopedias en línea.
De hecho, ya hay algún estudio, como el realizado por profesores de la Universidad de las Islas Baleares, que defiende su uso, ya que la consideran una herramienta que se tendrá que utilizar por su capacidad competitiva y su valor añadido, en comparación con lo que se extrae de internet.
Lo que se está haciendo
Las universidades españolas han reaccionado de forma dispar ante este desafío. Un análisis reciente de 31 guías de uso de IA desarrolladas por diferentes universidades revela diferencias sustanciales en la estructura y contenido, y falta de homogeneidad en los enfoques y estrategias propuestos. Esta disparidad puede generar diferencias significativas en la calidad y resultados del aprendizaje entre las distintas instituciones.
La Universidad Carlos III de Madrid ha sido pionera en establecer protocolos claros. Desde el curso pasado, incorpora una Declaración de uso de inteligencia artificial generativa en los trabajos de fin de grado y de máster. En ella, reconoce que “el uso de las diversas herramientas de inteligencia artificial generativa puede mejorar la experiencia de aprendizaje del estudiante, siempre y cuando se garantice un uso correcto y ético”.
En el caso concreto de los trabajos de fin de grado, esta declaración establece una serie de aspectos bien definidos, tanto para su uso aceptado como no aceptado: se permite usarla, por ejemplo, rellenando una declaración de uso, para buscar información y de manera ética, pero nunca para redactar los trabajos.
La Universidad de León ha implementado una plataforma de detección de plagio que detecta el popular “copy-paste” (copia y pega) de una forma rápida, ofreciendo un porcentaje que indica cuánta parte del trabajo presentado está presente tal cual en otras obras consultadas. Ya antes de la llegada de la IA se usaban programas antiplagio como TURNITIN, que nos permitía conocer el grado y porcentaje de literalidad de las ideas utilizadas para el desarrollo de trabajos académicos.
Pero, además del uso de estas plataformas, existen otras evidencias muy marcadas a la hora de determinar si el trabajo que presenta el estudiante lo ha redactado una máquina. Los textos generados por IA, como explicaba al principio de este artículo, suelen ser más informativos, precisos, libres de errores ortográficos y gramaticales, presentando un uso perfecto del lenguaje, con palabras demasiado formales, y carentes de elementos subjetivos y emocionales propios de la redacción de los seres humanos. Además, suele ser frecuente la repetición de palabras, por encima de lo que un humano haría.
Detectores de fraude y falsos positivos
Para evitar el fraude académico, han surgido otras herramientas como Compilatio o Identific, que prometen identificar contenido generado artificialmente con precisiones que oscilan entre el 85-95 %. Pero ¿hasta qué punto esto es fiable? Muchos de nosotros estamos introduciendo textos de estos trabajos en ChatGPT, o en detectores genéricos de estilo para ver si coincide con otros fragmentos o patrones conocidos, pero ya hay estudios que demuestran que este porcentaje de precisión no es real, y lo sitúan en porcentajes mucho menores (entre el 28 y el 50 %).
Los detectores suelen buscar patrones lingüísticos predecibles, pero basta con modificar ligeramente la estructura de las frases o parafrasear el texto para que su precisión caiga en picado.
Por ello, los expertos advierten sobre los riesgos de los falsos positivos (textos originales etiquetados incorrectamente como generados por inteligencia artificial), lo que puede llevar a acusaciones injustas contra estudiantes honestos.
¿Es lo mismo usar la IA que plagiar?
A la hora de enfrentarnos a esta situación y definir las medidas a tomar, debemos plantearnos primero la siguiente cuestión: pedirle a la inteligencia artificial que nos redacte el trabajo de fin de grado ¿puede considerarse un plagio?
La nueva Ley 3/2022 de convivencia universitaria ha endurecido significativamente las sanciones por plagio académico. La normativa considera falta muy grave copiar total o parcialmente una obra, o cometer fraude académico, lo que puede conllevar la expulsión de dos meses hasta tres años de la universidad y pérdida de derechos de matrícula parcial.
Algunos expertos consideran que se pueden estar vulnerando los derechos de propiedad intelectual si esta tecnología se usa sin las debidas precauciones: utilizar la IA como apoyo y no como generador único, citar y atribuir correctamente las fuentes consultadas, y aportar valor añadido y pensamiento crítico de uno mismo.
Pero según la legislación vigente en España, solo las personas físicas pueden ser consideradas autoras de una obra protegida por derechos de autor. Los textos generados íntegramente por inteligencia artificial no cumplen este requisito, ya que no existe esa persona física que aporte los elementos de razonamiento necesarios para ser reconocida como su autora.
Las consecuencias: más allá del suspenso
Más allá del plagio, las consecuencias trascienden las sanciones disciplinarias. Los expertos identifican un efecto más preocupante: la pérdida de habilidades críticas y deterioro de habilidades metacognitivas. El uso habitual de la inteligencia artificial para hacer tareas puede fomentar una dependencia tecnológica nociva. El estudiante deja de confiar en sus propias capacidades y termina por perder la motivación para estudiar, investigar o escribir.
La metacognición, definida como “la capacidad de reflexionar sobre los propios procesos de pensamiento”, se ve severamente comprometida cuando los estudiantes delegan sistemáticamente tareas cognitivas complejas a esta tecnología.
Alternativas a largo plazo
La llegada de la inteligencia artificial a la educación superior supone oportunidades y retos, como cualquier nueva tecnología. Su integración ética pasa por:
- Una evaluación continua y presencial, incorporando la defensa oral de los trabajos fin de grado y presentaciones intermedias que permitan verificar el conocimiento real del estudiante sobre su propio trabajo.
- La implantación de metodologías activas: todas ellas tiene como objetivo la presentación de trabajos con un análisis crítico, una reflexión personal y una aplicación práctica de conocimientos. La inteligencia artificial no puede, a día de hoy, replicar estos elementos con la misma profundidad.
- El aprendizaje de competencias digitales, favoreciendo que el estudiante conozca el uso ético de la inteligencia artificial, e incluyéndolo como competencia transversal a lo largo de su desarrollo curricular.
- Un marco de transparencia que obligue a la declaración explícita de los estudiantes del uso de herramientas de inteligencia artificial y el nivel de asistencia recibida. Además del propio documento de autorización del tutor, se podrían incluir otros como el de “Declaración de Originalidad” y el de “Declaración de uso de la IA Generativa y las tecnologías asistidas por IA en el proceso de escritura”.
Estamos ante una nueva pedagogía que requiere redefinir el rol del estudiante: de consumidor pasivo de información a consumidor de información que revisa, analiza y la elige con criterio. En esta encrucijada, las universidades que logren equilibrar innovación tecnológica con rigor académico serán las que formen a los líderes del mañana.
Fuente: Alberto Melián Ortiz / theconversation.com