Hubo un tiempo en que los educadores se preocupaban por los peligros de CliffsNotes: guías de estudio que presentaban grandes obras literarias en una serie de viñetas que muchos estudiantes usaban como reemplazo de la lectura real.
Hoy en día, eso sí que parece pintoresco.
De repente, han llegado al mercado nuevas herramientas de inteligencia artificial para el consumidor que pueden tomar cualquier fragmento de texto, audio o video y proporcionar ese mismo tipo de resumen simplificado. Y esos resúmenes no son solo una serie de texto ingenioso en viñetas. En la actualidad, los estudiantes pueden utilizar herramientas como NotebookLM de Google para convertir sus notas de clase en un podcast , donde robots de inteligencia artificial que suenan alegres bromean y comentan sobre puntos clave. La mayoría de las herramientas son gratuitas y hacen su trabajo en segundos con solo hacer clic en un botón.
Naturalmente, todo esto está causando preocupación entre algunos educadores, que ven a los estudiantes delegar en la IA el duro trabajo de sintetizar información a un ritmo nunca antes posible.
Pero el panorama general es más complicado, especialmente a medida que estas herramientas se vuelven más comunes y su uso empieza a convertirse en estándar en los negocios y otros contextos más allá del aula.
Y las herramientas sirven como un salvavidas particular para los estudiantes neurodivergentes, quienes de repente tienen acceso a servicios que pueden ayudarlos a organizarse y apoyar su comprensión lectora, dicen los expertos en enseñanza.
“No hay una respuesta universal”, dice Alexis Peirce Caudell, profesor de informática en la Universidad de Indiana en Bloomington, que recientemente realizó una tarea en la que muchos estudiantes compartieron sus experiencias y preocupaciones sobre las herramientas de IA. “Los estudiantes de biología las usarán de una manera, los de química las usarán de otra. Mis estudiantes las usan todos de maneras diferentes”.
No es tan simple como asumir que todos los estudiantes son tramposos, enfatiza el instructor.
“Algunos estudiantes estaban preocupados por la presión que sentían para utilizar herramientas: si todos sus compañeros lo hacían, ellos también deberían hacerlo, aunque sintieran que eso interfería en su aprendizaje auténtico”, afirma. Se hacen preguntas como: “¿Esto me ayuda a superar esta tarea específica o este examen específico porque estoy tratando de superar cinco clases y solicitudes de pasantías?”, pero ¿a costa del aprendizaje?
Todo esto añade nuevos desafíos a las escuelas y universidades mientras intentan establecer límites y políticas para el uso de IA en sus aulas.
Necesidad de ‘fricción’
Parece que casi todas las semanas (o incluso todos los días) las empresas tecnológicas anuncian nuevas características que los estudiantes están adoptando en sus estudios.
La semana pasada, por ejemplo, Apple lanzó funciones de Apple Intelligence para iPhones, y una de ellas puede transformar cualquier texto en un tono diferente , como informal o profesional. Y el mes pasado, OpenAI, el creador de ChatGPT, lanzó una función llamada Canvas que incluye barras deslizantes para que los usuarios cambien instantáneamente el nivel de lectura de un texto.
Marc Watkins, profesor de escritura y retórica en la Universidad de Mississippi, dice que le preocupa que los estudiantes se sientan atraídos por las promesas de ahorro de tiempo que ofrecen estas herramientas y no se den cuenta de que su uso puede significar saltear el trabajo real que implica internalizar y recordar el material.
“Desde el punto de vista de la enseñanza y el aprendizaje, eso me preocupa bastante”, afirma. “Porque queremos que nuestros estudiantes se esfuercen un poco, que tengan un poco de fricción, porque eso es importante para su aprendizaje”.
Y dice que las nuevas funciones están haciendo que sea más difícil para los profesores alentar a los estudiantes a usar la IA de formas útiles, como enseñarles cómo crear indicaciones para cambiar el nivel de escritura de algo: «Elimina ese último nivel de dificultad deseable cuando pueden simplemente presionar botones y obtener un borrador final y también recibir comentarios sobre el borrador final».
Incluso los profesores y las universidades que han adoptado políticas de IA pueden necesitar repensarlas a la luz de estos nuevos tipos de capacidades.
Como lo expresaron dos profesores en un artículo de opinión reciente : “Su política sobre IA ya está obsoleta”.
“Un estudiante que lee un artículo que subiste, pero que no puede recordar un punto clave, usa el asistente de IA para resumir o recordarle dónde leyó algo. ¿Esta persona ha usado IA cuando había una prohibición en la clase?”, preguntan los autores, Zach Justus, director de desarrollo del profesorado en la Universidad Estatal de California, Chico, y Nik Janos, profesor de sociología allí. Señalan que herramientas populares como Adobe Acrobat ahora tienen funciones de “asistente de IA” que pueden resumir documentos con solo presionar un botón. “Incluso cuando estamos evaluando a nuestros colegas en los archivos de titularidad y promoción”, escriben los profesores, “¿necesitamos prometer que no presionaremos el botón cuando estamos revisando cientos de páginas de evaluaciones de la docencia de los estudiantes?”
En lugar de redactar y reformular políticas de IA, los profesores sostienen que los educadores deberían elaborar marcos amplios sobre lo que constituye una ayuda aceptable de los chatbots.
Pero Watkins pide a los fabricantes de herramientas de IA que hagan más para mitigar el mal uso de sus sistemas en entornos académicos o, como lo expresó cuando EdSurge habló con él, «para asegurarse de que esta herramienta que los estudiantes utilizan de manera tan destacada [sea] realmente eficaz para su aprendizaje y no solo como una herramienta para descargarlo».
Precisión desigual
Estas nuevas herramientas de IA plantean una serie de nuevos desafíos más allá de los que existían cuando los CliffsNotes impresos eran la herramienta de estudio del momento.
Una de ellas es que las herramientas de resumen de IA no siempre brindan información precisa, debido a un fenómeno de grandes modelos de lenguaje conocido como “alucinaciones”, cuando los chatbots adivinan hechos pero los presentan a los usuarios como cosas seguras.
Por ejemplo, cuando Bonni Stachowiak probó por primera vez la función de podcast en NotebookLM de Google, dijo que le sorprendió lo realistas que sonaban las voces del robot y lo bien que parecían resumir los documentos que le enviaba. Stachowiak es la presentadora del podcast de larga trayectoria Teaching in Higher Ed y decana de enseñanza y aprendizaje en la Universidad Vanguard del Sur de California, y experimenta regularmente con nuevas herramientas de inteligencia artificial en su docencia.
Pero a medida que probaba más la herramienta y añadía documentos sobre temas complejos que conocía bien, notó errores ocasionales o malentendidos. “Simplemente lo vuelve monótono, pierde todos los matices”, afirma. “Suena tan íntimo porque es una voz y el audio es un medio muy íntimo. Pero tan pronto como se trata de algo sobre lo que sabes mucho, se desmorona”.
Aun así, dice que la función de podcasting de NotebookLM le ha resultado útil para comprender y comunicar cuestiones burocráticas en su universidad, como por ejemplo convertir parte del manual del profesorado en un resumen en formato podcast. Cuando lo consultó con colegas que conocían bien las políticas, dice que sintieron que hizo un «trabajo perfectamente bueno». «Es muy bueno para hacer que la burocracia bidimensional sea más accesible», dice.
Peirce Caudell, de la Universidad de Indiana, dice que sus estudiantes también han planteado cuestiones éticas con el uso de herramientas de IA.
«Algunos dicen que están realmente preocupados por los costos ambientales de la IA generativa y su uso», afirma, y señala que ChatGPT y otros modelos de IA requieren grandes cantidades de potencia informática y electricidad .
Otros, añade, se preocupan por la cantidad de datos que los usuarios terminan entregando a las empresas de IA, especialmente cuando los estudiantes usan versiones gratuitas de las herramientas.
“No estamos teniendo esa conversación”, dice. “No estamos teniendo conversaciones sobre qué significa resistirse activamente al uso de la IA generativa”.
Aun así, el instructor está viendo impactos positivos para los estudiantes, como cuando usan una herramienta para ayudar a hacer tarjetas didácticas para estudiar.
Y escuchó acerca de un estudiante con TDAH que siempre había encontrado “abrumador” leer un texto grande, pero estaba usando ChatGPT “para superar el obstáculo de ese compromiso inicial con la lectura y luego estaba verificando su comprensión con el uso de ChatGPT”.
Y Stachowiak dice que ha oído hablar de otras herramientas de IA que utilizan los estudiantes con discapacidades intelectuales, como una que ayuda a los usuarios a dividir tareas grandes en subtareas más pequeñas y manejables.
“No se trata de hacer trampa”, subraya. “Se trata de dividir las cosas en partes y calcular cuánto tiempo llevará hacer algo. Eso no es algo que le salga de forma natural a mucha gente”.
Fuente: Jeffrey R. Young / edsurge.com