En la educación especial en los EE. UU., la financiación es escasa y la escasez de personal es generalizada , lo que deja a muchos distritos escolares luchando por contratar profesionales calificados y dispuestos.
En medio de estos desafíos de larga data, existe un creciente interés en utilizar herramientas de inteligencia artificial para ayudar a cerrar algunas de las brechas que enfrentan actualmente los distritos y reducir los costos laborales.
Más de 7 millones de niños reciben prestaciones financiadas con fondos federales en virtud de la Ley de Educación para Personas con Discapacidades (DIE) . Esta ley garantiza a los estudiantes acceso a una instrucción adaptada a sus necesidades físicas y psicológicas únicas, así como a procesos legales que permiten a las familias negociar el apoyo. La educación especial involucra a diversos profesionales, como especialistas en rehabilitación, logopedas y auxiliares docentes. Sin embargo, estos especialistas son escasos , a pesar de la comprobada necesidad de sus servicios.
Como profesor asociado de educación especial que trabaja con IA, veo su potencial y sus inconvenientes. Si bien los sistemas de IA pueden reducir la carga administrativa, brindar orientación experta y ayudar a los profesionales con exceso de trabajo a gestionar su carga de trabajo, también pueden presentar desafíos éticos, que van desde el sesgo de las máquinas hasta problemas más amplios de confianza en los sistemas automatizados. Además, corren el riesgo de agravar los problemas existentes en la prestación de los servicios de educación especial.
Sin embargo, algunos en este campo están optando por probar herramientas de IA, en lugar de esperar una solución perfecta.
Un IEP más rápido, pero ¿qué tan individualizado?
La IA ya está dando forma a la planificación de la educación especial, la preparación del personal y la evaluación.
Un ejemplo es el programa educativo individualizado, o PEI, el principal instrumento para determinar los servicios que recibe un niño. Un PEI se basa en diversas evaluaciones y otros datos para describir las fortalezas del niño, determinar sus necesidades y establecer metas mensurables. Cada etapa de este proceso depende de profesionales capacitados.
Sin embargo, la persistente escasez de personal implica que los distritos a menudo tienen dificultades para completar evaluaciones, actualizar planes e integrar las aportaciones de los padres. La mayoría de los distritos desarrollan los PEI mediante software que exige a los profesionales elegir entre un conjunto generalizado de respuestas u opciones memorizadas, lo que genera un nivel de estandarización que puede no satisfacer las verdaderas necesidades individuales de cada niño .
Investigaciones preliminares han demostrado que modelos de lenguaje extensos como ChatGPT pueden ser eficaces para generar documentos clave de educación especial , como los PEI, al aprovechar múltiples fuentes de datos, incluyendo información de estudiantes y familias. Los chatbots capaces de elaborar PEI rápidamente podrían ayudar a los profesionales de la educación especial a satisfacer mejor las necesidades de cada niño y sus familias. Algunas organizaciones profesionales de educación especial incluso han animado a los educadores a utilizar la IA para documentos como los planes de clase.
Formación y diagnóstico de discapacidades
Los sistemas de IA también tienen potencial para apoyar la formación y el desarrollo profesional. Mi trabajo en desarrollo de personal combina diversas aplicaciones de IA con realidad virtual para que los profesionales puedan ensayar rutinas de instrucción antes de trabajar directamente con niños. En este caso, la IA puede funcionar como una extensión práctica de los modelos de formación existentes, ofreciendo práctica repetida y apoyo estructurado de maneras difíciles de mantener con personal limitado.
Algunos distritos han comenzado a utilizar IA para evaluaciones, que pueden incluir diversas evaluaciones académicas, cognitivas y médicas. Las aplicaciones de IA que combinan el reconocimiento automático de voz y el procesamiento del lenguaje se utilizan actualmente en evaluaciones de lectura oral por computadora para calificar las pruebas de capacidad lectora de los estudiantes.
Los profesionales a menudo tienen dificultades para comprender el volumen de datos que recopilan las escuelas. Las herramientas de aprendizaje automático basadas en IA también pueden ser útiles en este caso, al identificar patrones que podrían no ser inmediatamente visibles para los educadores, con fines de evaluación o toma de decisiones educativas. Este apoyo puede ser especialmente útil para diagnosticar discapacidades como el autismo o las dificultades de aprendizaje , donde el enmascaramiento, la presentación variable y los historiales incompletos pueden dificultar la interpretación. Mi investigación en curso muestra que la IA actual puede realizar predicciones basadas en datos que probablemente estén disponibles en algunos distritos.
Preocupaciones sobre la privacidad y la confianza
Existen serias cuestiones éticas y prácticas sobre estas intervenciones basadas en IA, que abarcan desde riesgos para la privacidad de los estudiantes hasta sesgos de las máquinas y problemas más profundos relacionados con la confianza familiar. Algunas se basan en la cuestión de si los sistemas de IA pueden prestar servicios que realmente cumplan con la legislación vigente.
La Ley de Educación para Personas con Discapacidades exige métodos no discriminatorios de evaluación de discapacidades para evitar la identificación inapropiada de estudiantes para servicios o la desatención de quienes califican . Asimismo, la Ley de Derechos Educativos y Privacidad Familiar protege explícitamente la privacidad de los datos de los estudiantes y el derecho de los padres a acceder y conservar los datos de sus hijos.
¿Qué ocurre si un sistema de IA utiliza datos o métodos sesgados para generar una recomendación para un niño? ¿Qué ocurre si un sistema de IA utiliza indebidamente o filtra los datos de un niño? El uso de sistemas de IA para realizar algunas de las funciones descritas anteriormente coloca a las familias en una posición en la que se espera que confíen no solo en su distrito escolar y su personal de educación especial, sino también en sistemas de IA comerciales, cuyo funcionamiento interno es en gran medida inescrutable.
Estas dudas éticas no son exclusivas de la educación especial ; muchas se han planteado en otros campos y han sido abordadas por quienes las adoptaron con anterioridad. Por ejemplo, si bien los sistemas de reconocimiento automático de voz (ASR) han tenido dificultades para evaluar con precisión el inglés acentuado, muchos proveedores ahora adaptan sus sistemas para que se adapten a acentos étnicos y regionales específicos.
Sin embargo, investigaciones en curso sugieren que algunos sistemas ASR tienen una capacidad limitada para adaptarse a las diferencias de habla asociadas con discapacidades, tener en cuenta el ruido en el aula y distinguir entre diferentes voces. Si bien estos problemas podrían solucionarse mediante mejoras técnicas en el futuro, actualmente son importantes.
Sesgo incrustado
A primera vista, los modelos de aprendizaje automático podrían parecer que mejoran la toma de decisiones clínicas tradicionales. Sin embargo, los modelos de IA deben entrenarse con datos existentes, lo que significa que sus decisiones podrían seguir reflejando sesgos arraigados en la identificación de discapacidades.
De hecho, las investigaciones han demostrado que los sistemas de IA se ven frecuentemente obstaculizados por sesgos tanto en los datos de entrenamiento como en el diseño del sistema. Los modelos de IA también pueden introducir nuevos sesgos, ya sea al omitir información sutil revelada durante las evaluaciones presenciales o al sobrerrepresentar las características de los grupos incluidos en los datos de entrenamiento.
Los defensores podrían argumentar que estas preocupaciones se abordan mediante salvaguardas ya incorporadas en la ley federal. Las familias tienen un margen considerable de libertad para acordar y pueden optar por alternativas, siempre que sean conscientes de que pueden dirigir el proceso del IEP .
De igual manera, el uso de herramientas de IA para crear PEI o lecciones puede parecer una mejora obvia respecto a planes poco desarrollados o superficiales. Sin embargo, una verdadera individualización requeriría introducir datos protegidos en grandes modelos lingüísticos, lo que podría infringir las normas de privacidad . Y si bien las aplicaciones de IA pueden generar fácilmente PEI y otros documentos con mejor aspecto, esto no necesariamente se traduce en mejores servicios.
Llenando el vacío
De hecho, aún no está claro si AI proporciona un nivel de atención equivalente al tratamiento convencional de alta calidad al que tienen derecho los niños con discapacidades según la ley federal.
En 2017, la Corte Suprema rechazó la idea de que la Ley de Educación para Personas con Discapacidades simplemente otorga a los estudiantes un progreso trivial y mínimo, lo que debilita una de las principales razones para impulsar la IA: que puede cumplir con un estándar mínimo de atención y práctica. Y dado que la IA no se ha evaluado empíricamente a gran escala, no se ha demostrado que cumpla adecuadamente con el requisito de simplemente mejorar más allá del statu quo deficiente.
Pero esto no cambia la realidad de los recursos limitados. Para bien o para mal, la IA ya se utiliza para cubrir la brecha entre lo que exige la ley y lo que el sistema realmente ofrece.
Fuente: Seth King / theconversation.com

