Las agencias de calidad ante el reto de la inteligencia artificial

Aquellas agencias que adopten la inteligencia artificial de forma responsable estarán mejor preparadas para garantizar una educación superior de alta calidad y relevancia en la era digital

Foto: © Pixabay / franganillo
Federico Morán

 

Avance

El autor analiza los beneficios y los riesgos de la aplica­ción de la inteligencia artificial en las agencias de calidad universitarias. Empieza por señalar que la IA tiene apli­caciones estratégicas en áreas como la optimización del flujo de trabajo y análisis de datos masivos, la auditoría de informes con procesamiento del lenguaje natural y la asistencia generativa en la elaboración de informes. Entre los beneficios, uno evidente es el de agilizar los procedimientos, reduciendo tiempos e iteraciones en los proce­sos evaluativos, además de la homogeneización y elimina­ción del sesgo humano y la toma de decisiones basadas en evidencias.

Sin embargo, el empleo de agentes de IA en las la­bores de aseguramiento de la calidad implica también una serie de desafíos que deben abordarse mediante una estrategia ética y regulatoria bien definida. Los princi­pales desafíos están relacionados con el riesgo de sesgo algorítmico (perpetuación de discriminaciones), con la transparencia del sistema y con la posibilidad de que la IA pase de colaborador técnico necesario a sustituto del juicio experto humano.

Por otro lado, la rapidez con que se desarrolla la IA hace que sus innovaciones vayan por delante de los posibles marcos normativos. Por ello, las agencias de calidad deben elaborar directrices y regulaciones que aborden asuntos como la privacidad de los datos, la integridad académica y la responsabilidad en el uso de esa tecnología.

La Fundación para el Conocimiento madri+d, de la que el autor del artículo es director, ha desarrollado a este fin un proyecto piloto, cuya primera fase arroja ya una serie de conclusiones importantes. Estas tienen que ver, entre otros asuntos, con el almacenamiento de unos datos que crecen exponencialmente, con la seguridad ante las amenazas y con la transparencia y rendición de cuentas.

El autor concluye que «aquellas agencias de calidad que adopten la IA de forma responsable —priorizando la transparencia y manteniendo el juicio humano como ancla final— estarán mejor preparadas para garantizar una educación superior de alta calidad y relevancia en la era digital».

ArtÍculo

La integración de la inteligencia artificial (IA) y de agentes inteligentes (sistemas autónomos capaces de percibir, razonar y actuar) repre­senta un cambio de paradigma en la gestión y el aseguramiento de la calidad de la educación superior. Este artículo explora la aplicación de estas tecnologías en las agencias de calidad universitarias, centrándose en su potencial para optimizar los procesos de evaluación y acreditación. Asimismo, se examinan los bene­ficios que la IA puede aportar en términos de eficiencia, objetividad y predictibilidad, junto con los desafíos críticos asociados, como las cuestiones éticas, el sesgo algorítmico y la necesidad de mantener el control y el juicio humano en dichos procesos.

Las agencias de aseguramiento de la calidad desem­peñan un rol esencial en la fiabilidad del sistema de educación superior. Sus procesos tradicionales, aun­que exhaustivos y respaldados por sólidos protocolos, a menudo resultan lentos, demandan gran cantidad de recursos y son susceptibles a la variabilidad del juicio personal. Sin embargo, la irrupción de la IA y de agentes inteligentes supone un punto de inflexión que estas ins­tituciones deben abrazar para mantenerse pertinentes y eficaces en la era digital.

Así, la incorporación estratégica de herramientas de IA ofrece la oportunidad de agilizar los procedimientos, redu­ciendo tiempos e iteraciones en los procesos evaluativos.

Además, su capacidad para automatizar tareas rutinarias, homogeneizar la aplicación de criterios y eliminar sesgos humanos en el análisis de grandes volúmenes de datos promete elevar los estándares de calidad y la consistencia de las evaluaciones.

Aplicaciones estratégicas de la IA en las agencias de calidad

Los agentes de IA pueden incorporarse en diversos puntos clave del ciclo de aseguramiento de la calidad. A continua­ción, se identifican tres áreas fundamentales en las que estas herramientas ofrecen un impacto estratégico:

Optimización del flujo de trabajo y análisis de datos masivos (Big Data): Mediante técnicas de machine learning y agentes inteligentes especializados en ana­lítica de datos, las agencias pueden procesar y cruzar conjuntos de información a una escala inalcanzable para el análisis manual. Esto facilita la identificación de correlaciones complejas entre factores de gestión y resultados académicos, mejorando la base empíri­ca de las evaluaciones.

Auditoría de informes con procesamiento del lenguaje natural (PLN): Los agentes de IA basados en técni­cas de PLN pueden revisar y auditar los informes de autoevaluación presentados por las institucio­nes. Estas herramientas clasifican las evidencias aportadas, detectan inconsistencias o vacíos de información y generan resúmenes ejecutivos. En consecuencia, se eliminan procesos administrativos redundantes y se libera tiempo de los evaluadores humanos para que puedan concentrarse en el análi­sis cualitativo y contextual.

Asistencia generativa en la elaboración de informes: La incorporación de agentes de IA generativa pue­de apoyar a los equipos técnicos en la redacción de borradores de informes de evaluación y dictáme­nes. Estos sistemas contribuyen a asegurar la co­herencia formal y el cumplimiento de las plantillas normativas de la agencia, reduciendo el número de iteraciones necesarias en la preparación de docu­mentos. Cabe destacar que, pese a esta asistencia automatizada, la edición y validación finales per­manecen bajo responsabilidad humana.

Beneficios potenciales de la IA en la evaluación de la calidad

La adopción de agentes de IA conlleva beneficios tanto cuantitativos como cualitativos para el sistema de asegura­miento de la calidad. No solo moderniza los procedimien­tos, sino que mejora sus resultados, traduciéndose en ven­tajas tangibles tales como:

Agilidad y reducción de tiempos: La automatización de tareas acorta y optimiza el ciclo de evaluación, a la vez que minimiza la dependencia de recursos hu­manos en labores rutinarias, acelerando los procesos sin comprometer el rigor.

Homogeneización y eliminación del sesgo humano: La aplicación algorítmica de estándares de calidad ga­rantiza una mayor consistencia entre distintas eva­luaciones, al reducir la influencia de sesgos o subje­tividades individuales en los dictámenes.

Decisiones basadas en evidencia: El análisis avanza­do de datos proporciona un soporte empírico sólido para la toma de decisiones. Esto fomenta la trans­parencia en los procesos y fortalece la confianza de la ciudadanía en las instituciones encargadas de la evaluación de la calidad educativa.tuciones encargadas de la evaluación de la calidad educativa.

Desafíos críticos y consideraciones éticas

La adopción de agentes de IA en las labores de asegura­miento de la calidad conlleva una serie de desafíos que deben abordarse mediante una estrategia ética y regula­toria bien definida. En especial, destacan tres aspectos esenciales que requieren atención para no comprometer la integridad del proceso evaluativo:

Ética del algoritmo y sesgo: El principal desafío es el riesgo de sesgo algorítmico. Si los datos empleados para entrenar a los modelos de IA reflejan sesgos históricos (por ejemplo, en contrataciones o en el desempeño de ciertos grupos demográficos), la IA podría perpetuar o incluso amplificar discriminaciones sistémicas en la evaluación de programas o personal. Es imperativo realizar auditorías continuas de los algoritmos y depurar los datos de entrenamiento para mitigar estos sesgos, garantizando resultados justos y equitativos.

Explicabilidad y transparencia del sistema: Es fundamental que los agentes de IA no operen como una «caja negra» inexplicable. Las agencias deben promover mecanismos de explicabilidad en los sistemas de IA utilizados, de modo que tanto las universidades evaluadas como los propios evaluadores humanos puedan comprender cómo y por qué la herramienta llega a determinadas conclusiones o recomendaciones.

Principio de supervisión humana: La IA debe conce­birse como un colaborador técnico, no como un sus­tituto del juicio experto. Si bien los agentes automa­tizados pueden ofrecer análisis y recomendaciones valiosos, la interpretación contextual, la valoración cualitativa y la decisión final sobre la calidad deben continuar bajo el control de evaluadores humanos.

Adicionalmente, el rápido desarrollo de la IA suele ade­lantarse a la creación de marcos normativos adecuados. Por ello, las agencias de calidad deberían liderar la elaboración de directrices y regulaciones claras que aborden aspectos como la privacidad de los datos, la integridad académica y la responsabilidad en el uso de IA. En paralelo, resulta esencial invertir en la capacitación de los evaluadores y del personal técnico en competencias digitales y en el uso ético de estas herramientas, asegurando así una adopción exitosa y responsable de la tecnología.

La experiencia de la Fundación para el Conocimiento Madri+d

Como organización dedicada al conocimiento y en su rol de agencia de aseguramiento de la calidad universitaria, la Fundación para el Conocimiento madri+d se enfren­ta a una serie de retos estructurales impulsados por la aceleración digital. Enfrentar dichos desafíos ha sido el motor que impulsa su estrategia de adopción de la IA, con el objetivo de convertir la creciente complejidad en una ventaja competitiva para el aseguramiento de la ca­lidad universitaria.

En esta línea, la Fundación ha dado un primer paso mediante un proyecto piloto orientado a abordar este de­safío tecnológico sin precedentes. Se inició así una fase de análisis y cocreación, crucial para establecer el punto de partida tecnológico de la institución y, a partir de ese diagnóstico, diseñar objetivos claros y alcanzables. En esta etapa inicial, el foco principal se puso en la gestión de datos y documental.

El objetivo fundamental de dicha fase no fue solo digitalizar los procesos existentes, sino construir una plataforma integrada que optimizase los flujos de traba­jo y centralizase la información. Esta base tecnológica, diseñada con altos estándares de seguridad, facilita la explotación inteligente de los datos mediante herra­mientas de IA. Además, la nueva infraestructura tiene la flexibilidad necesaria para conectarse con los diver­sos repositorios de información de la Fundación, sen­tando así los cimientos para futuras implementaciones de agentes inteligentes.

Esta fase de análisis y cocreación permitió compren­der mejor los retos estructurales de un entorno en rápida transformación, llegando a una serie de conclusiones que orientan los pasos a seguir:

Crecimiento exponencial de los datos: La cantidad de información administrativa, académica y científica manejada ha aumentado de forma drástica. Este incremento exige soluciones eficaces para el
almacenamiento, la recuperación y una adecuada gobernanza de los datos.

– Democratización del acceso a la IA: La amplia disponibilidad de herramientas de inteligencia artificial ha transformado la forma de interactuar con la información. Es imperativo, por tanto, establecer políticas claras que maximicen el valor de la IA para el personal y minimicen sus riesgos asociados.

Amenazas crecientes en ciberseguridad: Dada la sensibilidad de la información con la que se trabaja, se requieren medidas de protección robustas. Esto incluye implementar planes de recuperación ante de sastres, establecer una gestión granular de accesos y fomentar una conciencia continua del personal en materia de seguridad de la información.

Computación en la nube y servicios distribuidos: La adopción de entornos de computación en la nube ha redefinido la gestión de infraestructuras tecnológicas. Ello exige incorporar nuevos paradigmas de seguridad, escalabilidad y eficiencia operativa para adaptarse a un entorno distribuido de servicios.

Cultura de transparencia y rendición de cuentas: En su carácter de entidad pública, la Fundación debe garantizar la trazabilidad documental, el acceso controlado a la información y la protección de datos personales, cumpliendo estrictamente con las normativas de privacidad y con los esquemas nacionales de seguridad.

Estos retos delinean el marco en el que la IA se per­fila como una herramienta esencial para lograr la mo­dernización y la excelencia en la gestión de la calidad universitaria.  

Proyecto DESMA: cómo integrar la inteligencia artificial en los procesos de calidad universitaria

La actividad de aseguramiento de la calidad en las uni­versidades abarca múltiples procesos. Toda titulación ofi­cial (grado, máster o doctorado) debe verificarse antes de su implantación, someterse a un seguimiento periódico y renovar su acreditación tras un ciclo de seis años. A estos procesos que actúan sobre la calidad de los programas formativos, se suman otros procedimientos que evalúan la calidad de la docencia, la gestión de los centros y la activi­dad investigadora del profesorado, entre otros.

La gestión de todos estos trámites conlleva el uso de herramientas de naturaleza muy diversa: desde la mejora interna de procesos e integración de bases de datos disper­sas, hasta la incorporación masiva de nuevos datos. Este esfuerzo administrativo recae no solo en las agencias de calidad, sino también en las propias universidades, que deben destinar recursos considerables para atender los re­querimientos de evaluación y certificación.

La introducción de soluciones basadas en IA promete transformar significativamente esta dinámica. En parti­cular, la inteligencia artificial permitirá una gestión ple­namente integrada de los procesos, con visualizaciones claras y herramientas de apoyo a la toma de decisiones en plataformas de uso sencillo. Además, estos sistemas pueden configurarse para que, según se determine, los di­ferentes actores involucrados (universidades, evaluadores, gestores) accedan de forma segura y transparente a la in­formación relevante en cada etapa del proceso.

En este contexto de modernización, la Fundación para el Conocimiento madri+d ha emprendido de forma deci­dida la incorporación progresiva de herramientas de IA. Dentro de sus competencias como agencia de calidad, ha puesto en marcha el proyecto DESMA, el cual en su fase inicial persigue dos objetivos principales: lograr una ges­tión totalmente integrada y asegurar la trazabilidad com­pleta de todos los procesos de aseguramiento de la calidad.

El proyecto DESMA se ha organizado en dos líneas de actuación. La primera línea consiste en la automatiza­ción integral de toda la actividad de calidad universitaria y en la integración de los datos generados a lo largo de los diferentes procesos, conectando las diversas plataformas internas y externas existentes. La segunda línea de traba­jo se centra específicamente en la fase de verificación de nuevos títulos oficiales, la etapa inicial y crítica para la implantación de titulaciones tanto en universidades pú­blicas como privadas.

La implementación de estas medidas responde a la necesidad de reducir los plazos y las interacciones ad­ministrativas entre las universidades y la Fundación, a la vez que optimiza el trabajo de los evaluadores. Al au­tomatizar las tareas de control cuantitativo, administrativo y de agregación de información (que hasta ahora se presentaban de forma disgregada), el sistema descarga a los expertos de esas labores mecánicas. De este modo, el evaluador humano puede concentrarse en los aspectos sustantivos de su labor —tales como la pertinencia de los objetivos formativos, los resultados de aprendizaje o la calidad del profesorado—.

La función de la IA, por tanto, no es sustituir al evalua­dor, sino acompañarlo como un «asistente virtual» que le brinda soporte avanzado. Estas herramientas son capaces de verificar información cuantitativa dispersa y aportar la perspectiva obtenida del análisis de cientos de informes previos. En definitiva, la IA refuerza la calidad y la co­herencia de los informes finales y facilita la labor de los evaluadores humanos.

En fases posteriores del proyecto, y conforme se obtengan resultados y se apliquen procesos de mejora continua, está previsto desarrollar una herramienta que puedan utilizar voluntariamente las unidades de calidad de las universidades. Con esta herramienta, las institu­ciones podrían preevaluar sus propuestas de nuevos pro­gramas antes del procedimiento formal, comprobando de antemano si sus memorias están alineadas con los están­dares y criterios de calidad exigidos tanto por el Espacio Europeo de Educación Superior como por las normativas nacionales y regionales. Este paso no solo aumentaría la eficiencia administrativa al disminuir iteraciones co­rrectivas, sino que también marcaría un precedente en la aplicación práctica de la IA al proceso de garantía de calidad universitario.

La puesta en marcha de iniciativas como DESMA demuestra que la IA no solo automatiza tareas, sino que también puede replicar ciertos aspectos del razonamien­to experto: identifica patrones en grandes volúmenes de información, detecta incoherencias, ambigüedades o ses­gos, y genera informes que facilitan el trabajo tanto de los evaluadores como de las propias universidades. Con esta implantación, la Fundación avanza hacia procesos más ágiles, inteligentes y confiables, alineados con las exi­gencias del Espacio Europeo de Educación Superior. Sin embargo, es importante subrayar que los procesos de cali­dad —especialmente en el ámbito académico— tienen su esencia en la construcción de consensos expertos, lo cual sigue siendo, al menos hasta ahora, un patrimonio exclusi­vo de la inteligencia humana.

Perspectivas futuras:¿Una IA evaluando a otra IA?

Mirando al futuro próximo, cabe preguntarse hasta dónde llegará la sinergia entre la inteligencia artificial y el asegu­ramiento de la calidad universitaria. Una visión prospecti­va tan fascinante como polémica imagina un escenario en el que «una IA conversa con otra IA» durante el proceso de evaluación de un programa académico.

En esta hipotética situación, las universidades podrían emplear sistemas avanzados de IA para diseñar y redactar las propuestas de nuevos programas (memorias de titula­ción), las cuales serían posteriormente analizadas y evalua­das por otros agentes de IA pertenecientes a las agencias de acreditación. Gran parte del diálogo técnico —desde la justificación del plan de estudios hasta la comprobación de los criterios de calidad— ocurriría directamente entre algoritmos entrenados, con una intervención humana mí­nima en la fase operativa.

Las implicaciones de un futuro así serían notables. Por un lado, se agilizarían al máximo los procesos: unas cuan­tas IA intercambiando y corrigiendo documentación po­drían, en teoría, acordar la acreditación de un nuevo título en cuestión de días o incluso horas. Además, este enfoque liberaría a profesores, gestores universitarios y evaluado­res humanos de las tareas más mecánicas de redacción y análisis, permitiéndoles concentrarse en funciones de mayor valor añadido, tales como la definición de la visión estratégica de los programas, la innovación educativa o el seguimiento cualitativo del desempeño.

Por otro lado, este panorama despierta recelos com­prensibles. Si bien resulta atractivo en términos de efi­ciencia, llevar el proceso al extremo de que la IA sustitu­ya completamente a los expertos podría comprometer la esencia del juicio académico. Una cosa es emplear IA para depurar y enriquecer la información, y otra muy distinta es delegar en ella las decisiones de fondo sobre la calidad de un programa educativo.

Por ende, incluso si la tecnología llegara a permitir ese diálogo autónomo entre sistemas inteligentes, es previsi­ble que las agencias mantengan —como principio innego­ciable— una supervisión humana final. Es decir, siempre habría especialistas monitoreando las entradas y salidas de cada IA, validando los acuerdos a los que lleguen estas he­rramientas y haciéndose cargo de aquellos aspectos cuali­tativos que las máquinas pudieran pasar por alto.

En cualquier caso, las tendencias actuales indican que la interacción entre IA y educación superior continuará profundizándose. Cabe esperar la aparición de sistemas cada vez más sofisticados, capaces de evaluar con cierto grado predictivo la calidad de propuestas educativas, o de realizar un seguimiento continuo de indicadores de desempeño en tiempo real con alertas tempranas gestio­nadas por IA. Asimismo, probablemente se fortalecerá la colaboración internacional para compartir buenas prác­ticas en el uso de IA en los procesos de acreditación, dado que muchos países muestran interés en aprovechar estas eficiencias. Lo fundamental será avanzar hacia ese futuro de forma responsable y ética, asegurando que la tecnología esté siempre al servicio de la calidad educati­va, y no al revés.

Conclusión

La inteligencia artificial y sus agentes ofrecen una opor­tunidad única para modernizar y fortalecer el sistema de aseguramiento de la calidad universitaria, aportando beneficios innegables como la optimización de proce­sos, la capacidad predictiva y la reducción de sesgos hu­manos. Sin embargo, el éxito de su integración depen­derá de un enfoque estratégico, ético y cuidadosamente planificado en su implementación. Aquellas agencias de calidad que adopten la IA de forma responsable —priorizando la transparencia y manteniendo el juicio humano como ancla final— estarán mejor preparadas para garantizar una educación superior de alta calidad y relevancia en la era digital.

Agradecimientos:

A José de la Sota y Rafael Llavori por sus valiosas sugerencias y por la revisión del manuscrito. A Jesús Bueno y Ángel García Crespo por la información facilitada sobre los proyectos de IA de la Fundación madri+d.

Referencias

1. European University Association (EUA). (2023). Artificial Intelligence in Eu­ropean Universities: Opportunities, Challenges and Policy Implications. Brussels: EUA.

2. Fundación para el Conocimiento madri+d. (2025). Una IA hablando con otra IA. Gestión de la calidad universitaria. Curso Complutense de Verano, San Lo­renzo de El Escorial, 2–4 de julio de 2025.

3. UNESCO. (2023). Guidance for Generative AI in Education and Research. Pa­ris: UNESCO.