Mi cesta
Tu cesta está vacía, pero puedes añadir alguna de nuestras revistas o suscripciones.
Ver productosAquellas agencias que adopten la inteligencia artificial de forma responsable estarán mejor preparadas para garantizar una educación superior de alta calidad y relevancia en la era digital

19 de febrero de 2026 - 15min.
Avance
El autor analiza los beneficios y los riesgos de la aplicación de la inteligencia artificial en las agencias de calidad universitarias. Empieza por señalar que la IA tiene aplicaciones estratégicas en áreas como la optimización del flujo de trabajo y análisis de datos masivos, la auditoría de informes con procesamiento del lenguaje natural y la asistencia generativa en la elaboración de informes. Entre los beneficios, uno evidente es el de agilizar los procedimientos, reduciendo tiempos e iteraciones en los procesos evaluativos, además de la homogeneización y eliminación del sesgo humano y la toma de decisiones basadas en evidencias.
Sin embargo, el empleo de agentes de IA en las labores de aseguramiento de la calidad implica también una serie de desafíos que deben abordarse mediante una estrategia ética y regulatoria bien definida. Los principales desafíos están relacionados con el riesgo de sesgo algorítmico (perpetuación de discriminaciones), con la transparencia del sistema y con la posibilidad de que la IA pase de colaborador técnico necesario a sustituto del juicio experto humano.
Por otro lado, la rapidez con que se desarrolla la IA hace que sus innovaciones vayan por delante de los posibles marcos normativos. Por ello, las agencias de calidad deben elaborar directrices y regulaciones que aborden asuntos como la privacidad de los datos, la integridad académica y la responsabilidad en el uso de esa tecnología.
La Fundación para el Conocimiento madri+d, de la que el autor del artículo es director, ha desarrollado a este fin un proyecto piloto, cuya primera fase arroja ya una serie de conclusiones importantes. Estas tienen que ver, entre otros asuntos, con el almacenamiento de unos datos que crecen exponencialmente, con la seguridad ante las amenazas y con la transparencia y rendición de cuentas.
El autor concluye que «aquellas agencias de calidad que adopten la IA de forma responsable —priorizando la transparencia y manteniendo el juicio humano como ancla final— estarán mejor preparadas para garantizar una educación superior de alta calidad y relevancia en la era digital».
ArtÍculo
La integración de la inteligencia artificial (IA) y de agentes inteligentes (sistemas autónomos capaces de percibir, razonar y actuar) representa un cambio de paradigma en la gestión y el aseguramiento de la calidad de la educación superior. Este artículo explora la aplicación de estas tecnologías en las agencias de calidad universitarias, centrándose en su potencial para optimizar los procesos de evaluación y acreditación. Asimismo, se examinan los beneficios que la IA puede aportar en términos de eficiencia, objetividad y predictibilidad, junto con los desafíos críticos asociados, como las cuestiones éticas, el sesgo algorítmico y la necesidad de mantener el control y el juicio humano en dichos procesos.
Las agencias de aseguramiento de la calidad desempeñan un rol esencial en la fiabilidad del sistema de educación superior. Sus procesos tradicionales, aunque exhaustivos y respaldados por sólidos protocolos, a menudo resultan lentos, demandan gran cantidad de recursos y son susceptibles a la variabilidad del juicio personal. Sin embargo, la irrupción de la IA y de agentes inteligentes supone un punto de inflexión que estas instituciones deben abrazar para mantenerse pertinentes y eficaces en la era digital.
Así, la incorporación estratégica de herramientas de IA ofrece la oportunidad de agilizar los procedimientos, reduciendo tiempos e iteraciones en los procesos evaluativos.
Además, su capacidad para automatizar tareas rutinarias, homogeneizar la aplicación de criterios y eliminar sesgos humanos en el análisis de grandes volúmenes de datos promete elevar los estándares de calidad y la consistencia de las evaluaciones.
Los agentes de IA pueden incorporarse en diversos puntos clave del ciclo de aseguramiento de la calidad. A continuación, se identifican tres áreas fundamentales en las que estas herramientas ofrecen un impacto estratégico:
– Optimización del flujo de trabajo y análisis de datos masivos (Big Data): Mediante técnicas de machine learning y agentes inteligentes especializados en analítica de datos, las agencias pueden procesar y cruzar conjuntos de información a una escala inalcanzable para el análisis manual. Esto facilita la identificación de correlaciones complejas entre factores de gestión y resultados académicos, mejorando la base empírica de las evaluaciones.
– Auditoría de informes con procesamiento del lenguaje natural (PLN): Los agentes de IA basados en técnicas de PLN pueden revisar y auditar los informes de autoevaluación presentados por las instituciones. Estas herramientas clasifican las evidencias aportadas, detectan inconsistencias o vacíos de información y generan resúmenes ejecutivos. En consecuencia, se eliminan procesos administrativos redundantes y se libera tiempo de los evaluadores humanos para que puedan concentrarse en el análisis cualitativo y contextual.
– Asistencia generativa en la elaboración de informes: La incorporación de agentes de IA generativa puede apoyar a los equipos técnicos en la redacción de borradores de informes de evaluación y dictámenes. Estos sistemas contribuyen a asegurar la coherencia formal y el cumplimiento de las plantillas normativas de la agencia, reduciendo el número de iteraciones necesarias en la preparación de documentos. Cabe destacar que, pese a esta asistencia automatizada, la edición y validación finales permanecen bajo responsabilidad humana.
La adopción de agentes de IA conlleva beneficios tanto cuantitativos como cualitativos para el sistema de aseguramiento de la calidad. No solo moderniza los procedimientos, sino que mejora sus resultados, traduciéndose en ventajas tangibles tales como:
– Agilidad y reducción de tiempos: La automatización de tareas acorta y optimiza el ciclo de evaluación, a la vez que minimiza la dependencia de recursos humanos en labores rutinarias, acelerando los procesos sin comprometer el rigor.
– Homogeneización y eliminación del sesgo humano: La aplicación algorítmica de estándares de calidad garantiza una mayor consistencia entre distintas evaluaciones, al reducir la influencia de sesgos o subjetividades individuales en los dictámenes.
– Decisiones basadas en evidencia: El análisis avanzado de datos proporciona un soporte empírico sólido para la toma de decisiones. Esto fomenta la transparencia en los procesos y fortalece la confianza de la ciudadanía en las instituciones encargadas de la evaluación de la calidad educativa.tuciones encargadas de la evaluación de la calidad educativa.
La adopción de agentes de IA en las labores de aseguramiento de la calidad conlleva una serie de desafíos que deben abordarse mediante una estrategia ética y regulatoria bien definida. En especial, destacan tres aspectos esenciales que requieren atención para no comprometer la integridad del proceso evaluativo:
– Ética del algoritmo y sesgo: El principal desafío es el riesgo de sesgo algorítmico. Si los datos empleados para entrenar a los modelos de IA reflejan sesgos históricos (por ejemplo, en contrataciones o en el desempeño de ciertos grupos demográficos), la IA podría perpetuar o incluso amplificar discriminaciones sistémicas en la evaluación de programas o personal. Es imperativo realizar auditorías continuas de los algoritmos y depurar los datos de entrenamiento para mitigar estos sesgos, garantizando resultados justos y equitativos.
– Explicabilidad y transparencia del sistema: Es fundamental que los agentes de IA no operen como una «caja negra» inexplicable. Las agencias deben promover mecanismos de explicabilidad en los sistemas de IA utilizados, de modo que tanto las universidades evaluadas como los propios evaluadores humanos puedan comprender cómo y por qué la herramienta llega a determinadas conclusiones o recomendaciones.
– Principio de supervisión humana: La IA debe concebirse como un colaborador técnico, no como un sustituto del juicio experto. Si bien los agentes automatizados pueden ofrecer análisis y recomendaciones valiosos, la interpretación contextual, la valoración cualitativa y la decisión final sobre la calidad deben continuar bajo el control de evaluadores humanos.
Adicionalmente, el rápido desarrollo de la IA suele adelantarse a la creación de marcos normativos adecuados. Por ello, las agencias de calidad deberían liderar la elaboración de directrices y regulaciones claras que aborden aspectos como la privacidad de los datos, la integridad académica y la responsabilidad en el uso de IA. En paralelo, resulta esencial invertir en la capacitación de los evaluadores y del personal técnico en competencias digitales y en el uso ético de estas herramientas, asegurando así una adopción exitosa y responsable de la tecnología.
Como organización dedicada al conocimiento y en su rol de agencia de aseguramiento de la calidad universitaria, la Fundación para el Conocimiento madri+d se enfrenta a una serie de retos estructurales impulsados por la aceleración digital. Enfrentar dichos desafíos ha sido el motor que impulsa su estrategia de adopción de la IA, con el objetivo de convertir la creciente complejidad en una ventaja competitiva para el aseguramiento de la calidad universitaria.
En esta línea, la Fundación ha dado un primer paso mediante un proyecto piloto orientado a abordar este desafío tecnológico sin precedentes. Se inició así una fase de análisis y cocreación, crucial para establecer el punto de partida tecnológico de la institución y, a partir de ese diagnóstico, diseñar objetivos claros y alcanzables. En esta etapa inicial, el foco principal se puso en la gestión de datos y documental.
El objetivo fundamental de dicha fase no fue solo digitalizar los procesos existentes, sino construir una plataforma integrada que optimizase los flujos de trabajo y centralizase la información. Esta base tecnológica, diseñada con altos estándares de seguridad, facilita la explotación inteligente de los datos mediante herramientas de IA. Además, la nueva infraestructura tiene la flexibilidad necesaria para conectarse con los diversos repositorios de información de la Fundación, sentando así los cimientos para futuras implementaciones de agentes inteligentes.
Esta fase de análisis y cocreación permitió comprender mejor los retos estructurales de un entorno en rápida transformación, llegando a una serie de conclusiones que orientan los pasos a seguir:
– Crecimiento exponencial de los datos: La cantidad de información administrativa, académica y científica manejada ha aumentado de forma drástica. Este incremento exige soluciones eficaces para el
almacenamiento, la recuperación y una adecuada gobernanza de los datos.
– Democratización del acceso a la IA: La amplia disponibilidad de herramientas de inteligencia artificial ha transformado la forma de interactuar con la información. Es imperativo, por tanto, establecer políticas claras que maximicen el valor de la IA para el personal y minimicen sus riesgos asociados.
– Amenazas crecientes en ciberseguridad: Dada la sensibilidad de la información con la que se trabaja, se requieren medidas de protección robustas. Esto incluye implementar planes de recuperación ante de sastres, establecer una gestión granular de accesos y fomentar una conciencia continua del personal en materia de seguridad de la información.
– Computación en la nube y servicios distribuidos: La adopción de entornos de computación en la nube ha redefinido la gestión de infraestructuras tecnológicas. Ello exige incorporar nuevos paradigmas de seguridad, escalabilidad y eficiencia operativa para adaptarse a un entorno distribuido de servicios.
– Cultura de transparencia y rendición de cuentas: En su carácter de entidad pública, la Fundación debe garantizar la trazabilidad documental, el acceso controlado a la información y la protección de datos personales, cumpliendo estrictamente con las normativas de privacidad y con los esquemas nacionales de seguridad.
Estos retos delinean el marco en el que la IA se perfila como una herramienta esencial para lograr la modernización y la excelencia en la gestión de la calidad universitaria.
La actividad de aseguramiento de la calidad en las universidades abarca múltiples procesos. Toda titulación oficial (grado, máster o doctorado) debe verificarse antes de su implantación, someterse a un seguimiento periódico y renovar su acreditación tras un ciclo de seis años. A estos procesos que actúan sobre la calidad de los programas formativos, se suman otros procedimientos que evalúan la calidad de la docencia, la gestión de los centros y la actividad investigadora del profesorado, entre otros.
La gestión de todos estos trámites conlleva el uso de herramientas de naturaleza muy diversa: desde la mejora interna de procesos e integración de bases de datos dispersas, hasta la incorporación masiva de nuevos datos. Este esfuerzo administrativo recae no solo en las agencias de calidad, sino también en las propias universidades, que deben destinar recursos considerables para atender los requerimientos de evaluación y certificación.
La introducción de soluciones basadas en IA promete transformar significativamente esta dinámica. En particular, la inteligencia artificial permitirá una gestión plenamente integrada de los procesos, con visualizaciones claras y herramientas de apoyo a la toma de decisiones en plataformas de uso sencillo. Además, estos sistemas pueden configurarse para que, según se determine, los diferentes actores involucrados (universidades, evaluadores, gestores) accedan de forma segura y transparente a la información relevante en cada etapa del proceso.
En este contexto de modernización, la Fundación para el Conocimiento madri+d ha emprendido de forma decidida la incorporación progresiva de herramientas de IA. Dentro de sus competencias como agencia de calidad, ha puesto en marcha el proyecto DESMA, el cual en su fase inicial persigue dos objetivos principales: lograr una gestión totalmente integrada y asegurar la trazabilidad completa de todos los procesos de aseguramiento de la calidad.
El proyecto DESMA se ha organizado en dos líneas de actuación. La primera línea consiste en la automatización integral de toda la actividad de calidad universitaria y en la integración de los datos generados a lo largo de los diferentes procesos, conectando las diversas plataformas internas y externas existentes. La segunda línea de trabajo se centra específicamente en la fase de verificación de nuevos títulos oficiales, la etapa inicial y crítica para la implantación de titulaciones tanto en universidades públicas como privadas.
La implementación de estas medidas responde a la necesidad de reducir los plazos y las interacciones administrativas entre las universidades y la Fundación, a la vez que optimiza el trabajo de los evaluadores. Al automatizar las tareas de control cuantitativo, administrativo y de agregación de información (que hasta ahora se presentaban de forma disgregada), el sistema descarga a los expertos de esas labores mecánicas. De este modo, el evaluador humano puede concentrarse en los aspectos sustantivos de su labor —tales como la pertinencia de los objetivos formativos, los resultados de aprendizaje o la calidad del profesorado—.
La función de la IA, por tanto, no es sustituir al evaluador, sino acompañarlo como un «asistente virtual» que le brinda soporte avanzado. Estas herramientas son capaces de verificar información cuantitativa dispersa y aportar la perspectiva obtenida del análisis de cientos de informes previos. En definitiva, la IA refuerza la calidad y la coherencia de los informes finales y facilita la labor de los evaluadores humanos.
En fases posteriores del proyecto, y conforme se obtengan resultados y se apliquen procesos de mejora continua, está previsto desarrollar una herramienta que puedan utilizar voluntariamente las unidades de calidad de las universidades. Con esta herramienta, las instituciones podrían preevaluar sus propuestas de nuevos programas antes del procedimiento formal, comprobando de antemano si sus memorias están alineadas con los estándares y criterios de calidad exigidos tanto por el Espacio Europeo de Educación Superior como por las normativas nacionales y regionales. Este paso no solo aumentaría la eficiencia administrativa al disminuir iteraciones correctivas, sino que también marcaría un precedente en la aplicación práctica de la IA al proceso de garantía de calidad universitario.
La puesta en marcha de iniciativas como DESMA demuestra que la IA no solo automatiza tareas, sino que también puede replicar ciertos aspectos del razonamiento experto: identifica patrones en grandes volúmenes de información, detecta incoherencias, ambigüedades o sesgos, y genera informes que facilitan el trabajo tanto de los evaluadores como de las propias universidades. Con esta implantación, la Fundación avanza hacia procesos más ágiles, inteligentes y confiables, alineados con las exigencias del Espacio Europeo de Educación Superior. Sin embargo, es importante subrayar que los procesos de calidad —especialmente en el ámbito académico— tienen su esencia en la construcción de consensos expertos, lo cual sigue siendo, al menos hasta ahora, un patrimonio exclusivo de la inteligencia humana.
Mirando al futuro próximo, cabe preguntarse hasta dónde llegará la sinergia entre la inteligencia artificial y el aseguramiento de la calidad universitaria. Una visión prospectiva tan fascinante como polémica imagina un escenario en el que «una IA conversa con otra IA» durante el proceso de evaluación de un programa académico.
En esta hipotética situación, las universidades podrían emplear sistemas avanzados de IA para diseñar y redactar las propuestas de nuevos programas (memorias de titulación), las cuales serían posteriormente analizadas y evaluadas por otros agentes de IA pertenecientes a las agencias de acreditación. Gran parte del diálogo técnico —desde la justificación del plan de estudios hasta la comprobación de los criterios de calidad— ocurriría directamente entre algoritmos entrenados, con una intervención humana mínima en la fase operativa.
Las implicaciones de un futuro así serían notables. Por un lado, se agilizarían al máximo los procesos: unas cuantas IA intercambiando y corrigiendo documentación podrían, en teoría, acordar la acreditación de un nuevo título en cuestión de días o incluso horas. Además, este enfoque liberaría a profesores, gestores universitarios y evaluadores humanos de las tareas más mecánicas de redacción y análisis, permitiéndoles concentrarse en funciones de mayor valor añadido, tales como la definición de la visión estratégica de los programas, la innovación educativa o el seguimiento cualitativo del desempeño.
Por otro lado, este panorama despierta recelos comprensibles. Si bien resulta atractivo en términos de eficiencia, llevar el proceso al extremo de que la IA sustituya completamente a los expertos podría comprometer la esencia del juicio académico. Una cosa es emplear IA para depurar y enriquecer la información, y otra muy distinta es delegar en ella las decisiones de fondo sobre la calidad de un programa educativo.
Por ende, incluso si la tecnología llegara a permitir ese diálogo autónomo entre sistemas inteligentes, es previsible que las agencias mantengan —como principio innegociable— una supervisión humana final. Es decir, siempre habría especialistas monitoreando las entradas y salidas de cada IA, validando los acuerdos a los que lleguen estas herramientas y haciéndose cargo de aquellos aspectos cualitativos que las máquinas pudieran pasar por alto.
En cualquier caso, las tendencias actuales indican que la interacción entre IA y educación superior continuará profundizándose. Cabe esperar la aparición de sistemas cada vez más sofisticados, capaces de evaluar con cierto grado predictivo la calidad de propuestas educativas, o de realizar un seguimiento continuo de indicadores de desempeño en tiempo real con alertas tempranas gestionadas por IA. Asimismo, probablemente se fortalecerá la colaboración internacional para compartir buenas prácticas en el uso de IA en los procesos de acreditación, dado que muchos países muestran interés en aprovechar estas eficiencias. Lo fundamental será avanzar hacia ese futuro de forma responsable y ética, asegurando que la tecnología esté siempre al servicio de la calidad educativa, y no al revés.
La inteligencia artificial y sus agentes ofrecen una oportunidad única para modernizar y fortalecer el sistema de aseguramiento de la calidad universitaria, aportando beneficios innegables como la optimización de procesos, la capacidad predictiva y la reducción de sesgos humanos. Sin embargo, el éxito de su integración dependerá de un enfoque estratégico, ético y cuidadosamente planificado en su implementación. Aquellas agencias de calidad que adopten la IA de forma responsable —priorizando la transparencia y manteniendo el juicio humano como ancla final— estarán mejor preparadas para garantizar una educación superior de alta calidad y relevancia en la era digital.
Agradecimientos:
A José de la Sota y Rafael Llavori por sus valiosas sugerencias y por la revisión del manuscrito. A Jesús Bueno y Ángel García Crespo por la información facilitada sobre los proyectos de IA de la Fundación madri+d.
1. European University Association (EUA). (2023). Artificial Intelligence in European Universities: Opportunities, Challenges and Policy Implications. Brussels: EUA.
2. Fundación para el Conocimiento madri+d. (2025). Una IA hablando con otra IA. Gestión de la calidad universitaria. Curso Complutense de Verano, San Lorenzo de El Escorial, 2–4 de julio de 2025.
3. UNESCO. (2023). Guidance for Generative AI in Education and Research. Paris: UNESCO.