Transferir inteligencia artificial

Por qué la universidad no puede limitarse a publicar

Foto: © Shutterstock
Francisco Herrera

 

Avance

En la era de la inteligencia artificial (IA), la transferencia ha dejado de ser un capítulo administrativo y se ha convertido en un problema estructural que afecta a la misión universi­taria. No se trata solo de «llevar resultados» de la investiga­ción al mercado, es preciso ir un paso más allá: lograr que la aportación científica se convierta en capacidades reales en el tejido productivo, trenzado —en el contexto europeo— por pequeñas y medianas empresas (pymes). Y debe hacerlo la base de su potencial organizativo y su infraestructu­ra cognitiva, puesto que las pymes carecen de capacidades para incorporar la IA a sus procesos reales de trabajo.

Transferir IA implica actualmente «transferir competencias. Sin ellas, no hay adopción; solo experimentos aislados». Se trata de transformar conocimiento teórico en inteligencia operativa, esto es, convertir modelos abstractos en herramientas utiliza­bles e incorporar dimensiones éticas, legales y organizativas. Y la universidad está especialmente bien dotada, porque com­bina investigación técnica, reflexión normativa y formación de personas. Posee, además, un valor diferencial: no está sometida exclusivamente a lógicas de mercado; así como un bagaje de legitimidad pública, independencia relativa y capacidad de re­flexión a largo plazo. Junto al papel de mediadora, corresponde a la universidad la función de traductora normativa, dado que la IA confiable requiere interpretar marcos regulatorios com­plejos y convertirlos en prácticas viables. «Sin traducción, la norma se percibe como amenaza; con traducción, puede con­vertirse en ventaja competitiva». Sin olvidar otra decisiva apor­tación, la universidad puede actuar como garante de confianza, mediante prácticas de transparencia, evaluación independien­te y rendición de cuentas. Y todo ello con la capacidad probada de articular condiciones de soberanía operativa.

Es preciso comprender que la IA no es una tecnología más, sino que introduce una nueva infraestructura de deci­sión. Si la universidad se limita a observarla desde la distan­cia, solo con artículos, ránquines y reputación, otros actores ocuparán el espacio de la mediación, lo que ensanchará la brecha entre el conocimiento y su uso en la economía y redu­cirá la capacidad pública para orientar la digitalización.

ArtÍculo

La inteligencia artificial (IA) está transfor­mando no solo los procesos productivos, sino también las formas en que el conocimiento universitario se transfiere a la sociedad. En el contexto de la estrategia europea de digitali­zación de las pequeñas y medianas empresas (pymes) y del despliegue de una IA confia­ble, este ensayo sostiene que la universidad no puede limitarse a publicar resultados científicos. Debe asumir un papel activo en la transferencia de la IA como capacidad or­ganizativa, infraestructura cognitiva y respon­sabilidad pública; articulando además condiciones de soberanía operativa, modelos más pequeños, abiertos y adaptables, formando talento y criterio para su adopción. A partir de una reflexión sobre los límites del modelo clásico de transferencia, se analiza el papel de la univer­sidad como mediadora, traductora y garante de confianza en el ecosistema europeo de la IA.

Introducción: publicar ya no basta

Europa se encuentra hoy ante una paradoja cada vez más visible. Produce conocimiento científico de alto nivel en inteligencia artificial (IA), forma talento altamente cualifi­cado y lidera el debate internacional sobre los riesgos, los usos y la gobernanza de esta tecnología. Sin embargo, su tejido productivo, y de manera muy especial sus pymes, sigue encontrando enormes dificultades para incorporar la IA a sus procesos reales de trabajo. La distancia entre el conocimiento generado en la universidad y su uso efectivo en la economía no deja de ampliarse. Y no se cerrará sola.

Durante décadas, la universidad ha funcionado con una lógica estable: publicar para validar y transferir, en el mejor de los casos, mediante patentes, licencias o empre­sas derivadas. Fue eficaz en un contexto más lento; hoy resulta insuficiente.

La emergencia de la IA marca un punto de inflexión. A diferencia de otras tecnologías, la IA no es solo un objeto transferible ni un conjunto de técnicas avanzadas: es una infraestructura cognitiva que reorganiza procesos produc­tivos, formas de decisión, modelos de negocio y relacio­nes sociales. En estas condiciones, limitar la contribución universitaria a publicar reduce de forma significativa su capacidad para influir en cómo se usa —y en quién se beneficia— de la IA.

Esta tensión se manifiesta con especial claridad en Europa. La estrategia de digitalización de las pymes y el desarrollo de un marco de IA confiable sitúan a esta en el centro de la competitividad económica, pero también de la responsabilidad social. Sin embargo, la mayoría de las pequeñas y medianas empresas carecen de capacidades técnicas, organizativas y éticas para adoptar la IA de forma autónoma (Sánchez, Calderón y Herrera, 2025). Entre la producción académica y la adopción empresarial se abre así una brecha que no puede cerrarse únicamente con más publicaciones.

De ahí la tesis que guía este ensayo: en el contexto de la estrategia europea de digitalización de las pymes y de IA confiable, la universidad no puede limitarse a publicar conocimiento; debe aprender a transferir IA como capaci­dad, infraestructura y responsabilidad. No se trata solo de licenciar algoritmos o promover spin-offs, sino de actuar como mediadora institucional entre el conocimiento avan­zado, las necesidades productivas y los valores públicos que Europa pretende preservar.

Qué significa «Transferir IA» hoy

La IA no solo introduce nuevas herramientas; introduce una nueva lógica tecnológica que tensiona los modelos tradicionales de transferencia universitaria. Durante años, transferir conocimiento significaba identificar un resulta­do concreto, un método, un prototipo, una patente, y arti­cular mecanismos para su cesión o explotación. En el caso de la IA, este enfoque resulta insuficiente porque el valor no reside en un artefacto aislado, sino en un conjunto de capacidades interdependientes.

A diferencia de otras tecnologías, la IA no funciona de forma autónoma. Un algoritmo, por sofisticado que sea, carece de utilidad si no se integra en un entorno concreto de datos, procesos organizativos, infraestructuras técnicas y decisiones humanas. Por ello, la transferencia de IA no puede reducirse a la transmisión de un resultado formali­zado, sino que exige la construcción de condiciones de uso sostenidas en el tiempo.

Hablar de «transferir IA» exige abandonar algunas ca­tegorías tradicionales de la transferencia tecnológica. En primer lugar, porque aquella no se agota en resultados discretos; en segundo lugar, porque su valor no reside solo en la innovación técnica, sino en su integración or­ganizativa y social.

1. De resultados a capacidades

El modelo clásico de transferencia se ha centrado en resultados: artículos, patentes, prototipos. En el caso de la IA, este enfoque resulta insuficiente. Los algoritmos, por sí solos, tienen poco valor fuera de los entornos que los entrenan, los interpretan y los gobiernan. Lo que las or­ganizaciones necesitan no es tanto IA empaquetada como capacidades para desarrollar, adaptar y utilizar sistemas inteligentes de forma continuada.

Esto es especialmente relevante en entornos producti­vos complejos y cambiantes. Como muestran los estudios sobre adopción de IA en pymes, el principal obstáculo no es el acceso a la tecnología, sino la falta de capacidades internas para integrarla en procesos reales (Sánchez, Cal­derón y Herrera, 2025). Transferir IA implica, por tanto, transferir competencias. Sin ellas, no hay adopción; solo experimentos aislados.

Desde esta perspectiva, la universidad no transfiere solo conocimiento codificado, sino capacidad cognitiva ampliada. Esta idea conecta con propuestas recientes que entienden la IA como un nuevo tipo de agente organizati­vo o incluso como un actor con funciones cuasi-institucio­nales en los sistemas económicos (Moro-Visconti, 2025).

Desde una perspectiva económica, conviene recordar que la tecnología no tiene un único destino: puede orien­tarse a automatizar tareas humanas o a aumentar la pro­ductividad y el juicio de las personas en sus tareas (human augmentation). El marco de Acemoglu y Restrepo subraya que el impacto social depende de ese equilibrio: cuando predomina la automatización, aparecen efectos de despla­zamiento; cuando predominan la creación de nuevas ta­reas y la complementariedad, crece la capacidad colectiva para absorber la tecnología (Acemoglu y Restrepo, 2019). Esta distinción es crucial para la transferencia universita­ria: en pymes, transferir IA debería significar, en muchos casos, reforzar capacidades y no solo sustituir trabajo.

2. De patentes a infraestructuras

Un segundo desplazamiento clave es el paso de la ló­gica de la patente a la lógica de la infraestructura. En el ámbito de la IA, la protección de la propiedad intelectual es solo una parte del problema. La mayor parte del valor se genera en infraestructuras compartidas: datos, platafor­mas, modelos reutilizables, entornos de experimentación.

Los análisis recientes sobre patentes en IA muestran, de hecho, una creciente concentración de derechos en grandes actores tecnológicos, lo que limita la capacidad de las pymes para innovar de forma independiente (Pairo­lero y otros, 2025). En este contexto, la universidad puede desempeñar un papel estratégico no tanto como propieta­ria de patentes, sino como proveedora de infraestructuras abiertas, confiables y adaptadas a contextos locales.

Esta función infraestructural no es nueva en la historia universitaria. Laboratorios, bibliotecas y hospitales uni­versitarios han actuado tradicionalmente como bienes pú­blicos intermedios. La novedad consiste en extender esa lógica a la IA, entendida como infraestructura cognitiva: una infraestructura que requiere, por un lado, capacidad de cómputo suficiente —centros y recursos de compu­tación avanzada— como parte de una política científica orientada a la autonomía y la transferencia y, por otro, en­tornos compartidos de experimentación, evaluación y reu­tilización (datos, modelos abiertos, herramientas y soporte técnico) que permitan llevar la IA al tejido productivo con control, eficacia y responsabilidad.

3. De conocimiento codificado a inteligencia operativa

Finalmente, transferir IA implica transformar conoci­miento teórico en inteligencia operativa. Esto supone tra­ducir modelos abstractos en herramientas utilizables, pero también incorporar dimensiones éticas, legales y organi­zativas desde el inicio. Como señalan los trabajos sobre IA confiable, los principios éticos solo adquieren sentido cuando se integran en sistemas reales y en prácticas con­cretas (Díaz-Rodríguez y otros, 2023).

La universidad está especialmente bien posicionada para esta tarea, precisamente porque combina investiga­ción técnica, reflexión normativa y formación de personas. Pero para ello debe aceptar que transferir IA no es una ac­tividad marginal, sino una extensión natural de su misión en la sociedad digital.

Europa, IA confiable y el problema de las pymes

La estrategia europea en materia de IA se articula en torno a dos objetivos que, aunque coherentes en el plano norma­tivo, resultan difíciles de conciliar en la práctica: acelerar la adopción de la IA para reforzar la competitividad económica y garantizar, al mismo tiempo, que dicha adopción sea confiable, respetuosa con los derechos fundamentales y socialmente responsable. Esta doble exigencia sitúa a las pymes en una posición particularmente vulnerable.

Las pymes constituyen la columna vertebral de la eco­nomía europea. Sin embargo, su capacidad para incorpo­rar la IA sigue siendo limitada y desigual. La brecha de adopción no responde tanto a una falta de interés como a una ausencia de condiciones habilitantes. El problema no es tanto la voluntad como la arquitectura que condiciona la adopción.

La evidencia empírica reciente muestra que los princi­pales obstáculos son de naturaleza operativa: dificultades en el acceso y la calidad de los datos, escasez de com­petencias internas, limitaciones de infraestructura, resis­tencia cultural al cambio y debilidades en la gobernanza tecnológica (Sánchez, Calderón y Herrera, 2025). En este contexto, la IA aparece con frecuencia como una promesa reconocida, pero difícil de materializar.

Este diagnóstico tiene implicaciones directas para la transferencia universitaria. Las pymes europeas no nece­sitan, en primer lugar, modelos de IA de frontera ni so­luciones diseñadas para escalar globalmente. Necesitan herramientas comprensibles, adaptadas a su escala, a sus procesos y a su nivel de madurez digital. Cuando la trans­ferencia ignora estas condiciones, el resultado suele ser una innovación técnicamente sofisticada pero práctica­mente inaccesible.

El patrón es recurrente: la IA se introduce como pro­yecto piloto, pero no se consolida como capacidad organi­zativa. No se trata de fracasos aislados, sino de una diná­mica estructural que revela la falta de acompañamiento y de intermediación efectiva. Desde esta perspectiva, la transferencia no puede reducirse a la cesión de resultados, sino que debe concebirse como un proceso de traducción y adaptación sostenida.

A esta dificultad se añade el marco regulatorio europeo orientado a la IA confiable (AI Act, 2024). Los principios de transparencia, explicabilidad, equidad y responsabili­dad son centrales para el proyecto europeo, pero su im­plementación exige capacidades técnicas, organizativas y éticas que muchas pymes no poseen. Sin mediación, la regulación corre el riesgo de convertirse en un freno a la adopción, reforzando la brecha entre quienes pueden cumplirla y quienes quedan excluidos.

Los trabajos sobre IA responsable coinciden en que la ética no puede añadirse al final del proceso ni externali­zarse sin coste (Díaz-Rodríguez y otros, 2023). Requiere integración desde el diseño y acompañamiento continuo. Aquí emerge con claridad un espacio de intervención para la universidad, no como regulador ni como proveedor tec­nológico, sino como traductora institucional entre normas abstractas y prácticas empresariales concretas.

Esto no implica que la universidad deba replegarse ex­clusivamente sobre las pymes ni renunciar a su relación con las grandes empresas. Al contrario: en el ámbito de la IA, las grandes organizaciones siguen siendo socios fun­damentales para abordar retos situados en la frontera del conocimiento, desde el desarrollo de modelos avanzados hasta la exploración de aplicaciones de alto riesgo o alta complejidad. La diferencia es funcional: mientras que con las grandes empresas la universidad contribuye a empujar los límites tecnológicos, con las pymes su papel es decisi­vo para traducir la IA en capacidad productiva distribuida. Ambas dimensiones son necesarias, pero responden a ló­gicas distintas de transferencia.

El problema es que Europa carece todavía de suficien­tes intermediarios con legitimidad técnica y social para desempeñar esta función. Ni las consultoras tradicionales ni los grandes proveedores tecnológicos cubren adecua­damente este espacio, centrados como están en clientes de gran escala. Como señalan Grębosz-Krawczyk y Sowa (2025), la ausencia de intermediarios competentes consti­tuye uno de los principales obstáculos para la valorización efectiva del conocimiento científico. En el ámbito de la IA, esta carencia es aún más crítica.

Sin actores capaces de combinar conocimiento tecno­lógico, comprensión regulatoria y sensibilidad organizati­va, la estrategia europea de IA confiable corre el riesgo de quedarse en una buena declaración sin impacto real. En este escenario, la universidad no puede limitarse a produ­cir conocimiento avanzado: debe asumir un papel activo como mediadora y habilitadora, si se quiere que la IA se convierta en una capacidad real del tejido productivo eu­ropeo y no en un privilegio de unos pocos.

La universidad como infraestructura de confianza

Frente a este escenario, la universidad aparece como un actor singularmente bien situado para desempeñar un nuevo papel: no como proveedor tecnológico, sino como infraestructura de confianza en el ecosistema de la IA. No por vocación, sino por necesidad sistémica.

Es importante subrayar lo que la universidad no debe ser. No puede ni debe competir con las empresas tecnoló­gicas en el desarrollo de productos comerciales. Tampoco puede asumir el rol de consultora generalista. Su valor di­ferencial reside precisamente en no estar sometida exclu­sivamente a lógicas de mercado.

La universidad aporta algo que escasea en el ecosiste­ma de la IA: legitimidad pública, independencia relativa y capacidad de reflexión a largo plazo. Estas cualidades son esenciales en un contexto donde la confianza se ha con­vertido en un recurso crítico.

En primer lugar, la universidad puede actuar como mediadora entre el conocimiento avanzado y las nece­sidades de las pymes. Esto implica traducir conceptos complejos, adaptar soluciones a contextos específicos y acompañar procesos de adopción. No se trata de transferir «paquetes tecnológicos», sino de facilitar procesos de aprendizaje organizativo.

Las propuestas de hubs de transferencia de compe­tencias apoyados en IA ilustran bien esta función (Arya y otros, 2025). En Europa, este enfoque conecta con la lógica de los European Digital Innovation Hubs1. Estos es­pacios no son simples oficinas de transferencia, sino plataformas donde se combinan investigación, formación y experimentación conjunta.

En segundo lugar, la universidad puede desempeñar una función de traducción normativa. La IA confiable requiere interpretar marcos regulatorios complejos y convertirlos en prácticas viables. La universidad, con su capacidad de análisis jurídico, ético y técnico, puede ayudar a las pymes a navegar este entorno sin renunciar a la innovación.

Este papel traductor es especialmente relevante en un momento en que la regulación avanza más rápido que la capacidad de adaptación de muchas organizaciones. Sin traducción, la norma se percibe como amenaza; con tra­ducción, puede convertirse en ventaja competitiva.

Finalmente, la universidad puede actuar como garante de confianza. En un ecosistema donde la IA tiende a per­cibirse como opaca y concentrada, la presencia de insti­tuciones académicas en proyectos de transferencia aporta credibilidad. Esta confianza no es solo simbólica; se basa en prácticas de transparencia, evaluación independiente y rendición de cuentas.

Los estudios sobre transferencia tecnológica en con­textos de digitalización subrayan que la confianza es un factor clave para la colaboración sostenible (Sarala y otros, 2025). La universidad, por su naturaleza institucional, está en condiciones de ofrecerla. Si no lo hace, otros ocuparán ese espacio con criterios distintos.

Transferir IA es también transferir criterio

La IA desborda los modelos clásicos de transferencia porque introduce algo que no se puede licenciar: criterio. La adopción de la IA no depende únicamente de dispo­ner de herramientas adecuadas, sino de contar con per­sonas capaces de comprenderlas, evaluarlas y utilizarlas con sentido estratégico. En este contexto, la formación deja de ser un complemento para convertirse en un pilar central de la transferencia.

Las pymes europeas afrontan un doble desafío. Nece­sitan incorporar IA para mejorar su competitividad, pero carecen con frecuencia de los conocimientos necesarios para hacerlo de forma informada y responsable. La litera­tura reciente confirma que la falta de competencias inter­nas constituye uno de los principales frenos a la adopción de la IA, incluso cuando existen soluciones tecnológicas accesibles (Sánchez, Calderón y Herrera, 2025). Esto re­vela que transferir IA no puede entenderse como un acto puntual de cesión tecnológica, sino como un proceso de capacitación progresiva.

La universidad está especialmente bien posicionada para desempeñar este papel, no solo como formadora de especialistas, sino como agente de alfabetización avanza­da en IA. Transferir criterio implica ofrecer a las pymes marcos de comprensión que les permitan decidir cuándo, cómo y para qué utilizar la IA, así como evaluar riesgos, lí­mites y oportunidades. Esta función resulta especialmen­te relevante en el ámbito de la IA generativa, donde la apa­rente facilidad de uso puede ocultar riesgos significativos si no se dispone de criterio para interpretar resultados o gestionar datos sensibles.

En términos prácticos, esto equivale a promover usos de IA orientados a la complementariedad: herramientas que actúan como apoyo —copiloto, tutor o asistente— más que como sustituto del juicio humano, una intuición que Mollick populariza bajo la idea de «co-inteligencia» (Mollick, 2024).

Desde una perspectiva europea, esta concepción de la transferencia refuerza la idea de la universidad como infraestructura cognitiva y social, no solo tecnológica. Pu­blicar sigue siendo esencial, pero insuficiente. Transferir implica enseñar a usar, a evaluar y a decidir. En última instancia, el impacto de la IA no dependerá solo de la ca­lidad de los modelos desarrollados, sino de la capacidad colectiva para utilizarlos con sentido.

Transferir IA es, en última instancia, transferir crite­rio: saber cuándo usarla, cómo usarla y con qué límites. Sin ese criterio, no hay transferencia que genere impacto sostenible. Si la universidad no asume este papel, difícil­mente otros lo harán con los mismos criterios.

Más allá de la mediación y la confianza, el desplie­gue efectivo de la IA en el tejido productivo europeo plantea una cuestión adicional, menos visible pero de­cisiva: la de la soberanía operativa sobre las capacidades que se transfieren.

Soberanía operativa o soberanía funcional

En este nuevo escenario, la soberanía en IA adquiere un significado eminentemente práctico: para las pymes no consiste en «tener la mejor IA», sino en poder desplegar­la, adaptarla, auditarla y gobernarla sin una dependencia estructural de plataformas cerradas. Aquí, la universidad puede contribuir de forma decisiva articulando una sobe­ranía funcional basada en modelos fundacionales de IA generativa más pequeños, abiertos y adaptables, con hue­llas de cómputo y requisitos de datos más realistas para el tejido productivo, y con capacidad para integrarse como componentes en arquitecturas de IA agéntica orientadas a tareas (especialización por función, verificación, llamadas a herramientas, etc.).

Esta lógica small-first y modular está alineada con la idea de que los modelos de lenguaje pequeños pueden ser una pieza central para sistemas agénticos eficientes y desplegables, no un sucedáneo de los modelos fron­tera (Belcak y otros, 2025). A la vez, el debate técnico sobre agentes refuerza que una arquitectura basada en modelos especializados, con selección inteligente de componentes y control de costes y latencias, hace via­ble una adopción más amplia y sostenible en organiza­ciones con recursos limitados (Sharma & Mehta, 2025). Además, la expansión de la IA generativa en ámbitos tan diversos como la automatización de procesos, el apoyo a la toma de decisiones, la ingeniería del conocimiento o la interacción avanzada con usuarios finales —tal como documenta la literatura reciente sobre sus múltiples apli­caciones— refuerza la relevancia de este enfoque (Sen­gar y otros, 2025). En este sentido, apostar por modelos pequeños, abiertos y adaptables equivale a actuar como una infraestructura pública en el sentido más exigente del término: no como proveedor tecnológico, sino como garante de acceso, evaluación y reutilización de capaci­dades clave.

Entendida así, la función universitaria combina me­diación, traducción y garantía de confianza con la cons­trucción de una soberanía operativa en IA. Esta función incluye, de manera inseparable, la formación de talento altamente cualificado en IA: desde titulaciones de grado y máster especializados, hasta programas de formación transversal orientados a contextos disciplinares específi­cos. Incluye también la capacidad de formar investigado­res en estrecha colaboración con el tejido productivo, a través de esquemas como los doctorados industriales, don­de la generación de conocimiento y su aplicación avanza­da convergen. Sin esta infraestructura formativa, técnica, transversal y aplicada, la soberanía operativa carece de base real y la transferencia de IA queda reducida a episo­dios puntuales, difícilmente sostenibles.

De ahí que la universidad deba entender su papel no como el de un actor que entrega tecnología, sino como el de una infraestructura que hace posible su adopción responsable: una institución capaz de traducir el cono­cimiento en soluciones gobernables, de sostener entor­nos de prueba y verificación, de formar criterio en quie­nes deciden y de ofrecer marcos de confianza cuando el mercado empuja hacia cajas negras y dependencias difíciles de revertir.

Si Europa aspira a que la IA llegue de verdad al tejido productivo, y no solo a unos pocos campeones digitales, necesita universidades que operen como mediadoras y ga­rantes: que impulsen capacidades reutilizables, que reduz­can asimetrías de información y que anclen la innovación en reglas de responsabilidad, trazabilidad y evaluación. En ese marco, la transferencia deja de ser un «acto final» (li­cenciar, patentar, publicar) y pasa a ser una tarea sostenida de habilitación: convertir la IA en capacidad instalada, con gobernanza, con límites y con efectos verificables en las pymes y en el tejido productivo.

Conclusión: universidad o irrelevancia

Publicar sigue siendo esencial, pero ya no es suficiente. En la era de la IA, la transferencia deja de ser un capítulo administrativo y se convierte en un problema estructural que afecta a la misión universitaria. Porque lo que está en juego no es solo «llevar resultados» al mercado, sino lograr que el conocimiento se convierta en capacidades reales en el tejido productivo, especialmente allí donde más cuesta: en las pymes y en las organizaciones que no disponen de capacidad propia.

La IA no es una tecnología más: introduce una nueva infraestructura de decisión. Si la universidad se limita a observarla desde la distancia, produciendo artículos, rán­quines y reputación, otros actores ocuparán el espacio de la mediación, con sus incentivos y sus sesgos. El resultado es previsible: más brecha entre conocimiento y uso, y me­nos capacidad pública para orientar la digitalización.

Conviene moderar el determinismo tecnológico. Desde una perspectiva macro, Acemoglu (2025) recuerda que el impacto de la IA depende del tipo de tareas que transfor­ma y de cómo se reorganizan las organizaciones para apro­vecharla. Desde una perspectiva de crecimiento económi­co equilibrado, esto apunta a una prioridad clara: construir capacidad de adopción en el tejido productivo, aumentar las capacidades humanas, y no solo producir tecnología (Acemoglu, 2025).

Europa, además, ha elegido un camino exigente: quiere innovación, pero también IA confiable. Esa as­piración solo es viable si existen instituciones capaces de traducir normas en prácticas y de convertir potencia tecnológica en valor social. La universidad puede cum­plir ese papel, pero debe asumirlo como una función central: además de la formación de talento altamente cualificado, formar criterio, construir confianza, contri­buir a articular una soberanía operativa y acompañar la adopción. Esta función es complementaria de la cola­boración con grandes empresas en ámbitos de frontera, pero resulta insustituible cuando se trata de extender capacidades de IA más allá de los actores que ya dispo­nen de ellas.

En última instancia, la disyuntiva es simple: o la uni­versidad aprende a transferir IA, o acepta que otros deci­dan cómo se usa.


Referencias

Acemoglu, D., & Restrepo, P. (2019). Automation and new tasks: How technology displaces and reinstates labor. Journal of Economic Perspectives, 33(2), 3-30.

Acemoglu, D. (2025). The simple macroeconomics of AI. Economic Policy, 40(121), 13-58.

AI Act (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, https://eur-lex.europa.eu/eli/reg/2024/1689/oj

Arya, V., y otros (2025). AI-enhanced competency transfer hubs: a conceptual fra­mework for university-industry engagement and knowledge sharing. The Jour­nal of Technology Transfer. https://doi.org/10.1007/s10961-025-10233-7

Belcak, P., y otros. (2025). Small Language Models are the Future of Agentic AI. arXiv preprint arXiv:2506.02153.

Díaz-Rodríguez, y otros (2023). Connecting the dots in trustworthy Artificial In­telligence: From AI principles, ethics, and key requirements to responsible AI systems and regulation. Information Fusion, 99, 101896.

Grębosz-Krawczyk, M., & Sowa, M. (2025). Where is the social impact? Key ba­rriers to knowledge valorisation. Marketing of Scientific & Research Organiza­tions/Marketing Instytucji Naukowych i Badawczych, 55(1), 1-16.

Mollick, E. (2024). Co-Intelligence: Living and Working with AI. Portfolio/Penguin Random House.

Moro-Visconti, R. (2025). Is artificial intelligence a new stakeholding agent?. Hum.-Intell. Syst. Integr. https://doi.org/10.1007/s42454-025-00069-9

Pairolero, N. A. y otros. (2025). The artificial intelligence patent dataset (AIPD) 2023 update. The Journal of Technology Transfer, 50(5), 2587–2610.

Sánchez, E., Calderón, R., & Herrera, F. (2025). Artificial Intelligence Adoption in SMEs: Survey Based on TOE–DOI Framework, Primary Methodology and Challenges. Applied Sciences, 15(12), 6465.

Sarala, R. M., y otros (2025). The impact of digitalization and virtualization on tech­nology transfer in strategic collaborative partnerships. The Journal of Technology Transfer, 50(2), 399-416.

Sharma, R., & Mehta, M. (2025). Small Language Models for Agentic Systems: A Survey of Architectures, Capabilities, and Deployment Trade-offs. arXiv pre­print arXiv:2510.03847.

Sengar, S. S., y otros (2025). Generative artificial intelligence: a systematic review and applications. Multimedia Tools and Applications, 84(21), 23661-23700.


Nota

  1. https://digital-strategy.ec.europa.eu/en/policies/edihs ↩︎

Foto: © Shutterstock / Igor Link. El archivo se puede consultar aquí