Mi cesta
Tu cesta está vacía, pero puedes añadir alguna de nuestras revistas o suscripciones.
Ver productosPor qué la universidad no puede limitarse a publicar

23 de febrero de 2026 - 20min.
Avance
En la era de la inteligencia artificial (IA), la transferencia ha dejado de ser un capítulo administrativo y se ha convertido en un problema estructural que afecta a la misión universitaria. No se trata solo de «llevar resultados» de la investigación al mercado, es preciso ir un paso más allá: lograr que la aportación científica se convierta en capacidades reales en el tejido productivo, trenzado —en el contexto europeo— por pequeñas y medianas empresas (pymes). Y debe hacerlo la base de su potencial organizativo y su infraestructura cognitiva, puesto que las pymes carecen de capacidades para incorporar la IA a sus procesos reales de trabajo.
Transferir IA implica actualmente «transferir competencias. Sin ellas, no hay adopción; solo experimentos aislados». Se trata de transformar conocimiento teórico en inteligencia operativa, esto es, convertir modelos abstractos en herramientas utilizables e incorporar dimensiones éticas, legales y organizativas. Y la universidad está especialmente bien dotada, porque combina investigación técnica, reflexión normativa y formación de personas. Posee, además, un valor diferencial: no está sometida exclusivamente a lógicas de mercado; así como un bagaje de legitimidad pública, independencia relativa y capacidad de reflexión a largo plazo. Junto al papel de mediadora, corresponde a la universidad la función de traductora normativa, dado que la IA confiable requiere interpretar marcos regulatorios complejos y convertirlos en prácticas viables. «Sin traducción, la norma se percibe como amenaza; con traducción, puede convertirse en ventaja competitiva». Sin olvidar otra decisiva aportación, la universidad puede actuar como garante de confianza, mediante prácticas de transparencia, evaluación independiente y rendición de cuentas. Y todo ello con la capacidad probada de articular condiciones de soberanía operativa.
Es preciso comprender que la IA no es una tecnología más, sino que introduce una nueva infraestructura de decisión. Si la universidad se limita a observarla desde la distancia, solo con artículos, ránquines y reputación, otros actores ocuparán el espacio de la mediación, lo que ensanchará la brecha entre el conocimiento y su uso en la economía y reducirá la capacidad pública para orientar la digitalización.
ArtÍculo
La inteligencia artificial (IA) está transformando no solo los procesos productivos, sino también las formas en que el conocimiento universitario se transfiere a la sociedad. En el contexto de la estrategia europea de digitalización de las pequeñas y medianas empresas (pymes) y del despliegue de una IA confiable, este ensayo sostiene que la universidad no puede limitarse a publicar resultados científicos. Debe asumir un papel activo en la transferencia de la IA como capacidad organizativa, infraestructura cognitiva y responsabilidad pública; articulando además condiciones de soberanía operativa, modelos más pequeños, abiertos y adaptables, formando talento y criterio para su adopción. A partir de una reflexión sobre los límites del modelo clásico de transferencia, se analiza el papel de la universidad como mediadora, traductora y garante de confianza en el ecosistema europeo de la IA.
Europa se encuentra hoy ante una paradoja cada vez más visible. Produce conocimiento científico de alto nivel en inteligencia artificial (IA), forma talento altamente cualificado y lidera el debate internacional sobre los riesgos, los usos y la gobernanza de esta tecnología. Sin embargo, su tejido productivo, y de manera muy especial sus pymes, sigue encontrando enormes dificultades para incorporar la IA a sus procesos reales de trabajo. La distancia entre el conocimiento generado en la universidad y su uso efectivo en la economía no deja de ampliarse. Y no se cerrará sola.
Durante décadas, la universidad ha funcionado con una lógica estable: publicar para validar y transferir, en el mejor de los casos, mediante patentes, licencias o empresas derivadas. Fue eficaz en un contexto más lento; hoy resulta insuficiente.
La emergencia de la IA marca un punto de inflexión. A diferencia de otras tecnologías, la IA no es solo un objeto transferible ni un conjunto de técnicas avanzadas: es una infraestructura cognitiva que reorganiza procesos productivos, formas de decisión, modelos de negocio y relaciones sociales. En estas condiciones, limitar la contribución universitaria a publicar reduce de forma significativa su capacidad para influir en cómo se usa —y en quién se beneficia— de la IA.
Esta tensión se manifiesta con especial claridad en Europa. La estrategia de digitalización de las pymes y el desarrollo de un marco de IA confiable sitúan a esta en el centro de la competitividad económica, pero también de la responsabilidad social. Sin embargo, la mayoría de las pequeñas y medianas empresas carecen de capacidades técnicas, organizativas y éticas para adoptar la IA de forma autónoma (Sánchez, Calderón y Herrera, 2025). Entre la producción académica y la adopción empresarial se abre así una brecha que no puede cerrarse únicamente con más publicaciones.
De ahí la tesis que guía este ensayo: en el contexto de la estrategia europea de digitalización de las pymes y de IA confiable, la universidad no puede limitarse a publicar conocimiento; debe aprender a transferir IA como capacidad, infraestructura y responsabilidad. No se trata solo de licenciar algoritmos o promover spin-offs, sino de actuar como mediadora institucional entre el conocimiento avanzado, las necesidades productivas y los valores públicos que Europa pretende preservar.
La IA no solo introduce nuevas herramientas; introduce una nueva lógica tecnológica que tensiona los modelos tradicionales de transferencia universitaria. Durante años, transferir conocimiento significaba identificar un resultado concreto, un método, un prototipo, una patente, y articular mecanismos para su cesión o explotación. En el caso de la IA, este enfoque resulta insuficiente porque el valor no reside en un artefacto aislado, sino en un conjunto de capacidades interdependientes.
A diferencia de otras tecnologías, la IA no funciona de forma autónoma. Un algoritmo, por sofisticado que sea, carece de utilidad si no se integra en un entorno concreto de datos, procesos organizativos, infraestructuras técnicas y decisiones humanas. Por ello, la transferencia de IA no puede reducirse a la transmisión de un resultado formalizado, sino que exige la construcción de condiciones de uso sostenidas en el tiempo.
Hablar de «transferir IA» exige abandonar algunas categorías tradicionales de la transferencia tecnológica. En primer lugar, porque aquella no se agota en resultados discretos; en segundo lugar, porque su valor no reside solo en la innovación técnica, sino en su integración organizativa y social.
1. De resultados a capacidades
El modelo clásico de transferencia se ha centrado en resultados: artículos, patentes, prototipos. En el caso de la IA, este enfoque resulta insuficiente. Los algoritmos, por sí solos, tienen poco valor fuera de los entornos que los entrenan, los interpretan y los gobiernan. Lo que las organizaciones necesitan no es tanto IA empaquetada como capacidades para desarrollar, adaptar y utilizar sistemas inteligentes de forma continuada.
Esto es especialmente relevante en entornos productivos complejos y cambiantes. Como muestran los estudios sobre adopción de IA en pymes, el principal obstáculo no es el acceso a la tecnología, sino la falta de capacidades internas para integrarla en procesos reales (Sánchez, Calderón y Herrera, 2025). Transferir IA implica, por tanto, transferir competencias. Sin ellas, no hay adopción; solo experimentos aislados.
Desde esta perspectiva, la universidad no transfiere solo conocimiento codificado, sino capacidad cognitiva ampliada. Esta idea conecta con propuestas recientes que entienden la IA como un nuevo tipo de agente organizativo o incluso como un actor con funciones cuasi-institucionales en los sistemas económicos (Moro-Visconti, 2025).
Desde una perspectiva económica, conviene recordar que la tecnología no tiene un único destino: puede orientarse a automatizar tareas humanas o a aumentar la productividad y el juicio de las personas en sus tareas (human augmentation). El marco de Acemoglu y Restrepo subraya que el impacto social depende de ese equilibrio: cuando predomina la automatización, aparecen efectos de desplazamiento; cuando predominan la creación de nuevas tareas y la complementariedad, crece la capacidad colectiva para absorber la tecnología (Acemoglu y Restrepo, 2019). Esta distinción es crucial para la transferencia universitaria: en pymes, transferir IA debería significar, en muchos casos, reforzar capacidades y no solo sustituir trabajo.
2. De patentes a infraestructuras
Un segundo desplazamiento clave es el paso de la lógica de la patente a la lógica de la infraestructura. En el ámbito de la IA, la protección de la propiedad intelectual es solo una parte del problema. La mayor parte del valor se genera en infraestructuras compartidas: datos, plataformas, modelos reutilizables, entornos de experimentación.
Los análisis recientes sobre patentes en IA muestran, de hecho, una creciente concentración de derechos en grandes actores tecnológicos, lo que limita la capacidad de las pymes para innovar de forma independiente (Pairolero y otros, 2025). En este contexto, la universidad puede desempeñar un papel estratégico no tanto como propietaria de patentes, sino como proveedora de infraestructuras abiertas, confiables y adaptadas a contextos locales.
Esta función infraestructural no es nueva en la historia universitaria. Laboratorios, bibliotecas y hospitales universitarios han actuado tradicionalmente como bienes públicos intermedios. La novedad consiste en extender esa lógica a la IA, entendida como infraestructura cognitiva: una infraestructura que requiere, por un lado, capacidad de cómputo suficiente —centros y recursos de computación avanzada— como parte de una política científica orientada a la autonomía y la transferencia y, por otro, entornos compartidos de experimentación, evaluación y reutilización (datos, modelos abiertos, herramientas y soporte técnico) que permitan llevar la IA al tejido productivo con control, eficacia y responsabilidad.
3. De conocimiento codificado a inteligencia operativa
Finalmente, transferir IA implica transformar conocimiento teórico en inteligencia operativa. Esto supone traducir modelos abstractos en herramientas utilizables, pero también incorporar dimensiones éticas, legales y organizativas desde el inicio. Como señalan los trabajos sobre IA confiable, los principios éticos solo adquieren sentido cuando se integran en sistemas reales y en prácticas concretas (Díaz-Rodríguez y otros, 2023).
La universidad está especialmente bien posicionada para esta tarea, precisamente porque combina investigación técnica, reflexión normativa y formación de personas. Pero para ello debe aceptar que transferir IA no es una actividad marginal, sino una extensión natural de su misión en la sociedad digital.
La estrategia europea en materia de IA se articula en torno a dos objetivos que, aunque coherentes en el plano normativo, resultan difíciles de conciliar en la práctica: acelerar la adopción de la IA para reforzar la competitividad económica y garantizar, al mismo tiempo, que dicha adopción sea confiable, respetuosa con los derechos fundamentales y socialmente responsable. Esta doble exigencia sitúa a las pymes en una posición particularmente vulnerable.
Las pymes constituyen la columna vertebral de la economía europea. Sin embargo, su capacidad para incorporar la IA sigue siendo limitada y desigual. La brecha de adopción no responde tanto a una falta de interés como a una ausencia de condiciones habilitantes. El problema no es tanto la voluntad como la arquitectura que condiciona la adopción.
La evidencia empírica reciente muestra que los principales obstáculos son de naturaleza operativa: dificultades en el acceso y la calidad de los datos, escasez de competencias internas, limitaciones de infraestructura, resistencia cultural al cambio y debilidades en la gobernanza tecnológica (Sánchez, Calderón y Herrera, 2025). En este contexto, la IA aparece con frecuencia como una promesa reconocida, pero difícil de materializar.
Este diagnóstico tiene implicaciones directas para la transferencia universitaria. Las pymes europeas no necesitan, en primer lugar, modelos de IA de frontera ni soluciones diseñadas para escalar globalmente. Necesitan herramientas comprensibles, adaptadas a su escala, a sus procesos y a su nivel de madurez digital. Cuando la transferencia ignora estas condiciones, el resultado suele ser una innovación técnicamente sofisticada pero prácticamente inaccesible.
El patrón es recurrente: la IA se introduce como proyecto piloto, pero no se consolida como capacidad organizativa. No se trata de fracasos aislados, sino de una dinámica estructural que revela la falta de acompañamiento y de intermediación efectiva. Desde esta perspectiva, la transferencia no puede reducirse a la cesión de resultados, sino que debe concebirse como un proceso de traducción y adaptación sostenida.
A esta dificultad se añade el marco regulatorio europeo orientado a la IA confiable (AI Act, 2024). Los principios de transparencia, explicabilidad, equidad y responsabilidad son centrales para el proyecto europeo, pero su implementación exige capacidades técnicas, organizativas y éticas que muchas pymes no poseen. Sin mediación, la regulación corre el riesgo de convertirse en un freno a la adopción, reforzando la brecha entre quienes pueden cumplirla y quienes quedan excluidos.
Los trabajos sobre IA responsable coinciden en que la ética no puede añadirse al final del proceso ni externalizarse sin coste (Díaz-Rodríguez y otros, 2023). Requiere integración desde el diseño y acompañamiento continuo. Aquí emerge con claridad un espacio de intervención para la universidad, no como regulador ni como proveedor tecnológico, sino como traductora institucional entre normas abstractas y prácticas empresariales concretas.
Esto no implica que la universidad deba replegarse exclusivamente sobre las pymes ni renunciar a su relación con las grandes empresas. Al contrario: en el ámbito de la IA, las grandes organizaciones siguen siendo socios fundamentales para abordar retos situados en la frontera del conocimiento, desde el desarrollo de modelos avanzados hasta la exploración de aplicaciones de alto riesgo o alta complejidad. La diferencia es funcional: mientras que con las grandes empresas la universidad contribuye a empujar los límites tecnológicos, con las pymes su papel es decisivo para traducir la IA en capacidad productiva distribuida. Ambas dimensiones son necesarias, pero responden a lógicas distintas de transferencia.
El problema es que Europa carece todavía de suficientes intermediarios con legitimidad técnica y social para desempeñar esta función. Ni las consultoras tradicionales ni los grandes proveedores tecnológicos cubren adecuadamente este espacio, centrados como están en clientes de gran escala. Como señalan Grębosz-Krawczyk y Sowa (2025), la ausencia de intermediarios competentes constituye uno de los principales obstáculos para la valorización efectiva del conocimiento científico. En el ámbito de la IA, esta carencia es aún más crítica.
Sin actores capaces de combinar conocimiento tecnológico, comprensión regulatoria y sensibilidad organizativa, la estrategia europea de IA confiable corre el riesgo de quedarse en una buena declaración sin impacto real. En este escenario, la universidad no puede limitarse a producir conocimiento avanzado: debe asumir un papel activo como mediadora y habilitadora, si se quiere que la IA se convierta en una capacidad real del tejido productivo europeo y no en un privilegio de unos pocos.
Frente a este escenario, la universidad aparece como un actor singularmente bien situado para desempeñar un nuevo papel: no como proveedor tecnológico, sino como infraestructura de confianza en el ecosistema de la IA. No por vocación, sino por necesidad sistémica.
Es importante subrayar lo que la universidad no debe ser. No puede ni debe competir con las empresas tecnológicas en el desarrollo de productos comerciales. Tampoco puede asumir el rol de consultora generalista. Su valor diferencial reside precisamente en no estar sometida exclusivamente a lógicas de mercado.
La universidad aporta algo que escasea en el ecosistema de la IA: legitimidad pública, independencia relativa y capacidad de reflexión a largo plazo. Estas cualidades son esenciales en un contexto donde la confianza se ha convertido en un recurso crítico.
En primer lugar, la universidad puede actuar como mediadora entre el conocimiento avanzado y las necesidades de las pymes. Esto implica traducir conceptos complejos, adaptar soluciones a contextos específicos y acompañar procesos de adopción. No se trata de transferir «paquetes tecnológicos», sino de facilitar procesos de aprendizaje organizativo.
Las propuestas de hubs de transferencia de competencias apoyados en IA ilustran bien esta función (Arya y otros, 2025). En Europa, este enfoque conecta con la lógica de los European Digital Innovation Hubs1. Estos espacios no son simples oficinas de transferencia, sino plataformas donde se combinan investigación, formación y experimentación conjunta.
En segundo lugar, la universidad puede desempeñar una función de traducción normativa. La IA confiable requiere interpretar marcos regulatorios complejos y convertirlos en prácticas viables. La universidad, con su capacidad de análisis jurídico, ético y técnico, puede ayudar a las pymes a navegar este entorno sin renunciar a la innovación.
Este papel traductor es especialmente relevante en un momento en que la regulación avanza más rápido que la capacidad de adaptación de muchas organizaciones. Sin traducción, la norma se percibe como amenaza; con traducción, puede convertirse en ventaja competitiva.
Finalmente, la universidad puede actuar como garante de confianza. En un ecosistema donde la IA tiende a percibirse como opaca y concentrada, la presencia de instituciones académicas en proyectos de transferencia aporta credibilidad. Esta confianza no es solo simbólica; se basa en prácticas de transparencia, evaluación independiente y rendición de cuentas.
Los estudios sobre transferencia tecnológica en contextos de digitalización subrayan que la confianza es un factor clave para la colaboración sostenible (Sarala y otros, 2025). La universidad, por su naturaleza institucional, está en condiciones de ofrecerla. Si no lo hace, otros ocuparán ese espacio con criterios distintos.
La IA desborda los modelos clásicos de transferencia porque introduce algo que no se puede licenciar: criterio. La adopción de la IA no depende únicamente de disponer de herramientas adecuadas, sino de contar con personas capaces de comprenderlas, evaluarlas y utilizarlas con sentido estratégico. En este contexto, la formación deja de ser un complemento para convertirse en un pilar central de la transferencia.
Las pymes europeas afrontan un doble desafío. Necesitan incorporar IA para mejorar su competitividad, pero carecen con frecuencia de los conocimientos necesarios para hacerlo de forma informada y responsable. La literatura reciente confirma que la falta de competencias internas constituye uno de los principales frenos a la adopción de la IA, incluso cuando existen soluciones tecnológicas accesibles (Sánchez, Calderón y Herrera, 2025). Esto revela que transferir IA no puede entenderse como un acto puntual de cesión tecnológica, sino como un proceso de capacitación progresiva.
La universidad está especialmente bien posicionada para desempeñar este papel, no solo como formadora de especialistas, sino como agente de alfabetización avanzada en IA. Transferir criterio implica ofrecer a las pymes marcos de comprensión que les permitan decidir cuándo, cómo y para qué utilizar la IA, así como evaluar riesgos, límites y oportunidades. Esta función resulta especialmente relevante en el ámbito de la IA generativa, donde la aparente facilidad de uso puede ocultar riesgos significativos si no se dispone de criterio para interpretar resultados o gestionar datos sensibles.
En términos prácticos, esto equivale a promover usos de IA orientados a la complementariedad: herramientas que actúan como apoyo —copiloto, tutor o asistente— más que como sustituto del juicio humano, una intuición que Mollick populariza bajo la idea de «co-inteligencia» (Mollick, 2024).
Desde una perspectiva europea, esta concepción de la transferencia refuerza la idea de la universidad como infraestructura cognitiva y social, no solo tecnológica. Publicar sigue siendo esencial, pero insuficiente. Transferir implica enseñar a usar, a evaluar y a decidir. En última instancia, el impacto de la IA no dependerá solo de la calidad de los modelos desarrollados, sino de la capacidad colectiva para utilizarlos con sentido.
Transferir IA es, en última instancia, transferir criterio: saber cuándo usarla, cómo usarla y con qué límites. Sin ese criterio, no hay transferencia que genere impacto sostenible. Si la universidad no asume este papel, difícilmente otros lo harán con los mismos criterios.
Más allá de la mediación y la confianza, el despliegue efectivo de la IA en el tejido productivo europeo plantea una cuestión adicional, menos visible pero decisiva: la de la soberanía operativa sobre las capacidades que se transfieren.
En este nuevo escenario, la soberanía en IA adquiere un significado eminentemente práctico: para las pymes no consiste en «tener la mejor IA», sino en poder desplegarla, adaptarla, auditarla y gobernarla sin una dependencia estructural de plataformas cerradas. Aquí, la universidad puede contribuir de forma decisiva articulando una soberanía funcional basada en modelos fundacionales de IA generativa más pequeños, abiertos y adaptables, con huellas de cómputo y requisitos de datos más realistas para el tejido productivo, y con capacidad para integrarse como componentes en arquitecturas de IA agéntica orientadas a tareas (especialización por función, verificación, llamadas a herramientas, etc.).
Esta lógica small-first y modular está alineada con la idea de que los modelos de lenguaje pequeños pueden ser una pieza central para sistemas agénticos eficientes y desplegables, no un sucedáneo de los modelos frontera (Belcak y otros, 2025). A la vez, el debate técnico sobre agentes refuerza que una arquitectura basada en modelos especializados, con selección inteligente de componentes y control de costes y latencias, hace viable una adopción más amplia y sostenible en organizaciones con recursos limitados (Sharma & Mehta, 2025). Además, la expansión de la IA generativa en ámbitos tan diversos como la automatización de procesos, el apoyo a la toma de decisiones, la ingeniería del conocimiento o la interacción avanzada con usuarios finales —tal como documenta la literatura reciente sobre sus múltiples aplicaciones— refuerza la relevancia de este enfoque (Sengar y otros, 2025). En este sentido, apostar por modelos pequeños, abiertos y adaptables equivale a actuar como una infraestructura pública en el sentido más exigente del término: no como proveedor tecnológico, sino como garante de acceso, evaluación y reutilización de capacidades clave.
Entendida así, la función universitaria combina mediación, traducción y garantía de confianza con la construcción de una soberanía operativa en IA. Esta función incluye, de manera inseparable, la formación de talento altamente cualificado en IA: desde titulaciones de grado y máster especializados, hasta programas de formación transversal orientados a contextos disciplinares específicos. Incluye también la capacidad de formar investigadores en estrecha colaboración con el tejido productivo, a través de esquemas como los doctorados industriales, donde la generación de conocimiento y su aplicación avanzada convergen. Sin esta infraestructura formativa, técnica, transversal y aplicada, la soberanía operativa carece de base real y la transferencia de IA queda reducida a episodios puntuales, difícilmente sostenibles.
De ahí que la universidad deba entender su papel no como el de un actor que entrega tecnología, sino como el de una infraestructura que hace posible su adopción responsable: una institución capaz de traducir el conocimiento en soluciones gobernables, de sostener entornos de prueba y verificación, de formar criterio en quienes deciden y de ofrecer marcos de confianza cuando el mercado empuja hacia cajas negras y dependencias difíciles de revertir.
Si Europa aspira a que la IA llegue de verdad al tejido productivo, y no solo a unos pocos campeones digitales, necesita universidades que operen como mediadoras y garantes: que impulsen capacidades reutilizables, que reduzcan asimetrías de información y que anclen la innovación en reglas de responsabilidad, trazabilidad y evaluación. En ese marco, la transferencia deja de ser un «acto final» (licenciar, patentar, publicar) y pasa a ser una tarea sostenida de habilitación: convertir la IA en capacidad instalada, con gobernanza, con límites y con efectos verificables en las pymes y en el tejido productivo.
Publicar sigue siendo esencial, pero ya no es suficiente. En la era de la IA, la transferencia deja de ser un capítulo administrativo y se convierte en un problema estructural que afecta a la misión universitaria. Porque lo que está en juego no es solo «llevar resultados» al mercado, sino lograr que el conocimiento se convierta en capacidades reales en el tejido productivo, especialmente allí donde más cuesta: en las pymes y en las organizaciones que no disponen de capacidad propia.
La IA no es una tecnología más: introduce una nueva infraestructura de decisión. Si la universidad se limita a observarla desde la distancia, produciendo artículos, ránquines y reputación, otros actores ocuparán el espacio de la mediación, con sus incentivos y sus sesgos. El resultado es previsible: más brecha entre conocimiento y uso, y menos capacidad pública para orientar la digitalización.
Conviene moderar el determinismo tecnológico. Desde una perspectiva macro, Acemoglu (2025) recuerda que el impacto de la IA depende del tipo de tareas que transforma y de cómo se reorganizan las organizaciones para aprovecharla. Desde una perspectiva de crecimiento económico equilibrado, esto apunta a una prioridad clara: construir capacidad de adopción en el tejido productivo, aumentar las capacidades humanas, y no solo producir tecnología (Acemoglu, 2025).
Europa, además, ha elegido un camino exigente: quiere innovación, pero también IA confiable. Esa aspiración solo es viable si existen instituciones capaces de traducir normas en prácticas y de convertir potencia tecnológica en valor social. La universidad puede cumplir ese papel, pero debe asumirlo como una función central: además de la formación de talento altamente cualificado, formar criterio, construir confianza, contribuir a articular una soberanía operativa y acompañar la adopción. Esta función es complementaria de la colaboración con grandes empresas en ámbitos de frontera, pero resulta insustituible cuando se trata de extender capacidades de IA más allá de los actores que ya disponen de ellas.
En última instancia, la disyuntiva es simple: o la universidad aprende a transferir IA, o acepta que otros decidan cómo se usa.
Acemoglu, D., & Restrepo, P. (2019). Automation and new tasks: How technology displaces and reinstates labor. Journal of Economic Perspectives, 33(2), 3-30.
Acemoglu, D. (2025). The simple macroeconomics of AI. Economic Policy, 40(121), 13-58.
AI Act (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, https://eur-lex.europa.eu/eli/reg/2024/1689/oj
Arya, V., y otros (2025). AI-enhanced competency transfer hubs: a conceptual framework for university-industry engagement and knowledge sharing. The Journal of Technology Transfer. https://doi.org/10.1007/s10961-025-10233-7
Belcak, P., y otros. (2025). Small Language Models are the Future of Agentic AI. arXiv preprint arXiv:2506.02153.
Díaz-Rodríguez, y otros (2023). Connecting the dots in trustworthy Artificial Intelligence: From AI principles, ethics, and key requirements to responsible AI systems and regulation. Information Fusion, 99, 101896.
Grębosz-Krawczyk, M., & Sowa, M. (2025). Where is the social impact? Key barriers to knowledge valorisation. Marketing of Scientific & Research Organizations/Marketing Instytucji Naukowych i Badawczych, 55(1), 1-16.
Mollick, E. (2024). Co-Intelligence: Living and Working with AI. Portfolio/Penguin Random House.
Moro-Visconti, R. (2025). Is artificial intelligence a new stakeholding agent?. Hum.-Intell. Syst. Integr. https://doi.org/10.1007/s42454-025-00069-9
Pairolero, N. A. y otros. (2025). The artificial intelligence patent dataset (AIPD) 2023 update. The Journal of Technology Transfer, 50(5), 2587–2610.
Sánchez, E., Calderón, R., & Herrera, F. (2025). Artificial Intelligence Adoption in SMEs: Survey Based on TOE–DOI Framework, Primary Methodology and Challenges. Applied Sciences, 15(12), 6465.
Sarala, R. M., y otros (2025). The impact of digitalization and virtualization on technology transfer in strategic collaborative partnerships. The Journal of Technology Transfer, 50(2), 399-416.
Sharma, R., & Mehta, M. (2025). Small Language Models for Agentic Systems: A Survey of Architectures, Capabilities, and Deployment Trade-offs. arXiv preprint arXiv:2510.03847.
Sengar, S. S., y otros (2025). Generative artificial intelligence: a systematic review and applications. Multimedia Tools and Applications, 84(21), 23661-23700.
Foto: © Shutterstock / Igor Link. El archivo se puede consultar aquí
Artículos similares