Mi cesta
Tu cesta está vacía, pero puedes añadir alguna de nuestras revistas o suscripciones.
Ver productosMotor de innovación y reto ético en la investigación

25 de febrero de 2026 - 20min.
Avance
La revolución digital ha transformado la universidad contemporánea. En apenas dos décadas, la institución ha pasado de estructuras tradicionales a situarse en el epicentro de una revolución tecnológica que redefine sus fundamentos. La inteligencia artificial (IA) está modificando la manera en que se analiza y comunica la ciencia, de modo que la investigación se convierte en un proceso híbrido donde investigador y máquina colaboran.
Pero la IA plantea desafíos epistemológicos y éticos, no solo técnicos. La universidad del siglo XXI deberá encontrar un equilibrio entre la innovación tecnológica y la preservación de su dimensión ética, entre la fascinación por el algoritmo y la defensa del juicio crítico. Los riesgos se perciben en todas las fases del proceso científico: desde establecer lo que merece ser leído a la pérdida de la transparencia metodológica y la redacción automática de textos que limita la labor intelectual del investigador. De un modo más general, el riesgo es el de una hipernormalización de la ciencia, dominada por algoritmos.
La revolución digital plantea retos particulares en Latinoamérica, donde se trata prioritariamente de reducir brechas tecnológicas, modernizar la educación superior y fortalecer los sistemas nacionales de ciencia y tecnología; lo que implica dotarse de infraestructuras digitales y competencias docentes sostenidas que mantengan el interés por la IA como motor de transformación científica. Esas carencias afectan a la soberanía digital, la autonomía científica y la posibilidad de democratizar el conocimiento.
En general, los desafíos que plantea la IA tienen que ver con la reproducción de las desigualdades, los sesgos algorítmicos (con el riesgo de relegar corrientes científicas minoritarias) y las dependencias invisibles. Si los riesgos de la IA obligan a la cautela, sus oportunidades invitan a la esperanza. Oportunidades en el terreno de la cooperación científica internacional o para afrontar retos sociales con el apoyo de los datos. Por lo que respecta a la universidad, debe enseñar no solo a usar la IA, sino a gobernarla. La IA, bien entendida, no sustituye al investigador: lo amplifica.
ArtÍculo
Como señalan Brynjolfsson y McAfee (2017), la revolución digital ha transformado de forma estructural la economía del conocimiento y, con ella, la universidad contemporánea. En apenas dos décadas, la institución ha pasado de estructuras tradicionales a situarse en el epicentro de una revolución tecnológica que redefine sus fundamentos.
La digitalización de todos los ámbitos de la vida se consolidó en los años noventa con la expansión de Internet y la popularización de la World Wide Web. A partir de 2005, la transición hacia la Web 2.0 transformó la interacción digital con la irrupción de redes sociales académicas como ResearchGate y Academia.edu, o servicios como Google Scholar. En la última década, la aparición de la inteligencia artificial (IA), especialmente del aprendizaje profundo y la IA generativa, ha acelerado vertiginosamente esta transformación, redefiniendo las formas de producir y difundir conocimiento.
Más allá de ser una herramienta técnica, la IA está modificando la manera en que se analiza y comunica la ciencia. Los modelos de lenguaje (LLM) y los sistemas de aprendizaje automático permiten realizar tareas como revisión bibliográfica, síntesis de información o generación automática de resúmenes. Esta nueva realidad plantea un cambio de paradigma: la investigación se convierte en un proceso híbrido donde investigador y máquina colaboran.
Surgen así interrogantes esenciales: ¿qué ocurre con el criterio y la creatividad cuando parte del trabajo se delega en algoritmos?, ¿cómo se garantiza la veracidad del conocimiento si los sistemas pueden reproducir sesgos? La IA no solo plantea desafíos técnicos, sino también epistemológicos y éticos. En España y Latinoamérica, su irrupción ha coincidido con desigualdades tecnológicas y transformaciones en la financiación universitaria, generando tensiones entre la eficiencia prometida y la defensa de la autonomía y los valores humanistas.
En España, la transformación digital y la irrupción de la IA en el ámbito de la investigación académica ha estado, y está, fuertemente influenciada por el ámbito europeo en forma de grandes proyectos de investigación y desarrollo, intercambios científicos y colaboraciones industria-academia entre otros, que son activamente fomentados mediante grandes inversiones en investigación. Por otro lado, en el contexto iberoamericano, la incorporación de la IA en este ámbito no ha sido uniforme. No obstante, en la mayoría de las universidades, tanto en el marco español como en Latinoamérica, se percibe una tensión creciente entre el entusiasmo por la eficiencia que promete la IA, y la preocupación por los desafíos éticos y epistemológicos que implica su uso en la investigación. Además, tanto en España como en Latinoamérica, la IA ha irrumpido en un contexto de profundas desigualdades tecnológicas y de cambios constantes en los modelos de financiación de la investigación.
Hoy, más que nunca, la investigación universitaria se sitúa en un cruce de caminos. La IA, y más concretamente las nuevas tecnologías basadas en IA generativa, ofrece la posibilidad de acelerar descubrimientos, optimizar recursos y expandir el alcance de la ciencia. La universidad del siglo XXI deberá encontrar un equilibrio entre la innovación tecnológica y la preservación de su dimensión ética, entre la fascinación por el algoritmo y la defensa del juicio crítico. Siguiendo a Floridi (2022), se trata de que se aborden estos problemas desde un paradigma ético que atienda no solo a los principios y la deontología, sino también los contextos institucionales y humanos en los que se aplica; es decir a las tecnologías desde su mismo diseño, y atendiendo a sus usos.
Según Russell y Norvig (2021), la IA ofrece un potencial extraordinario en la investigación gracias a su capacidad para analizar grandes volúmenes de información y generar modelos predictivos. Se ha integrado de manera profunda en todas las fases del proceso científico: búsqueda de información, análisis de datos y redacción de resultados.
1. Búsqueda y gestión de literatura científica
En el ámbito de la búsqueda y gestión de la información, los algoritmos de recomendación y los LLM han revolucionado la manera en que los investigadores acceden al conocimiento existente. Plataformas como Semantic Scholar, Scite o Research Rabbit emplean IA para analizar millones de artículos y sugerir lecturas relevantes, detectar relaciones entre autores o anticipar tendencias emergentes. Ya no se trata solo de recuperar documentos, sino de construir mapas conceptuales dinámicos que orientan la exploración científica.
Este avance supone una mejora indiscutible en eficiencia, un sistema capaz de resumir cientos de artículos o identificar vacíos temáticos permite a los investigadores ahorrar semanas de trabajo. Pero a costa de asumir un riesgo evidente: delegar en el algoritmo la definición de lo que merece ser leído implica aceptar su jerarquía de relevancias, moldeada por los datos de entrenamiento que tienden a privilegiar paradigmas hegemónicos, y por criterios de citación que no siempre reflejan la diversidad del pensamiento académico. Así, la IA no solo organiza la información, sino que también empieza a influir —de manera silenciosa— en la construcción del canon científico contemporáneo.
2. Análisis de datos masivos y modelos predictivos
En la fase de análisis empírico, la IA ha demostrado un poder sin precedentes gracias a su capacidad para establecer correlaciones. En las ciencias experimentales, los modelos predictivos basados en aprendizaje automático permiten detectar patrones imposibles de percibir mediante los métodos tradicionales. En las humanidades (digitales), los algoritmos de minería de texto procesan corpus enteros de prensa histórica o literatura para revelar tendencias culturales, o proximidades semánticas no detectadas anteriormente. En las ciencias sociales, los modelos de aprendizaje analizan datos procedentes de encuestas, redes sociales o sensores urbanos, generando simulaciones que anticipan comportamientos colectivos. Esta capacidad de modelar realidades complejas ha ampliado el horizonte de la investigación. La IA permite formular hipótesis más ambiciosas y comprobarlas en plazos mucho más cortos. Sin embargo, también ha introducido una nueva forma de dependencia epistemológica: los investigadores confían cada vez más en sistemas que operan como cajas negras, cuyos criterios internos resultan opacos incluso para sus creadores. Cuando los resultados se basan en modelos cuya lógica no puede explicarse con precisión, la ciencia corre el riesgo de perder uno de sus pilares: la transparencia metodológica.
Además, la interpretación de los resultados generados por IA plantea un desafío de legitimidad. ¿Hasta qué punto un patrón descubierto por un algoritmo equivale a un hallazgo científico? ¿Puede considerarse una inferencia válida si no es comprensible para el propio investigador? En este punto parece resonar nuevamente el conocido llamado a «el fin de la teoría» de Chris Anderson1, pero desde este nuevo paradigma en el que la frontera entre descubrimiento y correlación estadística se vuelve difusa nuevamente, haciendo que la prudencia metodológica sea más necesaria que nunca si se pretende que la ciencia sea algo más que el establecimiento de correlaciones estadísticas sin mayor explicación ni comprensión.
3. Generación de hipótesis y redacción asistida
En los últimos tres años, la irrupción de los grandes modelos de lenguaje —como ChatGPT, Claude o Gemini, y más recientemente otros como DeepSeek— ha ampliado la influencia de la IA más allá del análisis de datos: ahora participa también en la concepción de ideas y en la elaboración textual. Herramientas de redacción académica asistida permiten generar resúmenes automáticos, redactar propuestas de proyectos o incluso sugerir hipótesis a partir de literatura previa. Pero aquí el dilema se vuelve más profundo. Si un algoritmo puede redactar una introducción coherente, sintetizar resultados y generar conclusiones plausibles, ¿qué queda del acto intelectual de escribir ciencia? La escritura académica ha sido siempre un proceso de pensamiento, una forma de ordenar ideas y construir argumentos que implicaba al menos cierto posicionamiento y diálogo reflexivo con la comunidad científica. Cuando el texto se produce de manera automática, existe el riesgo de que el investigador se limite a supervisar una narrativa generada por otro ente (una máquina en concreto), reduciendo su papel a un simple corrector de contenido.
Por ello, cada vez más instituciones insisten en la necesidad de educar al investigador en el uso crítico de estas herramientas. La IA puede ser un aliado poderoso para liberar tiempo y potenciar la creatividad, pero no debe sustituir la reflexión, la duda ni la argumentación propia. La investigación asistida por IA no debería entenderse como una delegación del pensamiento, sino como un diálogo entre el ser humano y la máquina, donde la segunda se utiliza como una herramienta que permite mejorar, no sustituir, el proceso de creatividad, razonamiento y la creación del conocimiento. La universidad se enfrenta así a la tarea de integrar estas herramientas sin renunciar a su esencia: formar mentes críticas capaces de pensar más allá de los algoritmos.
De acuerdo con la Comisión Europea (2023), el desarrollo de políticas en torno al Acta de Inteligencia Artificial marca una pauta de confianza y regulación en la investigación universitaria en Europa. En el caso concreto de España, se encuentra en un momento decisivo respecto a la incorporación de la IA en su sistema universitario y de investigación.
El impacto de la IA en la investigación universitaria española también se ha manifestado en la apertura a redes internacionales. La participación en proyectos europeos como AI4Europe, Horizon Europe y Open Research Europe, ha permitido a las universidades españolas acceder a sistemas avanzados de análisis bibliométrico y plataformas colaborativas impulsadas por IA. Estas herramientas facilitan la evaluación automática de la producción científica, la detección de duplicidades y la identificación de áreas de investigación prioritarias para la Unión Europea. Gracias a la IA, la gestión de los datos científicos se ha vuelto más precisa y transparente, favoreciendo una ciencia abierta y reproducible. Los sistemas de análisis semántico permiten explorar miles de publicaciones para descubrir tendencias temáticas, evaluar la originalidad de las investigaciones y mejorar la visibilidad internacional de los proyectos.
No obstante, este proceso no está exento de tensiones. Algunos investigadores alertan sobre el riesgo de una hipernormalización de la ciencia, donde los algoritmos priorizan líneas de trabajo basadas en métricas de impacto, dejando en segundo plano la investigación exploratoria o interdisciplinar o, como ya se ha mencionado, no hegemónica. La eficiencia puede convertirse en una trampa si se traduce en homogeneidad intelectual. En este sentido, la universidad española se enfrenta al reto de aprovechar la IA para mejorar su competitividad sin perder su diversidad epistemológica ni su vocación crítica. Asimismo, la incorporación de la IA ha reavivado el debate sobre la evaluación del desempeño científico. Las herramientas de análisis automático permiten cuantificar la producción, pero corren el riesgo de reducir la calidad a un conjunto de indicadores largamente cuestionado. La verdadera excelencia académica, recordaban los rectores en el último informe de Crue Universidades Españolas (2024), no se mide únicamente por la productividad, sino por la capacidad de generar conocimiento con valor social y ético.
En definitiva, el impacto de la IA en la investigación universitaria española es innegable. Está transformando la manera en que se produce, gestiona y evalúa la ciencia. Pero su éxito dependerá de la madurez con que las instituciones sean capaces de combinar la innovación tecnológica con la preservación de los principios fundamentales de la investigación: la libertad intelectual, la transparencia y el compromiso con la verdad.
La expansión de la inteligencia artificial en la investigación universitaria latinoamericana sigue una trayectoria distinta a la europea. Mientras en Europa la IA se ha integrado principalmente como herramienta estratégica dentro de políticas de innovación y competitividad, en Latinoamérica su incorporación avanza en paralelo a los esfuerzos por reducir brechas tecnológicas, modernizar la educación superior y fortalecer los sistemas nacionales de ciencia y tecnología. Zawacki-Richter et al. (2019) subrayan que la adopción de la IA en la educación superior latinoamericana requiere infraestructuras digitales y competencias docentes sostenidas que mantengan el interés por la IA como motor de transformación científica de forma sostenida y transversal en la región, desde las universidades públicas hasta los centros privados de investigación.
A pesar de estos avances, la expansión de la IA en la investigación latinoamericana se enfrenta a diversos obstáculos estructurales. La primera limitación es la infraestructura tecnológica. Muchas universidades carecen de servidores de alto rendimiento, recursos para almacenar grandes volúmenes de datos o acceso estable a herramientas avanzadas de IA en la nube. Esta carencia genera una dependencia tecnológica hacia proveedores extranjeros, lo que a su vez plantea dilemas sobre soberanía digital, autonomía científica y la promesa de la IA de democratizar el conocimiento.
El segundo desafío es la brecha de capacitación. Aunque los programas de posgrado comienzan a incorporar asignaturas sobre ciencia de datos e inteligencia artificial, persiste una carencia de formación específica para investigadores en humanidades, ciencias sociales y áreas interdisciplinarias. La IA tiende a concentrarse en los campos técnicos, lo que amenaza con profundizar la desigualdad entre disciplinas y entre instituciones.
Pese a estas limitaciones, la región posee un potencial enorme. La diversidad cultural y lingüística de Latinoamérica ofrece un campo fértil para el desarrollo de algoritmos inclusivos y de sistemas de IA entrenados con datos representativos de sus realidades sociales. Además, la creciente cooperación entre redes universitarias iberoamericanas, como la Asociación de Universidades Grupo Montevideo (AUGM) o la Unión de Universidades de América Latina y el Caribe (UDUALC), permite compartir infraestructuras, experiencias y proyectos comunes. Estas alianzas fortalecen la capacidad colectiva de innovación y fomentan una visión compartida de la ciencia como bien público.
El impacto de la IA en la investigación universitaria latinoamericana, por tanto, es ambivalente. Por un lado, impulsa la modernización, la colaboración y la internacionalización de la ciencia regional. Por otro, plantea tensiones entre autonomía y dependencia, acceso y exclusión, innovación y desigualdad. En este delicado equilibrio reside el mayor desafío para las universidades de la región: aprovechar el potencial transformador de la IA sin renunciar a su compromiso con la equidad y el desarrollo sostenible.
El entusiasmo que despierta la IA en la Universidad convive con una serie de tensiones que no pueden ignorarse. La misma tecnología que promete democratizar el acceso al conocimiento puede también reproducir desigualdades, sesgos y dependencias invisibles.
– Sesgos algorítmicos y fiabilidad de resultados
Los sesgos algorítmicos constituyen uno de los principales riesgos de la inteligencia artificial en la investigación académica. Los sistemas de IA aprenden de los datos con los que son entrenados y, si estos reflejan desequilibrios de género, idioma, región o ideología, los reproducen y amplifican. En el ámbito universitario, esto puede distorsionar los resultados y relegar corrientes científicas minoritarias. Los algoritmos de recomendación suelen priorizar publicaciones en inglés y de alto impacto, marginando la producción en español o con enfoques críticos, lo que refuerza un sistema académico basado en jerarquías editoriales y métricas internacionales. Además, la fiabilidad de los resultados generados por IA es problemática: en las ciencias experimentales pueden surgir correlaciones espurias, en las sociales interpretaciones engañosas y en las humanidades errores de traducción. La precisión estadística no equivale a comprensión ni verdad. El rigor científico no puede depender de modelos opacos: debe sustentarse en la supervisión crítica y la responsabilidad académica.
– Ética y responsabilidad en la investigación académica
El segundo gran desafío es el uso ético y responsable de la IA en la investigación. La posibilidad de automatizar la redacción de textos, sintetizar fuentes o generar hipótesis plantea preguntas incómodas sobre la autoría, la originalidad y la integridad académica. ¿A quién pertenece un artículo en cuya redacción intervino una herramienta generativa? O más precisamente, ¿Cómo distinguir entre la asistencia legítima y el plagio asistido por la inteligencia artificial?
Algunas universidades españolas y latinoamericanas han comenzado a establecer códigos éticos específicos para el uso de IA en la investigación, inspirados en los principios de transparencia, trazabilidad y responsabilidad (Wilkinson, 2016). Estos códigos insisten en que toda participación de una herramienta de IA debe ser declarada explícitamente, y en que el investigador humano sigue siendo el único responsable de los contenidos, los datos y las conclusiones que firma. En este sentido, la Royal Society (2022) enfatiza que el futuro de la investigación impulsada por IA debe equilibrar innovación y responsabilidad, promoviendo la cooperación internacional y la transparencia científica.
Más allá de la regulación, el debate ético obliga a repensar el sentido mismo de la creatividad científica. Si la IA puede generar ideas plausibles, el valor del pensamiento humano radicará, más que nunca, en la capacidad de formular preguntas significativas, de dudar, de contextualizar. Por ello, en la era de la IA la ética que se limita a evitar malas prácticas es una ética de mínimos; se debe apostar por una Ética (con mayúsculas) de la responsabilidad y la pedagogía. La universidad, como institución formadora de conocimiento, tiene el deber de enseñar no solo a usar la IA, sino a pensarla críticamente, a comprender sus limitaciones y a situarla al servicio del bien común.
– Dependencia tecnológica y brecha digital
Finalmente, el tercer gran riesgo es la dependencia tecnológica y la ampliación de la brecha digital. El acceso desigual a infraestructuras de cómputo, software especializado o servicios de IA basados en la nube puede profundizar las disparidades entre universidades, regiones e investigadores. Esta desigualdad no solo limita la producción científica, sino que condiciona qué tipo de conocimiento se genera y quién puede producirlo. La concentración de herramientas avanzadas en el norte global refuerza un sistema de dependencia tecnológica que continúa las viejas asimetrías de la economía del conocimiento. Si la investigación universitaria se apoya cada vez más en plataformas privadas y algoritmos cerrados, la autonomía científica se verá más erosionada aún por intereses comerciales o geopolíticos. Frente a ello, las universidades deben apostar por el desarrollo de soluciones abiertas, colaborativas y transparentes. Promover ecosistemas de IA académica basados en software libre, datos abiertos y cooperación internacional es una estrategia para preservar la soberanía del conocimiento.
Si los riesgos de la IA obligan a la cautela, sus oportunidades invitan a la esperanza. La IA puede actuar como catalizador de cooperación, motor de innovación y herramienta de equidad. Lejos de verse únicamente como amenaza o sustituto, la IA puede convertirse en un aliado estratégico para fortalecer las capacidades humanas, ampliar la mirada científica y democratizar el acceso a la investigación de calidad.
1. IA como catalizador de la cooperación internacional
La primera gran oportunidad reside en la cooperación científica internacional. La IA permite conectar investigadores, proyectos y datos en una escala sin precedentes. En el contexto iberoamericano, donde los lazos lingüísticos y culturales favorecen la interacción, estas herramientas ofrecen una posibilidad real de construir redes científicas transnacionales. Proyectos de ciencia abierta impulsados por la Unión Europea, la UNESCO y la Organización de Estados Iberoamericanos (OEI) ya están promoviendo espacios colaborativos donde investigadores españoles y latinoamericanos comparten infraestructuras digitales para el análisis de datos, la gestión de publicaciones y la formación en competencias digitales.
2. Potencial para la innovación social y científica en Latinoamérica
La inteligencia artificial ofrece un enorme potencial innovador para afrontar los grandes retos sociales de América Latina —desigualdad, cambio climático, exclusión educativa y precariedad laboral, entre otros muchos— mediante soluciones basadas en datos. Las universidades pueden liderar proyectos que apliquen IA en planificación urbana, salud pública y educación personalizada orientada a la equidad, al bienestar social, y a la mejora continua de nuestras sociedades.
Pero el valor de la IA no reside únicamente en su capacidad técnica, sino en su potencial para articular conocimiento científico y compromiso social. Las universidades latinoamericanas tienen la oportunidad de construir un modelo propio de inteligencia artificial: uno que no replique de manera pasiva las agendas del norte global, sino que responda a las necesidades y contextos de sus comunidades. Apostar por una IA situada (Haraway, 1995), sensible a las lenguas, culturas y realidades locales, es un modo de reafirmar la soberanía científica y de transformar la tecnología en instrumento de justicia cognitiva.
3. La necesidad de formar investigadores con pensamiento crítico y competencias digitales
El futuro de la IA en la universidad dependerá, en última instancia, de las personas que la utilicen. Ninguna herramienta, por avanzada que sea, puede garantizar la calidad de la ciencia si quienes la manejan carecen de criterio, ética o formación crítica. Por ello, la tercera gran oportunidad —y también el mayor desafío— consiste en formar una nueva generación de investigadores híbridos, capaces de combinar competencias digitales con sensibilidad humanística. El investigador del siglo XXI debe entender cómo funcionan los algoritmos, pero también cuestionar sus implicaciones sociales; debe saber entrenar un modelo, pero igualmente analizar los valores y sesgos que este refleja.
En este sentido, la formación doctoral y los programas de posgrado juegan un papel crucial. Incorporar la alfabetización algorítmica, la ética digital y la gestión responsable de datos como competencias básicas de investigación no es una opción, sino una necesidad. La universidad debe enseñar no solo a usar la IA, sino a gobernarla, asegurando que el poder de los algoritmos esté siempre subordinado al juicio crítico y al servicio público del saber.
La IA ha irrumpido en la universidad como algo mucho más complejo y profundo que una simple herramienta tecnológica; se trata de una fuerza transformadora que redefine los fundamentos mismos de la investigación académica. Sin embargo, después del entusiasmo inicial es imprescindible dar paso a una fase más reflexiva: la de comprender que la IA no es solo un aliado de la eficiencia, sino también un desafío para la ética, la autonomía y el sentido del saber universitario.
El balance entre eficiencia y ética se ha convertido en la nueva frontera de la investigación contemporánea. Por un lado, la IA permite acelerar procesos, reducir tiempos y abrir horizontes de exploración científica antes inimaginables. Por otro, puede uniformar el pensamiento, invisibilizar la diversidad epistemológica y erosionar la autoría intelectual si se usa sin conciencia crítica. El rigor científico basado en la transparencia, la verificabilidad y la honestidad intelectual no puede ser sustituido por la eficiencia algorítmica. El pensamiento crítico sigue siendo el núcleo del quehacer universitario, incluso en una era donde los algoritmos escriben, analizan y predicen.
En el contexto español, las universidades avanzan hacia una integración responsable de la inteligencia artificial, consolidando infraestructuras de datos, proyectos colaborativos y políticas de ética digital. En Latinoamérica, el proceso es más desigual, pero también más creativo: la IA se asocia con la búsqueda de soluciones locales, con la innovación social y con la aspiración de reducir brechas históricas. En ambos casos, la clave está en construir modelos de IA que no dependan exclusivamente de la tecnología importada, sino que surja del pensamiento propio y de las necesidades de las comunidades académicas locales.
Por lo tanto, y por último, la IA, bien entendida, no sustituye al investigador: lo amplifica. Le permite explorar con mayor profundidad, conectar ideas dispersas, imaginar soluciones innovadoras.
Benkler, Y. (2019). Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics. Oxford University Press.
Brynjolfsson, E., & McAfee, A. (2017). Machine, Platform, Crowd: Harnessing Our Digital Future. W. W. Norton & Company.
European Commission. (2023). Artificial Intelligence Act: Regulation (EU) Proposal for Trustworthy AI. Brussels: Publications Office of the EU.
Floridi, L. (2022). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Springer.
Haraway, D. J. (1995). Ciencia, cyborgs y mujeres: la reinvención de la naturaleza (Vol. 28). Universitat de València.
Mittelstadt, B. (2023). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 5(1), 8–10.
OECD. (2023). AI in Science: Understanding its Role and Impact. Paris: OECD Science, Technology and Industry Policy Papers.
Royal Society. (2022). The Role of AI in Research: Opportunities, Challenges, and the Future of Scientific Discovery. London: The Royal Society.
Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO.
Wilkinson, M. D., Dumontier, M., Aalbersberg, I. J., Appleton, G., Axton, M., Baak, A., … & Mons, B. (2016). The FAIR Guiding Principles for scientific data management and stewardship. Scientific data, 3(1), 1-9.
Zawacki-Richter, O., et al. (2019). Systematic review of research on artificial intelligence applications in higher education. International Journal of Educational Technology in Higher Education, 16(1), 39.
Foto: © CC Wikimedia Commons/ El Pantera