La inteligencia artificial en la universidad

Motor de innovación y reto ético en la investigación

Foto: © CC Wikimedia Commons
David Camacho y Sergio D’Antonio

 

Avance

La revolución digital ha transformado la universidad contempo­ránea. En apenas dos décadas, la institución ha pasado de es­tructuras tradicionales a situarse en el epicentro de una revolu­ción tecnológica que redefine sus fundamentos. La inteligencia artificial (IA) está modificando la manera en que se analiza y comunica la ciencia, de modo que la investigación se convierte en un proceso híbrido donde investigador y máquina colaboran.

Pero la IA plantea desafíos epistemológicos y éticos, no solo técnicos. La universidad del siglo XXI deberá encontrar un equilibrio entre la innovación tecnológica y la preserva­ción de su dimensión ética, entre la fascinación por el algo­ritmo y la defensa del juicio crítico. Los riesgos se perciben en todas las fases del proceso científico: desde establecer lo que merece ser leído a la pérdida de la transparencia me­todológica y la redacción automática de textos que limita la labor intelectual del investigador. De un modo más general, el riesgo es el de una hipernormalización de la ciencia, do­minada por algoritmos.

La revolución digital plantea retos particulares en La­tinoamérica, donde se trata prioritariamente de reducir brechas tecnológicas, modernizar la educación superior y fortalecer los sistemas nacionales de ciencia y tecnología; lo que implica dotarse de infraestructuras digitales y competencias docentes sostenidas que mantengan el interés por la IA como motor de transformación científica. Esas carencias afectan a la soberanía digital, la autonomía científica y la posibilidad de democratizar el conocimiento.

En general, los desafíos que plantea la IA tienen que ver con la reproducción de las desigualdades, los sesgos algorít­micos (con el riesgo de relegar corrientes científicas minoritarias) y las dependencias invisibles. Si los riesgos de la IA obligan a la cautela, sus oportunidades invitan a la esperan­za. Oportunidades en el terreno de la cooperación científica internacional o para afrontar retos sociales con el apoyo de los datos. Por lo que respecta a la universidad, debe enseñar no solo a usar la IA, sino a gobernarla. La IA, bien entendi­da, no sustituye al investigador: lo amplifica.

ArtÍculo

Como señalan Brynjolfsson y McAfee (2017), la revolución digital ha transfor­mado de forma estructural la economía del conocimiento y, con ella, la universi­dad contemporánea. En apenas dos déca­das, la institución ha pasado de estructu­ras tradicionales a situarse en el epicentro de una revolución tecnológica que redefi­ne sus fundamentos.

La digitalización de todos los ámbitos de la vida se consolidó en los años noven­ta con la expansión de Internet y la po­pularización de la World Wide Web. A partir de 2005, la transición hacia la Web 2.0 transformó la interacción di­gital con la irrupción de redes sociales académicas como ResearchGate y Academia.edu, o servicios como Google Scholar. En la última década, la aparición de la inteli­gencia artificial (IA), especialmente del aprendizaje profundo y la IA generativa, ha acelerado vertiginosamente esta transformación, redefiniendo las formas de producir y difundir conocimiento.

Más allá de ser una herramienta técnica, la IA está modificando la manera en que se analiza y comunica la ciencia. Los modelos de lenguaje (LLM) y los siste­mas de aprendizaje automático permiten realizar tareas como revisión bibliográfica, síntesis de información o generación automática de resúmenes. Esta nueva rea­lidad plantea un cambio de paradigma: la investigación se convierte en un proceso híbrido donde investigador y máquina colaboran.

Surgen así interrogantes esenciales: ¿qué ocurre con el criterio y la creatividad cuando parte del trabajo se delega en algoritmos?, ¿cómo se garantiza la veracidad del cono­cimiento si los sistemas pueden reproducir sesgos? La IA no solo plantea desafíos técnicos, sino también epistemo­lógicos y éticos. En España y Latinoamérica, su irrupción ha coincidido con desigualdades tecnológicas y transfor­maciones en la financiación universitaria, generando ten­siones entre la eficiencia prometida y la defensa de la au­tonomía y los valores humanistas.

En España, la transformación digital y la irrupción de la IA en el ámbito de la investigación académica ha estado, y está, fuertemente influenciada por el ámbito europeo en forma de grandes proyectos de investigación y desarrollo, intercambios científicos y colaboraciones industria-academia entre otros, que son activamente fomentados mediante grandes inversiones en investiga­ción. Por otro lado, en el contexto iberoamericano, la in­corporación de la IA en este ámbito no ha sido uniforme. No obstante, en la mayoría de las universidades, tanto en el marco español como en Latinoamérica, se percibe una tensión creciente entre el entusiasmo por la eficiencia que promete la IA, y la preocupación por los desafíos éticos y epistemológicos que implica su uso en la investi­gación. Además, tanto en España como en Latinoaméri­ca, la IA ha irrumpido en un contexto de profundas des­igualdades tecnológicas y de cambios constantes en los modelos de financiación de la investigación.

Hoy, más que nunca, la investigación universitaria se sitúa en un cruce de caminos. La IA, y más concretamente las nuevas tecnologías basadas en IA generativa, ofrece la posibilidad de acelerar descubrimientos, optimizar recur­sos y expandir el alcance de la ciencia. La universidad del siglo XXI deberá encontrar un equilibrio entre la innova­ción tecnológica y la preservación de su dimensión ética, entre la fascinación por el algoritmo y la defensa del jui­cio crítico. Siguiendo a Floridi (2022), se trata de que se aborden estos problemas desde un paradigma ético que atienda no solo a los principios y la deontología, sino tam­bién los contextos institucionales y humanos en los que se aplica; es decir a las tecnologías desde su mismo diseño, y atendiendo a sus usos.

Aplicaciones de la IA en la investigación universitaria

Según Russell y Norvig (2021), la IA ofrece un poten­cial extraordinario en la investigación gracias a su capa­cidad para analizar grandes volúmenes de información y generar modelos predictivos. Se ha integrado de ma­nera profunda en todas las fases del proceso científico: búsqueda de información, análisis de datos y redacción de resultados.

1. Búsqueda y gestión de literatura científica

En el ámbito de la búsqueda y gestión de la informa­ción, los algoritmos de recomendación y los LLM han re­volucionado la manera en que los investigadores acceden al conocimiento existente. Plataformas como Semantic Scholar, Scite o Research Rabbit emplean IA para analizar millones de artículos y sugerir lecturas relevantes, detectar relaciones entre autores o anticipar tendencias emergen­tes. Ya no se trata solo de recuperar documentos, sino de construir mapas conceptuales dinámicos que orientan la exploración científica.

Este avance supone una mejora indiscutible en efi­ciencia, un sistema capaz de resumir cientos de artículos o identificar vacíos temáticos permite a los investigado­res ahorrar semanas de trabajo. Pero a costa de asumir un riesgo evidente: delegar en el algoritmo la definición de lo que merece ser leído implica aceptar su jerarquía de relevancias, moldeada por los datos de entrenamiento que tienden a privilegiar paradigmas hegemónicos, y por criterios de citación que no siempre reflejan la diversidad del pensamiento académico. Así, la IA no solo organiza la información, sino que también empieza a influir —de manera silenciosa— en la construcción del canon cientí­fico contemporáneo.

2. Análisis de datos masivos y modelos predictivos

En la fase de análisis empírico, la IA ha demostrado un poder sin precedentes gracias a su capacidad para establecer correlaciones. En las ciencias experimen­tales, los modelos predictivos basados en aprendizaje automático permiten detectar patrones imposibles de percibir mediante los métodos tradicionales. En las humanidades (digitales), los algoritmos de minería de texto procesan corpus enteros de prensa histórica o li­teratura para revelar tendencias culturales, o proximi­dades semánticas no detectadas anteriormente. En las ciencias sociales, los modelos de aprendizaje analizan datos procedentes de encuestas, redes sociales o sen­sores urbanos, generando simulaciones que anticipan comportamientos colectivos. Esta capacidad de mode­lar realidades complejas ha ampliado el horizonte de la investigación. La IA permite formular hipótesis más ambiciosas y comprobarlas en plazos mucho más cor­tos. Sin embargo, también ha introducido una nueva forma de dependencia epistemológica: los investigado­res confían cada vez más en sistemas que operan como cajas negras, cuyos criterios internos resultan opacos incluso para sus creadores. Cuando los resultados se basan en modelos cuya lógica no puede explicarse con precisión, la ciencia corre el riesgo de perder uno de sus pilares: la transparencia metodológica.

Además, la interpretación de los resultados genera­dos por IA plantea un desafío de legitimidad. ¿Has­ta qué punto un patrón descubierto por un algoritmo equivale a un hallazgo científico? ¿Puede considerarse una inferencia válida si no es comprensible para el pro­pio investigador? En este punto parece resonar nue­vamente el conocido llamado a «el fin de la teoría» de Chris Anderson1, pero desde este nuevo paradigma en el que la frontera entre descubrimiento y correlación estadística se vuelve difusa nuevamente, haciendo que la prudencia metodológica sea más necesaria que nun­ca si se pretende que la ciencia sea algo más que el es­tablecimiento de correlaciones estadísticas sin mayor explicación ni comprensión.

3. Generación de hipótesis y redacción asistida

En los últimos tres años, la irrupción de los grandes modelos de lenguaje —como ChatGPT, Claude o Ge­mini, y más recientemente otros como DeepSeek— ha ampliado la influencia de la IA más allá del análisis de datos: ahora participa también en la concepción de ideas y en la elaboración textual. Herramientas de redacción académica asistida permiten generar resúmenes automá­ticos, redactar propuestas de proyectos o incluso sugerir hipótesis a partir de literatura previa. Pero aquí el dilema se vuelve más profundo. Si un algoritmo puede redac­tar una introducción coherente, sintetizar resultados y generar conclusiones plausibles, ¿qué queda del acto in­telectual de escribir ciencia? La escritura académica ha sido siempre un proceso de pensamiento, una forma de ordenar ideas y construir argumentos que implicaba al menos cierto posicionamiento y diálogo reflexivo con la comunidad científica. Cuando el texto se produce de manera automática, existe el riesgo de que el investiga­dor se limite a supervisar una narrativa generada por otro ente (una máquina en concreto), reduciendo su papel a un simple corrector de contenido.

Por ello, cada vez más instituciones insisten en la necesidad de educar al investigador en el uso crítico de estas herramientas. La IA puede ser un aliado podero­so para liberar tiempo y potenciar la creatividad, pero no debe sustituir la reflexión, la duda ni la argumentación propia. La investigación asistida por IA no debería enten­derse como una delegación del pensamiento, sino como un diálogo entre el ser humano y la máquina, donde la segunda se utiliza como una herramienta que permite mejorar, no sustituir, el proceso de creatividad, razona­miento y la creación del conocimiento. La universidad se enfrenta así a la tarea de integrar estas herramientas sin renunciar a su esencia: formar mentes críticas capaces de pensar más allá de los algoritmos.

Impacto en España

De acuerdo con la Comisión Europea (2023), el desarro­llo de políticas en torno al Acta de Inteligencia Artificial marca una pauta de confianza y regulación en la inves­tigación universitaria en Europa. En el caso concreto de España, se encuentra en un momento decisivo respecto a la incorporación de la IA en su sistema universitario y de investigación.

El impacto de la IA en la investigación universitaria es­pañola también se ha manifestado en la apertura a redes internacionales. La participación en proyectos europeos como AI4Europe, Horizon Europe y Open Research Eu­rope, ha permitido a las universidades españolas acceder a sistemas avanzados de análisis bibliométrico y platafor­mas colaborativas impulsadas por IA. Estas herramientas facilitan la evaluación automática de la producción cien­tífica, la detección de duplicidades y la identificación de áreas de investigación prioritarias para la Unión Euro­pea. Gracias a la IA, la gestión de los datos científicos se ha vuelto más precisa y transparente, favoreciendo una ciencia abierta y reproducible. Los sistemas de análisis semántico permiten explorar miles de publicaciones para descubrir tendencias temáticas, evaluar la originalidad de las investigaciones y mejorar la visibilidad internacio­nal de los proyectos.

No obstante, este proceso no está exento de tensiones. Algunos investigadores alertan sobre el riesgo de una hi­pernormalización de la ciencia, donde los algoritmos prio­rizan líneas de trabajo basadas en métricas de impacto, dejando en segundo plano la investigación exploratoria o interdisciplinar o, como ya se ha mencionado, no hege­mónica. La eficiencia puede convertirse en una trampa si se traduce en homogeneidad intelectual. En este sentido, la universidad española se enfrenta al reto de aprovechar la IA para mejorar su competitividad sin perder su diver­sidad epistemológica ni su vocación crítica. Asimismo, la incorporación de la IA ha reavivado el debate sobre la evaluación del desempeño científico. Las herramientas de análisis automático permiten cuantificar la producción, pero corren el riesgo de reducir la calidad a un conjunto de indicadores largamente cuestionado. La verdadera ex­celencia académica, recordaban los rectores en el último informe de Crue Universidades Españolas (2024), no se mide únicamente por la productividad, sino por la capaci­dad de generar conocimiento con valor social y ético.

En definitiva, el impacto de la IA en la investigación universitaria española es innegable. Está transformando la manera en que se produce, gestiona y evalúa la ciencia. Pero su éxito dependerá de la madurez con que las institu­ciones sean capaces de combinar la innovación tecnológi­ca con la preservación de los principios fundamentales de la investigación: la libertad intelectual, la transparencia y el compromiso con la verdad.

Impacto en Latinoamérica

La expansión de la inteligencia artificial en la investiga­ción universitaria latinoamericana sigue una trayectoria distinta a la europea. Mientras en Europa la IA se ha integrado principalmente como herramienta estratégica dentro de políticas de innovación y competitividad, en Latinoamérica su incorporación avanza en paralelo a los esfuerzos por reducir brechas tecnológicas, modernizar la educación superior y fortalecer los sistemas naciona­les de ciencia y tecnología. Zawacki-Richter et al. (2019) subrayan que la adopción de la IA en la educación su­perior latinoamericana requiere infraestructuras digitales y competencias docentes sostenidas que mantengan el interés por la IA como motor de transformación cientí­fica de forma sostenida y transversal en la región, desde las universidades públicas hasta los centros privados de investigación.

A pesar de estos avances, la expansión de la IA en la investigación latinoamericana se enfrenta a diversos obstáculos estructurales. La primera limitación es la infraestructura tecnológica. Muchas universidades ca­recen de servidores de alto rendimiento, recursos para almacenar grandes volúmenes de datos o acceso estable a herramientas avanzadas de IA en la nube. Esta carencia genera una dependencia tecnológica hacia proveedores extranjeros, lo que a su vez plantea dilemas sobre sobera­nía digital, autonomía científica y la promesa de la IA de democratizar el conocimiento.

El segundo desafío es la brecha de capacitación. Aunque los programas de posgrado comienzan a incorporar asignaturas sobre ciencia de datos e inteli­gencia artificial, persiste una carencia de formación específica para investigadores en humanidades, cien­cias sociales y áreas interdisciplinarias. La IA tiende a concentrarse en los campos técnicos, lo que amenaza con profundizar la desigualdad entre disciplinas y en­tre instituciones.

Pese a estas limitaciones, la región posee un poten­cial enorme. La diversidad cultural y lingüística de La­tinoamérica ofrece un campo fértil para el desarrollo de algoritmos inclusivos y de sistemas de IA entrenados con datos representativos de sus realidades sociales. Además, la creciente cooperación entre redes universitarias iberoamericanas, como la Asociación de Universidades Grupo Montevideo (AUGM) o la Unión de Universida­des de América Latina y el Caribe (UDUALC), permite compartir infraestructuras, experiencias y proyectos co­munes. Estas alianzas fortalecen la capacidad colectiva de innovación y fomentan una visión compartida de la ciencia como bien público.

El impacto de la IA en la investigación universita­ria latinoamericana, por tanto, es ambivalente. Por un lado, impulsa la modernización, la colaboración y la in­ternacionalización de la ciencia regional. Por otro, plan­tea tensiones entre autonomía y dependencia, acceso y exclusión, innovación y desigualdad. En este delicado equilibrio reside el mayor desafío para las universidades de la región: aprovechar el potencial transformador de la IA sin renunciar a su compromiso con la equidad y el desarrollo sostenible.

Desafíos y riesgos

El entusiasmo que despierta la IA en la Universidad con­vive con una serie de tensiones que no pueden ignorarse. La misma tecnología que promete democratizar el acceso al conocimiento puede también reproducir desigualdades, sesgos y dependencias invisibles.

Sesgos algorítmicos y fiabilidad de resultados

Los sesgos algorítmicos constituyen uno de los principales riesgos de la inteligencia artificial en la investigación acadé­mica. Los sistemas de IA aprenden de los datos con los que son entrenados y, si estos reflejan desequilibrios de género, idioma, región o ideología, los reproducen y amplifican. En el ámbito universitario, esto puede distorsionar los resultados y relegar corrientes científicas minoritarias. Los algoritmos de recomendación suelen priorizar publicaciones en inglés y de alto impacto, marginando la producción en español o con enfoques críticos, lo que refuerza un sistema académico basado en jerarquías editoriales y métricas internacionales. Además, la fiabilidad de los resultados generados por IA es problemá­tica: en las ciencias experimentales pueden surgir correlacio­nes espurias, en las sociales interpretaciones engañosas y en las humanidades errores de traducción. La precisión estadís­tica no equivale a comprensión ni verdad. El rigor científico no puede depender de modelos opacos: debe sustentarse en la supervisión crítica y la responsabilidad académica.

Ética y responsabilidad en la investigación académica

El segundo gran desafío es el uso ético y responsable de la IA en la investigación. La posibilidad de automa­tizar la redacción de textos, sintetizar fuentes o generar hipótesis plantea preguntas incómodas sobre la autoría, la originalidad y la integridad académica. ¿A quién per­tenece un artículo en cuya redacción intervino una herra­mienta generativa? O más precisamente, ¿Cómo distinguir entre la asistencia legítima y el plagio asistido por la inteli­gencia artificial?

Algunas universidades españolas y latinoamericanas han comenzado a establecer códigos éticos específicos para el uso de IA en la investigación, inspirados en los principios de transparencia, trazabilidad y responsabilidad (Wilkinson, 2016). Estos códigos insisten en que toda par­ticipación de una herramienta de IA debe ser declarada explícitamente, y en que el investigador humano sigue siendo el único responsable de los contenidos, los datos y las conclusiones que firma. En este sentido, la Royal Society (2022) enfatiza que el futuro de la investigación impulsada por IA debe equilibrar innovación y respon­sabilidad, promoviendo la cooperación internacional y la transparencia científica.

Más allá de la regulación, el debate ético obliga a re­pensar el sentido mismo de la creatividad científica. Si la IA puede generar ideas plausibles, el valor del pen­samiento humano radicará, más que nunca, en la capa­cidad de formular preguntas significativas, de dudar, de contextualizar. Por ello, en la era de la IA la ética que se limita a evitar malas prácticas es una ética de míni­mos; se debe apostar por una Ética (con mayúsculas) de la responsabilidad y la pedagogía. La universidad, como institución formadora de conocimiento, tiene el deber de enseñar no solo a usar la IA, sino a pensarla críticamente, a comprender sus limitaciones y a situarla al servicio del bien común.

Dependencia tecnológica y brecha digital

Finalmente, el tercer gran riesgo es la dependencia tec­nológica y la ampliación de la brecha digital. El acceso desigual a infraestructuras de cómputo, software especiali­zado o servicios de IA basados en la nube puede profundi­zar las disparidades entre universidades, regiones e inves­tigadores. Esta desigualdad no solo limita la producción científica, sino que condiciona qué tipo de conocimiento se genera y quién puede producirlo. La concentración de herramientas avanzadas en el norte global refuerza un sis­tema de dependencia tecnológica que continúa las viejas asimetrías de la economía del conocimiento. Si la investi­gación universitaria se apoya cada vez más en plataformas privadas y algoritmos cerrados, la autonomía científica se verá más erosionada aún por intereses comerciales o geopolíticos. Frente a ello, las universidades deben apos­tar por el desarrollo de soluciones abiertas, colaborativas y transparentes. Promover ecosistemas de IA académica basados en software libre, datos abiertos y cooperación in­ternacional es una estrategia para preservar la soberanía del conocimiento.

Oportunidades y futuro

Si los riesgos de la IA obligan a la cautela, sus oportuni­dades invitan a la esperanza. La IA puede actuar como catalizador de cooperación, motor de innovación y he­rramienta de equidad. Lejos de verse únicamente como amenaza o sustituto, la IA puede convertirse en un alia­do estratégico para fortalecer las capacidades humanas, ampliar la mirada científica y democratizar el acceso a la investigación de calidad.

1. IA como catalizador de la cooperación internacional

La primera gran oportunidad reside en la cooperación científica internacional. La IA permite conectar investiga­dores, proyectos y datos en una escala sin precedentes. En el contexto iberoamericano, donde los lazos lingüísticos y culturales favorecen la interacción, estas herramientas ofrecen una posibilidad real de construir redes científicas transnacionales. Proyectos de ciencia abierta impulsados por la Unión Europea, la UNESCO y la Organización de Estados Iberoamericanos (OEI) ya están promoviendo es­pacios colaborativos donde investigadores españoles y la­tinoamericanos comparten infraestructuras digitales para el análisis de datos, la gestión de publicaciones y la forma­ción en competencias digitales.

2. Potencial para la innovación social y científica en Latinoamérica

La inteligencia artificial ofrece un enorme potencial innovador para afrontar los grandes retos sociales de Amé­rica Latina —desigualdad, cambio climático, exclusión educativa y precariedad laboral, entre otros muchos— mediante soluciones basadas en datos. Las universidades pueden liderar proyectos que apliquen IA en planificación urbana, salud pública y educación personalizada orientada a la equidad, al bienestar social, y a la mejora continua de nuestras sociedades.

Pero el valor de la IA no reside únicamente en su capacidad técnica, sino en su potencial para articular conocimiento científico y compromiso social. Las uni­versidades latinoamericanas tienen la oportunidad de construir un modelo propio de inteligencia artificial: uno que no replique de manera pasiva las agendas del norte global, sino que responda a las necesidades y con­textos de sus comunidades. Apostar por una IA situada (Haraway, 1995), sensible a las lenguas, culturas y rea­lidades locales, es un modo de reafirmar la soberanía científica y de transformar la tecnología en instrumento de justicia cognitiva.

3. La necesidad de formar investigadores con pensamiento crítico y competencias digitales

El futuro de la IA en la universidad dependerá, en úl­tima instancia, de las personas que la utilicen. Ninguna herramienta, por avanzada que sea, puede garantizar la calidad de la ciencia si quienes la manejan carecen de cri­terio, ética o formación crítica. Por ello, la tercera gran oportunidad —y también el mayor desafío— consiste en formar una nueva generación de investigadores híbridos, capaces de combinar competencias digitales con sensibi­lidad humanística. El investigador del siglo XXI debe en­tender cómo funcionan los algoritmos, pero también cues­tionar sus implicaciones sociales; debe saber entrenar un modelo, pero igualmente analizar los valores y sesgos que este refleja.

En este sentido, la formación doctoral y los programas de posgrado juegan un papel crucial. Incorporar la alfabe­tización algorítmica, la ética digital y la gestión responsable de datos como competencias básicas de investigación no es una opción, sino una necesidad. La universidad debe enseñar no solo a usar la IA, sino a gobernarla, asegurando que el poder de los algoritmos esté siempre subordinado al juicio crítico y al servicio público del saber.

Conclusiones

La IA ha irrumpido en la universidad como algo mucho más complejo y profundo que una simple herramienta tecnológica; se trata de una fuerza transformadora que redefine los fundamentos mismos de la investigación aca­démica. Sin embargo, después del entusiasmo inicial es imprescindible dar paso a una fase más reflexiva: la de comprender que la IA no es solo un aliado de la eficiencia, sino también un desafío para la ética, la autonomía y el sentido del saber universitario.

El balance entre eficiencia y ética se ha convertido en la nueva frontera de la investigación contemporá­nea. Por un lado, la IA permite acelerar procesos, re­ducir tiempos y abrir horizontes de exploración cientí­fica antes inimaginables. Por otro, puede uniformar el pensamiento, invisibilizar la diversidad epistemológica y erosionar la autoría intelectual si se usa sin conciencia crítica. El rigor científico basado en la transparencia, la verificabilidad y la honestidad intelectual no puede ser sustituido por la eficiencia algorítmica. El pensamiento crítico sigue siendo el núcleo del quehacer universita­rio, incluso en una era donde los algoritmos escriben, analizan y predicen.

En el contexto español, las universidades avanzan hacia una integración responsable de la inteligencia artificial, consolidando infraestructuras de datos, proyectos colabo­rativos y políticas de ética digital. En Latinoamérica, el proceso es más desigual, pero también más creativo: la IA se asocia con la búsqueda de soluciones locales, con la in­novación social y con la aspiración de reducir brechas his­tóricas. En ambos casos, la clave está en construir modelos de IA que no dependan exclusivamente de la tecnología importada, sino que surja del pensamiento propio y de las necesidades de las comunidades académicas locales.

Por lo tanto, y por último, la IA, bien entendida, no sustituye al investigador: lo amplifica. Le permite explorar con mayor profundidad, conectar ideas dispersas, imagi­nar soluciones innovadoras.


Referencias

Benkler, Y. (2019). Network Propaganda: Manipulation, Disinformation, and Radica­lization in American Politics. Oxford University Press.

Brynjolfsson, E., & McAfee, A. (2017). Machine, Platform, Crowd: Harnessing Our Digital Future. W. W. Norton & Company.

European Commission. (2023). Artificial Intelligence Act: Regulation (EU) Proposal for Trustworthy AI. Brussels: Publications Office of the EU.

Floridi, L. (2022). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Springer.

Haraway, D. J. (1995). Ciencia, cyborgs y mujeres: la reinvención de la naturaleza (Vol. 28). Universitat de València.

Mittelstadt, B. (2023). Principles alone cannot guarantee ethical AI. Nature Machi­ne Intelligence, 5(1), 8–10.

OECD. (2023). AI in Science: Understanding its Role and Impact. Paris: OECD Science, Technology and Industry Policy Papers.

Royal Society. (2022). The Role of AI in Research: Opportunities, Challenges, and the Future of Scientific Discovery. London: The Royal Society.

Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.

UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO.

Wilkinson, M. D., Dumontier, M., Aalbersberg, I. J., Appleton, G., Axton, M., Baak, A., … & Mons, B. (2016). The FAIR Guiding Principles for scientific data ma­nagement and stewardship. Scientific data, 3(1), 1-9.

Zawacki-Richter, O., et al. (2019). Systematic review of research on artificial inte­lligence applications in higher education. International Journal of Educational Technology in Higher Education, 16(1), 39.


Nota

  1. https://www.wired.com/2008/06/pb-theory/ ↩︎

Foto: © CC Wikimedia Commons/ El Pantera