Daniel Innerarity: «Una teoría crítica de la inteligencia artificial»

Ante la falsa ilusión de neutralidad de los datos y de eficacia de la gobernanza algorítmica, corremos el peligro de ceder la soberanía de nuestras decisiones políticas a los procesos automáticos

Imagen generada con Chat GPT
Nueva Revista

Daniel Innerarity. Catedrático de Filosofía Política, investigador Ikerbasque en la Universidad del País Vasco, director del Instituto de Gobernanza Democrática y titular de la Cátedra Inteligencia Artificial y Democracia del Instituto Europeo de Florencia. Columnista de El País, El Correo y La Vanguardia. Autor, entre otros ensayos, de La sociedad invisible, Política para perplejos y La libertad democrática. Su libro Una teoría crítica de la inteligencia artificial, que reseñamos a continuación, ha obtenido el III Premio de Ensayo Eugenio Trías.

Avance

La actual gobernanza regida por los algoritmos no es sino un eslabón de una larga cadena que comienza con Hobbes, considerado «el abuelo de la inteligencia artificial», que en el siglo XVII definió al Estado como un automaton. La sociedad política ha sido siempre una sociedad maquinizada, y los seres humanos nunca hemos sido plenamente soberanos de nuestras decisiones. Con este punto de partida, Daniel Innerarity desarrolla «una teoría crítica de la decisión democrática en un entorno mediado por la inteligencia artificial». Cree que mejor que una moratoria ante la IA o una ética para codificarla, es más adecuado un examen filosófico de su naturaleza y de los riesgos que comporta, pero también de sus virtualidades.

Daniel Innerarity. «Una teoría crítica de la inteligencia artificial». Galaxia Gutenberg, 2025

Comienza diciendo que no se la puede calificar propiamente de inteligencia, ya que «no es capaz de hacer lo que hace el cerebro humano». Carece de rasgos específicos de este: el sentido común y la reflexividad, de manera que es capaz de hacer diagnósticos médicos e imitar patrones de conducta humana, pero sin entenderlo. Y su matemática precisión le priva del encanto paradójico de la imprevisibilidad que posee la inteligencia humana, sujeta a la sorpresa, al fallo, a lo ambiguo. De lo imprevisible nace lo creativo, de ahí que la IA pueda componer música, pero no podría innovar con rupturas sorprendentes como hizo Beethoven en su etapa tardía. Carece, en fin, del soporte físico del cuerpo humano, lo que le impide instalarse en el mundo y comprender los contextos de la realidad.

Nos seduce la apariencia de neutralidad de los datos, que se han vuelto imprescindibles, hasta el punto de que al Estado del bienestar estaría siendo reemplazado actualmente por «el Estado informacional». Pero es necesario saber que «los datos no nos representan», ni son neutrales porque están cocinados e impregnados de los intereses de quienes los producen. Eso no quiere decir que la gobernanza algorítmica carezca de utilidad para tareas como la asignación de recursos o la predicción de escenarios. Pero luego hay que interpretar y decidir y eso solo es facultad del ser humano. Es necesario, por lo tanto, un contrato social tecnológico, para negociar «el espacio híbrido de acción en el que nos desenvolvemos los seres humanos y los artefactos tecnológicos».

Por último, el autor alerta sobre la amenaza de un nuevo absolutismo: que los procesos mecánicos y la lógica algorítmica erosionen la diversidad, el debate y el margen de interpretación. Pese a todo, Innerarity considera que «la democracia en la era de la inteligencia artificial ni se va a superar ni se va a suprimir; se va a condicionar». 

ArtÍculo

No son tan contrapuestas la tecnología y la democracia como se podría deducir de las alarmas de corte apocalíptico que exhiben los pesimistas sobre los peligros de la inteligencia artificial. Este es el punto de partida de la teoría crítica que Daniel Innerarity desarrolla en su libro. Ya en el siglo XVII, Thomas Hobbes definió al Estado como un automaton, un gigantesco engranaje que mide, planifica y calcula. No en vano el autor del Leviatán es conocido como «el abuelo de la inteligencia artificial». El fenómeno de la gobernanza algorítmica no es sino la manifestación de una vieja tendencia.

Tampoco se trata de idealizar «la autoría popular de la democracia, como si alguna vez en el pasado los humanos hubiéramos sido plenos autores soberanos de nuestras decisiones». La democracia ha estado siempre mediatizada y la sociedad política ha sido siempre una sociedad maquinizada. De suerte que «la automatización, la mediación y la soberanía compartida no son algo completamente inédito en la historia política de la humanidad». La llamada democracia compleja, cuya teoría elaboró el propio Innerarity en un ensayo anterior, proporciona «un marco de referencia para integrar los tipos de toma de decisiones» que se dan en el ecosistema de hombres y máquinas.

Si la política a lo largo del siglo XX giró en torno al debate acerca de cómo equilibrar Estado y mercado, la gran cuestión hoy es «decidir si nuestras vidas deben estar regidas por procedimientos algorítmicos y en qué medida»; de suerte que «el modo en que configuremos la gobernanza de estas tecnologías va a ser decisivo para el futuro de la democracia; puede implicar su destrucción o su fortalecimiento», advierte el pensador.

Ante el riesgo de que la delegación de decisiones en un government machine implique rendición de nuestra soberanía, hay tres respuestas posibles, nos dice Innerarity: la moratoria, la ética y la crítica política. La primera opción es discutible: «¿no mejorar los modelos de procesamiento durante un tiempo es menos arriesgado que seguir mejorándolos? […] La solución no es parar nada, sino más reflexión, investigación, inteligencia colectiva, debate democrático y regulación». Y si la moratoria frenaba demasiado, la ética frena demasiado poco y «puede convertirse en un inofensivo acompañamiento del desarrollo tecnológico irreflexivo». Queda la crítica filosófica y política. Los filósofos, indica el autor, «no damos por supuesto casi nada; de entrada, no damos por supuesto que la inteligencia artificial es inteligente ni artificial, e interrogamos acerca de la pertinencia y alcance de esos calificativos para esta clase de artefactos». Innerarity examina, igualmente, el concepto de democracia, que ahora se enfrenta a formidables desafíos con la nueva encrucijada tecnológica. Su objetivo es, justamente, elaborar «una teoría de la decisión democrática en un entorno mediado por la inteligencia artificial, elaborar una teoría crítica de la razón automática y algorítmica. Necesitamos una filosofía política de la inteligencia artificial».

Desde ese planteamiento, el autor estructura el ensayo en tres partes. Se interroga en la primera por la razón algorítmica y lo que diferencia a la inteligencia artificial de la humana; examina en la segunda los límites prácticos de aquella razón y propone un contrato social tecnológico; y en la tercera, desarrolla la filosofía política de la inteligencia artificial y cómo puede coexistir con (y beneficiar a) la democracia.

La IA, desmitificada

Afirma Innerarity que la inteligencia artificial carece de las propiedades de la humana, ya que solo es «inteligencia instrumental»; y que nos imita con asombrosa precisión, pero es «incapaz de comprender la realidad», porque no tiene algo tan específico de los humanos como es «el sentido común, una capacidad natural de hacerse con el contexto de una situación». De hecho, las máquinas no fallan en preguntas complejas de lógica, sino en aquellas que requieren comprensión del contexto. La IA puede traducir textos, hacer diagnósticos médicos e imitar patrones de conducta humana, pero de forma mecánica, sin entenderlo.

Estrechamente relacionada con el sentido común está la reflexividad, una forma elemental de metaconocimiento en virtud de la cual sabemos qué sabemos o qué ignoramos. Por mucho que aprendan, «los algoritmos no tienen una idea propia de lo que han aprendido».

La inteligencia artificial es «un conjunto de técnicas inapropiadas para un mundo abierto, […] el de la comunicación humana, que discurre, en buena medida, entre ambigüedades y plurivocidades. No es posible flirtear sin sugerir, la publicidad sin exageración, una sátira sin contexto, no hay humor sin curiosidad». La fuerza de la inteligencia del ser humano reside en su imprevisible ambigüedad e imperfección. Incluso el arte, la literatura, la música, se nutren de lo imprevisto… de ahí le viene el encanto paradójico, del que carece la IA: «La creatividad surge cuando irrumpe algo impredecible. […] Ningún programa que sepa componer como Beethoven habría podido componer las obras de su estilo tardío, que suponen una impredecible y asombrosa ruptura con su evolución», apunta Innerarity.

Finalmente, es imposible escindir la conciencia del soporte físico del cuerpo, como pretenden los posthumanistas y Ray Kurzweil, que sostiene que seremos capaces de conectar el cerebro a una nube. A diferencia de la IA, los humanos «pensamos corporalmente y, como consecuencia de ello, la conciencia es una función de todo el cuerpo y no del cerebro aislado». Ya lo expresó, con fuerza poética, Nietzsche —refiere el autor—: «No somos ranas pensantes, ni aparatos sin entrañas, registradores de la objetividad; debemos dar constantemente a nuestros pensamientos, desde nuestro dolor y maternalmente, todo lo que tenemos en nosotros de sangre, corazón, fuego, pasión, agonía, conciencia, destino, catástrofe».

Por muy sofisticada que llegue a ser, la inteligencia artificial no tiene por qué sustituir a la humana, «del mismo modo que no ha dejado de haber aves porque haya aviones. Los automóviles no son caballos más rápidos ni los aviones aves más sofisticadas». Si la IA hiciera lo que hace el cerebro humano, «habría motivos para inquietarse, pero lo cierto es que, pese a su nombre, se parecen bastante poco».  

Los datos no nos representan

El peligro está en que la automatización de los procesos comprometa nuestra soberanía, en una democracia representativa. ¿Qué pasa cuando «ese proceso se automatiza con reglas preprogramadas en el que la cadena de legitimidad y responsabilidad –sin la que no hay democracia– resulta más difícil de identificar?».

¿Qué pasa cuando delegamos buena parte del conocimiento y de nuestras decisiones al big data? Este se ha revelado tan imprescindible que ha conformado lo que Innerarity llama «el estado informacional, que estaría reemplazando al estado burocrático del bienestar». La apariencia de asepsia y objetivismo de los datos pueden hacernos pensar que las sociedades democráticas se encaminan «a una ideología más allá de cualquier ideología, y cuyo paradigma sería no politics, just data (sin política, solo datos)». Los datos nos seducen por su vitola de precisión: «Los políticos desean una estadística fiable, los medios buscan hechos objetivos, los jueces aspiran a identificar causalidades irrefutables y la gente añora la certeza de los números».

Pero ojo, —advierte el autor— «los datos no nos representan», porque sus bases son creadas por actores con determinados objetivos. «Los datos no son independientes del sistema de pensamiento y de los instrumentos en los que se basa su producción». Pero es tal su prestigio que tendemos a tener «una fe exagerada en su neutralidad».  

Contrato social tecnológico

Dejar buena parte de las decisiones a la automatización ahorra tiempo y facilita muchas cosas en la vida cotidiana, pero encierra grandes riesgos, incluso físicos. Innerarity pone el ejemplo de los pilotos humanos del avión de Air France que cayó al Atlántico en 2009. No supieron evitar la catástrofe, al haberse desconectado el piloto automático, porque no habían recibido formación sobre cómo ganar altura. Sensu contrario, la pericia humana del comandante Sullenberger salvó al pasaje entero de un Airbus, al lograr que aterrizara en el río Hudson, en lugar de fiarse de la máquina, que les hubiera abocado a la tragedia. La hazaña mereció la famosa película Sully, dirigida por Clint Eastwood.

Esa clase de riesgos aumentará al fiarnos en exceso de una inteligencia artificial que va a estar presente en numerosos ámbitos de la vida. La civilización avanza —indicaba el filósofo A. N. Whitehead— en la medida en que hay aparatos y procedimientos que nos permiten actuar sin tener que reflexionar. El fundamento de nuestra civilización es el sometimiento a lo no comprendido. Y cuanto más sofisticada es la máquina, cuando más capaces son los algoritmos, también son más opacos y «más difícil es comprender sus decisiones». De ahí la necesidad de un contrato social tecnológico, negociando «el espacio híbrido de acción en el que nos desenvolvemos los seres humanos y los artefactos tecnológicos».

Limitaciones democráticas de la gobernanza algorítmica

En contra de la idea de ordenador como «máquina universal», —que preconizaba Alan Turing—, es erróneo pensar que «las tecnologías digitales pueden encargarse de todos los problemas políticos y sociales». La gobernanza algorítmica está para lo que está. Es sumamente útil para tareas como la asignación de recursos o la predicción de escenarios. Pero luego hay que decidir y eso solo es facultad del ser humano. De hecho, subraya Innerarity, «las cuestiones políticas son aquellas que solo se pueden resolver con juicios de valor. […] Hay política allí donde, pese a todas las sofisticaciones de los cálculos, nos vemos obligados a tomar una decisión que no está precedida por razones abrumadoras ni conducida por unas tecnologías infalibles».

Al funcionar con un código 0/1, todo lo que sea indefinido o impreciso tiene difícil encaje en esa lógica binaria. Los algoritmos son apropiados para «desenvolverse en circunstancias cuantificables pero incapaces de preguntarse por el sentido o la validez. […] Y la política consiste en decidir en medio de condiciones en las que no hay una evidencia incontrovertible, donde los objetivos suelen ser cuestionables, ambiguos y necesitados de concreción».

Además, los algoritmos hacen predicciones que reflejan patrones pasados, «lo cual resulta especialmente inadecuado para aquellas actividades que tienen el propósito de intervenir en el mundo con el objetivo de cambiarlo». Por ejemplo, «un algoritmo no podría haber generado movimientos como el #MeToo que implica una ruptura deliberada con las prácticas machistas del pasado». En este sentido, la gobernanza algorítmica puede ser muy útil «para una concepción agregativa de la democracia, pero parece limitada para una idea más deliberativa de la vida política».

Un nuevo absolutismo

Nos amenaza ahora un nuevo absolutismo: que el procedimiento algorítmico erosione «los presupuestos en los que se basa el pluralismo democrático, la diversidad de lógicas e interpretaciones de la realidad». La política debe respetar las evidencias, pero «cuando se supone que solo hay hechos y objetividades que no requieren ninguna interpretación, la democracia carece de sentido».

«Si la democracia es el cratos del demos, no está muy claro hasta qué punto es democrático delegar en la tecnología nuestras decisiones», afirma Innerarity en el capítulo final El futuro de la democracia en la era digital. Y toma distancia tanto de los tecnófilos como de los tecnófobos que creen —los primeros con esperanza, los segundos con recelo—, que la tecnología puede sustituir a la política. Los tecnófilos son los que, con la llegada de las redes sociales, a comienzos del siglo XXI, pensaron que se creaba «un e-agora […] la realización del sueño democrático»; los tecnófobos ven internet y la inteligencia artificial como amenazas, tecnologías que impiden la libre decisión.

Innerarity, por el contrario, sostiene que «la democracia en la era de la inteligencia artificial ni se va a superar ni se va a suprimir; se va a condicionar». La vida política y la digitalización son procesos que evolucionan a la vez, pues los dos son construcciones abiertas, y están llamados a una «colaboración que fortalezca la democracia y refuerce sus valores centrales, al tiempo que inscriba esas tecnologías en un contexto humano y social sin el cual su significado quedaría muy reducido»


Reseña de Alfonso Basallo sobre Una teoría crítica de la inteligencia artificial, de Daniel Innerarity. Se puede leer la introducción del ensayo aquí.