Los desafíos del siglo XXI digital: una visión europea

Es pertinente regular la IA para soslayar riesgos relativos a la seguridad o a la propiedad intelectual. La normativa europea podría servir de modelo, dada su vocación de «rule setter digital»

Foto: © Shutterstock / DesigneRage
Carlos López Blanco

Carlos López Blanco. Abogado. Presidente de la Fundación Empresa Seguridad y Sociedad Digital (ESYS). Senior adviser de Flint para España y América Latina. Exsecretario de Estado de Telecomunicaciones.

Avance

En la revolución digital que está cambiando nuestro mun­do, la inteligencia artificial es el caballo de batalla por el liderazgo mundial con consecuencias geoestratégicas, eco­nómicas y sociales de calado. No es racional angustiarse por su supuesta capacidad para desplazar a la humana, como sostienen algunos agoreros; pero sí es pertinente regularla para soslayar riesgos reales y concretos, relativos a la seguri­dad, la privacidad o a la propiedad intelectual, por ejemplo. A la hora de hacerlo es preciso diseñar normas que protejan, pero sin frenar la innovación, evitando tentaciones prohibi­cionistas o moratorias que limiten el desarrollo tecnológico.

Un enfoque pragmático implica definir claramente qué está prohibido y cuáles son los límites que deben respetarse, en lugar de dirigir la evolución tecnológica; y no olvidar que las normas deben aplicarse a las personas y no a los algoritmos, que no son éticos por sí mismos. También deben soslayarse los sesgos ideológicos o de género, aunque sin caer en una «inteligencia artificial políticamente correcta» que restrinja la pluralidad social. Dado el carácter global de la IA, sería deseable una regulación internacional, si bien las diferen­cias entre los modelos occidental y oriental dificultan este objetivo; por ahora, lo más viable son acuerdos limitados sobre usos peligrosos, como armas autónomas. Además, deben considerarse los efectos en el empleo y los riesgos asociados a la computación cuántica.

Frente al modelo normativo de EE. UU., que con la Ad­ministración Trump parece bascular del light touch regula­tion al no regulation; y al modelo de China, centrado en un férreo control político; tenemos el mucho más desarrollado modelo regulatorio europeo que, dada su vocación de rule setter digital, podría ser «el espejo en el que se mirarán la mayoría de los países». Contamos con el precedente del Reglamento de IA, aprobado en 2024, que adapta con flexi­bilidad la normativa a cuatro niveles de riesgo inherentes a la IA: inaceptable, alto, limitado y mínimo. Se trata de una regulación coherente con una economía que no produce IA pero que pretende usarla masivamente y que no olvida tampoco los desafíos éticos que suscita, a fin de preservar los valores y principios de la sociedad democrática.

ArtÍculo

Se dice con frecuencia que estamos ante una revolución, la digital, que solo es comparable a la Revolución Industrial de finales del XVIII. La irrupción de la tecnología digital y sus consecuencias no es un fenómeno de nuestro siglo, sino que se remonta a cambios tan importantes, pero lejanos en el tiempo, como la informática, la primera tecnología digital, o la explosión de la conectividad —resultado de la convergencia de la informática y las telecomunicaciones de la mano de la telefonía móvil—. No se puede negar la trascendencia que estos fenómenos han tenido, pero cabe dudar de que con ellos estemos ante una nueva revolución que va a producir en la economía y la sociedad efectos comparables a los que tuvo la Revolución Industrial, sin la cual —no lo olvidemos— no podemos entender ni la economía ni el mundo moderno trescientos años después.

Que la tecnología digital está revolucionando nuestras empresas y nuestra economía está fuera de toda duda, pero no es suficiente para comparar este cambio con la Revolución Industrial. Todo ha cambiado en la economía, pero también en la sociedad. Si comparamos nuestra actividad cotidiana de hace solo diez años con la actual veremos que todo es diferente: cómo vendemos y compramos, encargamos comida, hablamos, cómo leemos y escribimos, escuchamos música o pagamos. Todas las actividades cotidianas, con connotaciones económicas o no, han sufrido una profunda y a veces imperceptible transformación en los últimos años, de la mano fundamentalmente de las plataformas digitales y de la segunda generación de empresas de internet; y esto nos permite afirmar que no estamos viviendo una revolución tecnológica, vivimos un cambio social.

Y este cambio social y económico tiene un sustrato también nuevo: los datos, verdadero motor de una nueva economía y de una revolución comparable a la industrial: la economía y la sociedad de los datos. Lo que The Economist, con el talento anglosajón para las fórmulas felices, ha bautizado como el petróleo del siglo XXI.

Una pregunta básica: ¿de qué estamos hablando, de economía digital o de digitalización? La primera, entendida como aquella parte de la economía que produce para el resto del sistema la tecnología, desde el software hasta los servicios en la nube, de los servicios de consultoría al desarrollo de algoritmos. Con digitalización nos referimos al proceso de incorporación masiva de estas tecnologías en todos los sectores productivos y empresas de todos los tamaños. Son vasos comunicantes y tienen una relación simbiótica, pero hay que distinguirlos y entender que no es en la economía digital sino en la digitalización donde nos encontramos con el motor del cambio social.

También la diferencia entre economía digital y digitalización marca la base de dos estrategias de política económica (y de economía política) diferentes: el fomento de un sector tecnológico competitivo o el fomento del proceso de introducción de los medios digitales (proporcionados por la economía digital) en todos los sectores de la economía (y la sociedad). En el primer caso, la estrategia de los Estados Unidos; en el segundo, la de Europa.

Hasta ahora hemos vivido con dos economías, la analógica tradicional y la digital, con reglas distintas y dinámicas diferentes que convivían; pero ha sido el proceso de digitalización y su aceleración a partir de la pandemia el que ha roto la diferencia entre ambas, invadida la economía analógica por la digitalizada, de manera que más pronto que tarde lo que hoy llamamos economía/sociedad digital será la única existente.

Contexto geopolítico de la digitalización

A finales del siglo XIX vivimos The Great Game, la lucha de los imperios decimonónicos, las grandes potencias europeas, por el dominio colonial del Asia Central, la gran zona geoestratégica del momento e inspiradora de la magnífica Kim de Rudyard Kipling. La segunda mitad del siglo XX, por su parte, nos trajo la guerra fría, donde la lucha de los imperios se centraba no en el dominio colonial sino en la supremacía militar. La caída del Muro de Berlín abrió una nueva era que se preveía unipolar bajo la hegemonía americana y que ha devenido en un mundo más inestable, transitoriamente multipolar, pero en que ha aparecido antes de lo previsto un nuevo contendiente por la hegemonía mundial, China.

Los actores son otros. ¿cuál es el campo de batalla de este New Great Game? Esta nueva lucha por la hegemonía geoestratégica no tiene por objeto ni la supremacía colonial del XIX ni la supremacía militar de la guerra fría sino la supremacía tecnológica, nuevo terreno de juego de la lucha por la hegemonía mundial. Y en este escenario, la inteligencia artificial (y la computación cuántica) no es solo la próxima frontera tecnológica: es el gran caballo de batalla por la hegemonía y el liderazgo mundial con consecuencias en el orden geoestratégico, político, económico y social.

China es un rival serio y creíble porque ha hecho viable un modelo que creíamos imposible: un mundo digital cerrado y controlado políticamente, pero capaz de competir e innovar, demostrando que la capacidad de ejecución es un factor crítico, más importante de lo que pensábamos y que permite a China rivalizar en términos de competitividad con una economía digital altamente innovadora como la americana.

Si estamos hablando del siglo digital y del cambio social que implica, hay que preguntarse por las estrategias, cómo cada región del mundo, y especialmente EE. UU. y China, abordan desde el punto político y regulatorio este mundo digital. Es esta una cuestión trascendente: si la digitalización, más allá de la disrupción tecnológica, es un cambio social que afecta a la economía, la sociedad y la política, el modelo de digitalización en el siglo XXI estará necesariamente vinculado al modelo de sociedad. Conocemos tres estrategias y modelos: el americano, basado en una light regulation; el chino, centrado en el control político del proceso digital que se configura como cambio top down a modo del despotismo ilustrado; y el modelo europeo, centrado en la necesidad de establecer reglas y normas en la economía digital y la digitalización.

No olvidemos que la prevalencia de alguno de estos modelos, que no son solo de digitalización sino de sociedad, nos permitirá entender cómo va a ser la sociedad del siglo XXI y hay que recordar que solo dos de estos modelos están basados en los valores de la democracia representativa y la sociedad abierta; no son todos iguales ni igualmente deseables.

Tsunami regulatorio

Europa entró en el siglo XXI bajo el síndrome del perdedor: rezagada en el desarrollo digital y sin elementos suficientes para competir con el sector tecnológico americano, se obsesiona con una pregunta equivocada ¿porque no hay un Google europeo? En el juego de los modelos de digitalización, Europa ha creído que la única posibilidad de tener un papel en el siglo XXI es promover un modelo regulatorio europeo más allá del uso combinado de la política fiscal y la de competencia.

Con un fuerte espaldarazo en la conversión del régimen de protección de datos europeo en un estándar global de facto, lo que sí podemos afirmar es que, aunque llegue a ser un éxito, una estrategia regulatoria es, en sí misma, insuficiente: el liderazgo regulatorio debe ir acompañado de un intenso desarrollo de la digitalización de la economía y la sociedad; el terreno europeo ha de ser el de la digitalización de la economía y muy especialmente de sus empresas líderes. Y no parece que la situación sea mala: Europa se encuentra rezagada en el desarrollo de la economía digital y sectores críticos como la inteligencia artificial, el Cloud o la computación cuántica, pero los sectores tradicionales líderes de la economía europea (banca, energía, automóvil, etc.) lo son también de la digitalización, favorecidos por numerosos fondos públicos consecuencia de la pandemia. Valga, por todo, el ejemplo de Inditex, una de las pocas empresas que ha sabido convertir, en el comercio electrónico, una estructura física en una ventaja competitiva.

Pero todo tiene un precio: nuestras empresas y los operadores jurídicos se enfrentan ahora a un auténtico tsunami regulatorio: en los últimos cinco años la Unión Europea ha aprobado una regulación que afecta a todos y cada uno de los aspectos esenciales de la economía digital y la digitalización y lo ha hecho mayoritariamente mediante reglamentos (Acts) que garanticen la eficacia inmediata y homogénea de las nuevas normas. Así, en estos años se han regulado las redes de nueva generación Gigabit, la producción de chips, la ciberseguridad (las directivas DECR, NIS 2 -Network and Information Security 2- y el reglamento DORA -Digital Operational Resilience Act-), las esencialísimas DMA [Digital Markets Act] y DSA [Digital Services Act] que regulan ex ante [1] los mercados y servicios digitales y dos normas de datos, sin olvidar la primera regulación integral en el ámbito de la inteligencia artificial.

Es pronto para saber si esta estrategia va a ser un éxito, hay mensajes cruzados: por una parte, los agentes digitales están corrigiendo sus políticas más discutibles, pero por otro anuncian un día sí y otro también que determinadas innovaciones y nuevos servicios no serán implementados en Europa debido a la estricta regulación europea de los servicios y mercados digitales.

El apocalipsis que viene

Podríamos empezar con una archimanida referencia al preámbulo del Manifiesto Comunista de Marx y Engels cuando dice aquello de que «un fantasma recorre Europa…» Hoy un fantasma recorre no solo Europa sino todo el mundo y no es el comunismo, es la inteligencia artificial y sus peligros. No hay día ni medio de comunicación escrito o audiovisual que no esté prestando una atención inusitada a la IA, incluyendo The Economist que ya le ha dedicado seis portadas, y no tanto a sus posibilidades y beneficios para el desarrollo social y económico como a sus peligros y riesgos.

Hoy se encuentra en el centro de una opinión pública que se plantea cuáles son los riesgos de su aplicación y si es necesario limitarla o prohibirla para evitar lo que algunos luditas exquisitos nos han advertido: la posibilidad de que la IA pueda destruir el mundo o apoderarse de él. ¿Puede la IA ser un riesgo existencial para nuestras sociedades? La inteligencia artificial está mutando aceleradamente de la utopía a la distopía y llama la atención que en un mundo tan complejo hayan brotado como setas expertos en una materia de gran dificultad tecnológica, probablemente por la irrupción de ChatGPT, que no supone en sí mismo una gran novedad, pero ha permitido por primera vez al gran público experimentar, ver y tocar la inteligencia artificial.

El fenómeno de la inteligencia artificial requiere un comentario tranquilo y sosegado. Vayamos por partes: todo cambio de era, y la digitalización lo es, desata miedos y recelos, movidos unas veces por la ignorancia y otras por los daños que ocasionan las innovaciones en quien vive en la era anterior o no tiene posibilidad de prescindir de ella. La digitalización no podía ser ajena a este proceso y hemos visto cómo la irrupción de determinados modelos de negocio de la mano de las plataformas digitales ha suscitado la reacción de los afectados; como la movilización de los taxistas, nuestros luditas más castizos, que no acaban de entender que es mejor adaptarse que desaparecer y mejor influir en la elaboración de las reglas que bloquear las calles.

No han sido tampoco ajenos a este movimiento de resistencia a la digitalización los luditas light por antonomasia, los sindicatos, que, más sofisticados, hacen proclamación de su fe en la tecnología para, a continuación, y por la puerta de atrás, promover todo tipo de obstáculos normativos a su desarrollo.

Hasta aquí nada nuevo, nada que no fuera previsible ni que no hubiéramos visto antes. Lo que no esperábamos con la irrupción de la IA era la aparición de un grupo de luditas exquisitos: expertos en IA o pensadores del siglo XXI, que nos alertan de las consecuencias negativas que para nuestra sociedad tendrá la inteligencia artificial, que ellos han contribuido a desarrollar o difundir, y la conveniencia de plantearse seriamente su desarrollo o incluso establecer una moratoria de varios años.

Es como si Thomas Newcomen o James Watt hubieran alertado en su momento de los grandes peligros de la máquina de vapor y hubieran pedido una moratoria en su desarrollo o la prohibición del ferrocarril. Uno de los antiguos directivos de Google, Geoffrey Hinton, uno de los creadores de las redes neuronales, ha alertado de los peligros futuros del desarrollo de la inteligencia artificial, y sus palabras han tenido una repercusión extraordinaria en la opinión pública y publicada, porque concretan estos miedos difusos y los ponen en boca no de un apocalíptico sino de un integrado, en la de un experto, un Pablo de Tarso en plena caída del caballo, un converso, figura que siempre tiene, como los pesimistas, mucho prestigio intelectual. Yuval Noah Harari, desde la resaca de su prestigio bien ganado pero estirado hasta la saciedad, también nos ha advertido en The Economist, nada menos, de que la inteligencia artificial amenaza la supervivencia de la civilización. En resumen, un festín para los morbosos y catastrofistas de toda condición y también los defensores de la tecno-resistencia.

¿Están justificados estos temores? Hagamos primero una revisión general sobre lo que es la inteligencia artificial y como, en tantas ocasiones, lo que no es; porque solo considerando también una definición de tipo negativo podremos tener una idea cercana de lo fundado o no de estos temores. Busquemos una definición precisa, propuesta por la Unión Europea: La inteligencia artificial (IA) se refiere a los sistemas que muestran un comportamiento inteligente mediante el análisis de su entorno y la toma de acciones, con cierto grado de autonomía, para lograr objetivos específicos. Los sistemas de la IA pueden estar puramente basados en software o se pueden integrar en dispositivos de hardware.

Partiendo de la definición ¿cuáles son sus características? Es el mundo de los algoritmos: la IA se basa en algoritmos que extraen resultados de un gran volumen de datos y tiene una velocidad de aprendizaje y entrenamiento superior a la humana. Además, la IA no se degrada y es incansable, tiene un comportamiento inteligente, cierto grado de autonomía y está directamente relacionada con el desarrollo de la computación cuántica. Así, tres son los atributos de la IA: conducta inteligente, cierto grado de autonomía y se refiere tanto al software como al hardware.

La gran pregunta: ¿en qué se diferencia la inteligencia artificial de la humana? Tres son las características de la inteligencia que no puede replicar la inteligencia artificial: es multipropósito, el conocimiento es reutilizable y la creatividad e imaginación. La artificial para ser comparable debería ser de carácter general, como es la inteligencia humana. La inmensa complejidad neuronal del cerebro hace pensar que la singularidad, la superinteligencia artificial, réplica del cerebro que supere a la inteligencia humana es una predicción con poco fundamento.

¿Dónde está la barrera infranqueable para la IA?, ¿qué es lo que nunca podrá hacer?

1) Partir de cero y crear algo que no existe.
2) Opinar, ser autocrítica.
3) Sentir emociones: la IA no puede experimentar emociones como los humanos.
4) Pensar de manera abstracta y creativa o improvisar.

No parece que con esta realidad encima de la mesa sea muy racional angustiarse por la capacidad de la inteligencia artificial de desplazar a la humana y poner fin a nuestra civilización. Sería contrario a la experiencia decir que esto nunca podrá suceder, pero sí que esto no podrá suceder en un futuro alcanzable.

Los riesgos reales de la IA y su regulación

Parece, por tanto, que no tiene mucho sentido continuar la discusión sobre el advenimiento del apocalipsis, un ejercicio inútil o melancólico que nos impide centrarnos en aquello que realmente merece la pena; no dejemos que el árbol del apocalipsis tecnológico nos impida ver el bosque de los riesgos reales: los problemas concretos y no los que todavía no existen y nunca van a existir, sin regodearnos en distopías. ¿Quiere esto decir que el uso de la IA no implica riesgos?, ¿que no hay que regularla? Al contrario, esta necesidad es más urgente que nunca porque, como ha dicho Ignatieff, no debería evolucionar la IA mucho más deprisa que nuestra capacidad para regularla. Centrémonos pues en la necesidad de abordar su regulación y los problemas reales de su implementación que, como señala Kai Fu Lee, se resumen en cuatro: transparencia, datos, seguridad e imparcialidad.

Se necesita regulación, pero por razones más mundanas que salvar a la humanidad. Los sistemas de IA existentes plantean preocupaciones reales sobre el sesgo, la privacidad y los derechos de propiedad intelectual. A medida que avanza la tecnología, otros problemas podrían hacerse evidentes y habrá que pensar sobre cuáles son los retos fundamentales de la regulación que constituyen esos desafíos comunes:

1) Es necesario encontrar el equilibrio regulatorio y evitar las tentaciones prohibicionistas o que establezcan moratorias: la regulación de la IA no debe matar su desarrollo ni frenar la innovación.

2) Hay que abordar problemas realmente existentes y no de futuro imperfecto y entre ellos el más relevante y delicado es el relativo al uso de los datos. También es necesario garantizar la ciberseguridad y prevenir la desinformación y los deep fakes.

3) Una regulación pragmática de la IA debe centrarse más que en dirigir su desarrollo y establecer qué es lo que se puede hacer, en lo que no se puede hacer y fijar límites que han de respetarse en el ámbito de la IA.

4) No hay algoritmos éticos o no éticos: el objeto de la regulación no pueden ser los algoritmos, el objeto deben ser las personas y las normas que deben seguirse y sobre todo evitarse en su diseño y desarrollo.

5) Es evidente el riesgo de los sesgos de todo tipo, especialmente ideológicos o de género, en el desarrollo de la inteligencia artificial, pero evitarlos no puede llevar a la construcción de una IA políticamente correcta que limite el desarrollo de la tecnología ni que impida que sea un cauce que también refleje la pluralidad social.

6) La inteligencia artificial es un fenómeno global y tiene que aspirar a una regulación global, pero la existencia de una división radical de modelo, occidental y oriental, va a hacer esta tarea muy difícil. Durante un tiempo a lo más que podemos aspirar es que aquellos usos abiertamente peligrosos, por ejemplo, en el desarrollo de determinadas armas, sean objeto de acuerdos internacionales o al menos bilaterales. De nuevo la disuasión mutua en el mundo geopolítico.

7) Es necesario regular el impacto, las consecuencias del desarrollo de la IA en el empleo y en la forma de trabajar, pero desde un equilibrio que no mate la innovación.

8) En algunos casos será necesario prohibir la utilización de los sistemas de IA en determinadas áreas como la de las armas autónomas.

9) No estaría de más empezar a considerar riesgos asociados a la computación cuántica en relación con la seguridad de los datos o la fiabilidad a largo plazo del blockchain.

Para intentar afrontar estos desafíos los modelos regulatorios están respondiendo al esquema ya conocido: light touch, regulación intensa y control autoritario: EE. UU., Unión Europea y China. Estados Unidos con la nueva Administración parece moverse del light touch regulation al no regulation y China ha puesto en marcha una regulación intrusiva que requiere que todos los productos desarrollados por la IA se registren y sean sometidos a un escrutinio por el gobierno antes de comercializarse y su contenido no puede subvertir el poder del Estado, incitar a la secesión, o perturbar el orden económico y social y debe ser conforme a los valores socialistas. Más claro, agua.

La visión europea

El modelo europeo, pionero y el más desarrollado, puede acabar influyendo en los demás reguladores de acuerdo con la vocación de rule setter digital: probablemente será la europea la regulación en cuyo espejo se mirarán la mayoría de los países sin que Estados Unidos vaya a quedar totalmente fuera de esta influencia, aunque parece que para ello tendremos que esperar a una nueva Administración.

El Reglamento de Inteligencia Artificial ya es una realidad legislativa, aprobado en marzo de 2024, y aborda la inteligencia artificial basándose en los riesgos específicos creados por ella, distinguiendo una pirámide de cuatro niveles: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo, lo que determinará un nivel diferente de regulación: así, en las aplicaciones de alto riesgo, las más relevantes regulatoriamente, se definen obligaciones de un análisis previo de conformidad y otras posteriores que contempla el Reglamento. Es una regulación coherente con una economía que no produce IA pero que pretende usarla masivamente.

Los desafíos éticos

Pero no podemos olvidar los desafíos éticos: hemos descubierto que detrás de los fríos algoritmos hay alma y como toda alma es compleja y, a veces, perturbadora. Solo así podremos acostumbrar a una sociedad digital y digitalizada de ciudadanos libres e informados a vivir de manera pacífica, responsable y despreocupada, en el mejor sentido, y no dejarse seducir por los profetas del apocalipsis digital.

La resolución a los desafíos que desde el punto de vista político y regulatorio plantea la digitalización es la de la permanencia de los valores y principios de la sociedad democrática occidental en los cambios, a veces vertiginosos y radicales, provocados por los avances tecnológicos y sus consecuencias, y de cómo preservar la libertad colectiva e individual y los principios de la sociedad abierta.


[1] En derecho de la competencia, ex ante se refiere a medidas preventivas que se toman antes de que una conducta ilícita ocurra.


La imagen que encabeza el artículo procede de Shutterstock / DesigneRage y se puede consultar aquí.