Tiempo de lectura: 5 min.

Adela Cortina. Catedrática emérita de Ética y Filosofía Política de la Universidad de Valencia. Miembro de la Real Academia de Ciencias Morales y Políticas. Directora de la Fundación Étnor (Ética de los Negocios y las Organizaciones). Premio Internacional de Ensayo 2014 con su obra ¿Para qué sirve realmente la ética?, y autora, entre otros libros, de Aporofobia: el rechazo al pobre; Ética mínima y Por una ética del consumo.

Emilio Lamo de Espinosa. Catedrático emérito de Sociología en la Universidad Complutense. Miembro de la Real Academia de Ciencias Morales y Políticas. Vicepresidente de UNIR. Fue presidente del Instituto Elcano. Premio Nacional de Sociología y Ciencia Política.


Avance

La inteligencia artificial está reportando enormes beneficios a la sociedad, como se puede comprobar en los ámbitos en los que ya está presente, como la salud, las finanzas o la educación, entre otros, pero habrá que ir resolviendo las contraindicaciones de carácter ético que tenga. Uno de los peligros más inquietantes es que los robots sustituyan a los humanos, cumpliendo la profecía de Marvin Minsky, sobre las máquinas que se auto-educarán y nos mantendrán como animales de compañía. La profesora Adela Cortina sostiene que hay que perder el miedo ante ese tipo de visiones apocalípticas y saber aprovechar las ventajas de la inteligencia artificial como medio para mejorar, no para que nos sustituya a los seres humanos. Por otra parte, la llamada superinteligencia, el reto de los posthumanistas de crear una nueva especie que supere al homo sapiens, no deja de ser «una mera especulación», aunque haya mucha inversión económica en juego. Lo que ya es una realidad, en cambio, es la inteligencia especial aplicada a las máquinas, y el desarrollo de nuevas formas que suponen algunos problemas éticos y amenazas para el empleo, la paz, la vida privada y las libertades democráticas. De ahí la importancia de las moratorias a la investigación en inteligencia artificial, aplicando el principio de precaución, como se hace en la Unión Europea. Ante este horizonte, es pertinente preguntarse, desde la ética, a dónde se quiere ir con la inteligencia artificial, y qué hacer para que su uso repercuta en el bienestar de todos por igual, y no para que se beneficien unos y salgan perdiendo otros. 


Artículo

El mundo en el que vivimos es el de la inteligencia artificial y hay que sacar la mayor ventaja posible de la misma» resolviendo «los desafíos éticos que plantea», afirmó la profesora Adela Cortina en la sesión Ética para máquinas, repensando la inteligencia artificial, dentro del ciclo Pensar el siglo XXI, que dirige y modera  el catedrático Emilio Lamo de Espinosa, vicepresidente de UNIR.

La inteligencia artificial está presente en ámbitos «como la salud, las finanzas o la educación», con estimables beneficios, subrayó Cortina; pero hay que estar «muy alerta» para que su desarrollo «no vulnere los derechos sociales, económicos, culturales». Y para que su uso  «repercuta en el bienestar de todos por igual, de acuerdo con el principio de la justicia, y no para que se beneficien unos y salgan perdiendo otros». 

Lamo de Espinosa introdujo la sesión, recordando que el asesor de Stanley Kubrick para el filme 2001, una odisea del espacio, fue Marvin Minsky, uno de los padres de la inteligencia artificial, que dejó escrito:  «una vez que la máquina haya alcanzado el nivel de inteligencia del ser humano, comenzará a educarse a sí misma [… ]y con suerte decidirán mantenernos  [a los humanos] como animales de compañía».

La profesora Cortina afirmó que, frente a las visiones apocalípticas en torno a las máquinas, «hay que perder el miedo a esos avances». Se trata de que «utilicemos la inteligencia artificial como medio para mejorar, no para que nos sustituya a los seres humanos». 

Se remitió al artículo de J. Storrs Halls, Ethics for machines, que citaba, a su vez, a las leyes de la robótica de Isaac Asimov. La primera de las cuales reza: «un robot no hará daño a un ser humano, ni por inacción permitirá que sufra daño»; y la segunda, «un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley». 

Destacó que por sofisticadas que sean, «las máquinas carecen de sentido común, algo propio de los humanos, al tener cuerpo y poseer emociones, lo que nos sitúa en la realidad». No tienen la intencionalidad por la que los humanos damos significado a lo que nos rodea: «una máquina no conoce el significado de los símbolos que maneja». La consecuencia, siguiendo a Storrs Halls, es que hay que evitar la frankenfobia, (o miedo a monstruos robóticos como el de Frankenstein). 

A preguntas de Emilio Lamo, indicó Cortina hay tres tipos de inteligencia artificial: la super inteligencia; la inteligencia artificial general y la inteligencia artificial especial

La primera estaría dotada de «una super  conciencia moral superior a la nuestra…» es el reto de los posthumanistas, cuyo objetivo es crear una nueva especie que supere al homo sapiens, en línea con la idea de la «singularidad» formulada, entre otros, por Ray Kurzweil (The Singularity Is Near: When Humans Transcends Biology).  No se trataría del superhombre de Nietzsche, sino de una especie nueva. «Hoy por hoy, no es técnicamente posible. Todo queda en mera especulación, pero con mucha inversión de por medio» indicó la experta. Hay un interés económico, político, estratégico en juego de EE.UU., China, India por ganar la carrera por la inteligencia artificial.

«La inteligencia general es la que puede resolver problemas, es la forma teórica de inteligencia humana». El objetivo de la IA, como disciplina científica, es conseguir que una máquina tenga una inteligencia de tipo general, similar a la humana.

Y «la inteligencia especial de máquinas ya es una realidad», propia de sistemas inteligentes capaces de realizar tareas concretas, con una capacidad de cálculo superior a la humana, «como se pudo ver cuando  Deep Blue derrotó al campeón de ajedrez Gary Kasparov»

Amenazas para el empleo, la paz, la vida privada

Adela Cortina puso algunos ejemplos de los desafíos éticos que plantea la inteligencia artificial: «cómo organizar el mercado laboral para que puedan protegerse los derechos sociales; cómo proteger la autonomía de las personas frente a las máquinas autómatas; cómo organizar un mundo en que los algoritmos deciden gran parte de nuestras vidas y que quede a salvo nuestra autonomía». 

Se teme por el futuro de los puestos de trabajo, por eso es importante «que el poder político y el poder empresarial se unan para tratar de resolver los problemas del desempleo» —advirtió la catedrática—. También entraña amenazas contra la paz, «si se usa con fines bélicos», o contra «las libertades democráticas» o la vida privada, al utilizarla para espiar a los ciudadanos, como ocurre en China. 

Son más necesarias que nunca —recordó— «las moratorias a la investigación en inteligencia artificial, aplicando el principio de precaución, como se hace en la Unión Europea», a fin de calibrar «qué límites éticos rebasan determinados avances de la ciencia y la tecnología». El problema es que «las moratorias hay que hacerlas de forma universal», porque siempre hay países que continúan con los experimentos, como ocurre con China y EE.UU.

Debemos preguntarnos a dónde queremos ir con la inteligencia artificial —concluyó Adela Cortina—. «¿A un  mundo sesgado?, ¿donde se reproduzcan los sesgos del mundo físico que tenemos, donde no seamos iguales todos los seres humanos y no seamos tratados con equidad?». Ante este tipo de desafíos, «necesitamos, como nunca, una sociedad cosmopolita, en la que todos los seres humanos deberíamos ponernos de acuerdo» apostilló.

Puedes ver el video de la sesión completa aquí

Doctor en Comunicación, periodista y escritor.