Tiempo de lectura: 16 min.

Cuando hablamos de la transferencia de los resultados de investigación a la sociedad, los ámbitos en los que pensamos son, habitualmente, el sector de la salud y el de las nuevas tecnologías. Es cierto que hay transferencia en todos los sectores (en el ámbito de las humanidades, por ejemplo, mediante la musealización de descubrimientos histórico-artísticos, o en las ciencias sociales mediante la aplicación de los estudios realizados a la gestión empresarial), pero es en la salud y en las TIC (Tecnologías de la Información y la Comunicación) donde se hacen más visibles.

En el ámbito de la Ingeniería (en este caso del sector TIC, pero podemos hacerlo extensible a cualquier especialidad), toda investigación debe tener en mente la aplicación práctica: el problema existente que se desea resolver. En algunos casos, los investigadores en ingeniería trabajamos en la solución de un problema que aún no tenemos, pero siempre es pensando en unas demandas sociales que llegarán en algún momento, y para las que nos vamos preparando.

En cualquier caso, en ingeniería, la investigación solo tiene sentido si tiene una aplicación directa para la mejora de la vida de las personas.

Como metodología para estudiar el proceso de innovación, en este trabajo se presentan tres casos concretos de éxito en los que el autor ha participado activamente como investigador principal, tratando de concluir qué es lo que contribuyó a ese éxito y qué enseñanzas generales podemos extraer.

El sistema implantado en la central térmica de Iberdrola en Velilla del Río Carrión sirvió para ahorrar 720.000 euros

PROYECTO CORAGE

El proyecto CORAGE (Control y Optimización por Razonamiento Aproximado y Algoritmos Genéticos), fue un proyecto desarrollado en el marco de la convocatoria PASO entre los años 1994 y 1996. En el proyecto participaba una entidad específica de I+D (la Universidad Politécnica de Madrid); dos empresas, encargadas de realizar el proceso de innovación y transferencia a la industria (Unión Iberoamericana de Tecnología Eléctrica, S.A. (UITESA) y Grupo APEX, S.A.); y una gran industria como usuario final del producto desarrollado (Iberdrola).

La actividad investigadora relacionada con este proyecto se inicia en el año 90, durante el desarrollo de la tesis doctoral del autor, y se extiende hasta finales de 1996. El trabajo se centró en el diseño e implementación de un sistema de control y optimización inteligente, capaz de ser adaptado a distintos procesos industriales, siempre con la finalidad de mejorar sus prestaciones o su rendimiento. A lo largo de estos años, la investigación realizada generó numerosas ponencias en congresos, capítulos de libro y revistas, algunas de las cuales se pueden encontrar en las referencias bibliográficas que aparecen al final.

Los sistemas inteligentes de control que se desarrollaron son útiles en aquellos procesos complejos, donde las técnicas clásicas de control son inaplicables. Estos procesos pueden ser de tres tipos:

  1. Procesos desconocidos: aquellos para los que no disponemos de un modelo que nos permita controlar el proceso, en los que es imposible realizar una fase de identificación.
  2. Procesos que van a desenvolverse en situaciones desconocidas. Ante un cambio de las condiciones de funcionamiento del proceso, se hace necesario descubrir “sobre la marcha”, cuál es el nuevo modelo de funcionamiento.
  3. Procesos con tal número de variables que hace prácticamente imposible la búsqueda de acciones óptimas.

El proyecto CORAGE abordó el problema del control de un sistema extremadamente complejo mediante la incorporación de un método de aprendizaje a una arquitectura clásica de sistema experto. Un sistema experto utiliza un conjunto de reglas del tipo “Si ocurre X, hay que hacer Y” para resolver un problema. Tradicionalmente, las reglas de los sistemas expertos son propuestas por personas que conocen perfectamente el problema que se quiere resolver. En este proyecto, el sistema experto fue alimentado por los operadores de la central, permitiendo que el sistema de control pudiera mantener altas prestaciones en los modos habituales de funcionamiento. El sistema de aprendizaje automático desarrollado permitió generar nuevas reglas, desconocidas hasta ese momento por los operadores, que permitían al sistema de control buscar las acciones adecuadas en circunstancias desconocidas, adquiriendo conocimiento de sus propios aciertos y errores.

Puesto que la generación de reglas se realizaba de manera continua, las nuevas reglas eran validadas antes de ser utilizadas durante su estancia en el limbo: un lugar en el que no influían en las acciones de control propuestas (ya que no estaban operativas dentro del sistema), pero sí se podían valorar por comparación con las acciones realizadas por los operadores. Solo las reglas que alcanzaban un umbral de credibilidad alto se incorporaban al controlador en producción.

El sistema desarrollado se implantó en la central térmica de Iberdrola en Velilla del Río Carrión (Palencia), realizando de manera simultánea un proceso de transferencia del conocimiento a las empresas de ingeniería para su posterior implantación en otros procesos industriales. El sistema de control implantado en la central térmica recibía datos procedentes de 23 fuentes de manera continua, y recomendaba acciones para tratar de optimizar una variable objetivo. Esta variable objetivo podía ser establecida por los gestores de la planta en función de sus intereses. Durante el desarrollo del sistema y las pruebas subsiguientes, la variable a optimizar fue el Consumo Específico, que establece el coste del carbón consumido para la energía generada, tratando de minimizar la cantidad de carbón empleada en producir la energía.

Durante los seis meses siguientes a la instalación del sistema, la central térmica ahorró unos 120.000.000 pesetas (algo más de 720.000€), que coincidía con la cantidad subvencionada en el proyecto a las entidades participantes, según informaron los responsables de la propia central en la reunión de evaluación ante un comité del CDTI (Centro para el Desarrollo Tecnológico Industrial).

En los meses siguientes, el objetivo de la central cambió para centrarse en la reducción de emisiones contaminantes de NOx (Óxidos de nitrógeno). El sistema fue capaz de adaptarse, según se informó desde la central, colaborando en la reducción de dichos contaminantes. Por otra parte, UITESA utilizó el sistema transferido para su adaptación e instalación en otros procesos industriales (otras centrales e incluso otro tipo de procesos como refinerías), pasando a ser un activo de la empresa.

Cuando las empresas confían en el sistema de I+D-i los resultados obtenidos superan el esfuerzo realizado y se recupera la inversión económica

PROYECTO SECUR

El Proyecto SECUR, desarrollado en los años 2006 y 2007, supone una muestra de las posibilidades de transferencia de I+D a pequeñas y medianas empresas. El objetivo de este proyecto fue el desarrollo de un sistema hardware/software que permitiera la gestión de la actividad de una empresa dedicada al almacenamiento de copias de seguridad en una ubicación externa, manteniendo como elemento diferencial la utilización de sistemas RFID, frente al uso de los códigos de barras, para el control de los elementos de back-up. Los RFID estaban ya muy extendidos como sistema para evitar robos en las tiendas. Se trata de esas etiquetas que llevan las prendas de ropa o ciertos productos, y que hacen saltar una alarma al pasar por un arco en las puertas de salida si no se han desactivado previamente. Sin embargo, estas etiquetas aún no se utilizaban de manera habitual para la identificación de productos.

El proyecto se centró más en desarrollo que en investigación, limitada esta última al problema que existe cuando varias etiquetas RFID pasan a la vez por un arco, ya que no siempre se detectan todas correctamente. Asimismo, se trabajó en los elementos de seguridad del sistema. Por este motivo el número de publicaciones fue menor que en el proyecto anterior, y tuvieron cierto retraso debido a los deseos de la empresa de mantener este sistema como un elemento diferencial frente a la competencia. La descripción que sigue a continuación está extraída del propio documento de especificación de requisitos (Marsá-Maestre y Velasco, 2006).

El proceso de negocio queda descrito en la siguiente figura, en la que se plantean los siguientes pasos:

Un empleado de la empresa de gestión de back-ups (que denominaremos por sus siglas: EGB) llega a la empresa cliente (siglas: EC) (1), bien porque la empresa cliente ha realizado una petición expresa, bien porque dentro del contrato establecido es una fecha en la que se debe visitar a este cliente. Una vez en la empresa cliente, el empleado de EGB identifica al empleado de EC que va a entregarle las cintas (2) y recibe un conjunto de cintas que guarda en un maletín (3). En ese momento, se identifica el contenido del maletín mediante un sistema RFID y se envía la información al PC portátil del empleado de EGB, quien genera un listado con los identificadores de las cintas que recoge. Ese listado se imprime, quedando una copia en poder de la EC y otra en poder de la EGB.

El empleado de la EGB transporta las cintas (4) hasta la sede de su empresa. Al entrar por la puerta del almacén, un arco detector identifica las cintas que transporta en el maletín o maletines (5), identificándolas como de EC (si son cintas conocidas, este proceso será automático; si no es así, el proceso requiere una identificación manual). El sistema gestor de almacenamiento indica la ubicación asignada en el almacén (6). El empleado traslada las cintas hasta ese lugar, se identifica como empleado de la EGB y procede a depositar las cintas en la ubicación indicada (7). Cuando el empleado indica que el proceso ha finalizado, el sistema gestor central confirma que las cintas se encuentran en la ubicación correcta, generando una alarma en caso contrario.

Un sistema específico desarrolló instrumentos musicales para personas con discapacidad intelectual, que les permitió producir música por sí mismos

Cuando las cintas deben salir del almacén, el proceso es el contrario y está indicado en la siguiente figura:

El empleado de la EGB, haciendo uso del sistema central, solicita la ubicación de las cintas que debe sacar del almacén e indica que va a realizar esa operación (1). El sistema comprueba que este trabajador dispone los permisos adecuados para hacerlo, y le indica dónde se encuentran las cintas. El empleado llega al lugar del almacén en que se encuentran, se identifica y extrae las cintas seleccionadas (2), depositándolas en un maletín.

De vuelta en el sistema central, cierra la operación indicándole que las cintas ya no están en la estantería. El sistema central comprueba que esas y solo esas cintas han sido extraídas del almacén (3), dando permiso al sistema para que puedan salir por el arco de la entrada (4).

Ya en la EC (5), el empleado de la EGB identifica al empleado de la EC que va a recoger las cintas (6), y mediante un mecanismo similar al empleado en la recepción, procede a identificar las cintas que entrega, generando un documento en su portátil que imprime para que sea firmado por ambas partes (7).

Todo este proceso requirió el desarrollo de sistemas capaces de leer múltiples etiquetas RFID en una única lectura, así como sincronizar diferentes ubicaciones de datos en tiempo real. Hay que recordar que, aunque estos problemas estén resueltos en la actualidad, la tecnología más utilizada en esos años no era RFID, sino la lectura de códigos de barras adheridos a las cintas de back-up y a los contenedores, con un proceso mucho más lento que el propuesto en el proyecto.

El sistema, desarrollado en varias fases, fue transferido a la empresa BSCM S.L., y sigue funcionando desde entonces.

 PROYECTO DIYSE[1]

El proyecto ITEA 2 Do it Yourself Smart Experiences (DiYSE) se desarrolló desde 2009 hasta 2012, y tuvo por objeto facilitar la creación de servicios y dispositivos por parte de usuarios que se incorporaran a un ecosistema colaborativo en Internet. El consorcio se formó con más de cuarenta socios de toda Europa, trabajando en estrecha colaboración para desarrollar una plataforma que permitiera que usuarios, desarrolladores y otros actores pudieran aportar elementos a ese ecosistema. Los resultados directos del proyecto fueron un sitio web público experimental y una gran cantidad de activos técnicos subyacentes, muchos de los cuales están siendo explotados por parte de las empresas participantes.

La Internet de las Cosas (IoT por sus siglas en inglés, Internet of Things) era, en el inicio de este proyecto, una gran revolución en la conectividad mundial, en la medida en que se preveía un cambio desde una red de ordenadores interconectados a una de objetos interconectados. Los electrodomésticos inteligentes, los sistemas de calefacción, los libros electrónicos, los vehículos en la carretera e incluso las mercancías en tránsito tendrían sus propias direcciones IP. Los usuarios dispondrían de una gama de sensores para medir su entorno y actuadores para interactuar con él. Hay que decir que una buena parte de esas previsiones se han cumplido con el hogar y el vehículo conectado, por un lado, y la Industria 4.0, por otro.

El problema que se planteaba en aquellos momentos se establecía en términos de la explosión de la heterogeneidad de los dispositivos, los numerosos dominios de aplicación y una extrema diversidad de instalaciones y aplicaciones personalizadas. Por este motivo, el proyecto DiYSE desarrolló una plataforma que permitiera la explotación y gestión rentables de los sistemas de IoT.

Al mismo tiempo, en el proyecto DiYSE se planteó utilizar esa heterogeneidad como una ventaja más, combinando dos tendencias para acelerar la industria de la IoT: la propia IoT y el bricolaje. La existencia de un hardware muy barato, accesible, programable y fácil de usar con sensores, permitía a la gente común construir sus propias aplicaciones, de forma muy parecida a como el bricolaje de la década de los sesenta supuso que cada vez más gente hiciera cosas en su hogar sin la intervención de expertos.

En el proyecto DiYSE se identificó una serie de etapas esenciales en la creación de un ecosistema para lanzar aplicaciones de IoT:

  1. Disponer de la capacidad para instalar y conectar sensores y otros objetos a Internet.
  2. Ser capaces de extraer y agregar datos de manera significativa.
  3. Crear aplicaciones y paradigmas reutilizables basados en estos datos significativos.
  4. Definir la tecnología necesaria para ejecutar la multitud de aplicaciones.

Para la primera etapa, los socios desarrollaron diferentes sistemas que permitían a los usuarios finales desarrollar objetos conectables a la red, como hardware para sensores, middleware para pequeñas placas de sensores (el sistema operativo Contiki desarrollado en proyectos anteriores, por algunos de los socios, se amplió con mecanismos de seguridad para el transporte seguro y la propiedad de los datos) y se posibilitó el enriquecimiento semántico de los datos de los sensores mediante una tecnología específica.

Un tecnólogo, en cuanto que investigador, debe realizar avances en su disciplina que mejoren el entorno en el que vivimos

En la segunda etapa, se desarrollaron varios prototipos que proporcionaban abstracción semántica por encima de los sensores. Los proveedores de dispositivos, que saben el significado de los datos que proporcionan los sensores, pueden hacer anotaciones para que el sistema DiYSE pueda utilizar esta información semántica. Por su parte, los desarrolladores de sistemas que interactúan con el sistema DiYSE deben describir para qué se pueden utilizar y las transformaciones que se pueden aplicar introduciendo un nuevo sensor. Otra innovación importante realizada en aquel momento fue no limitar el flujo de datos a sensores convencionales, sino incorporar elementos de audio y vídeo.

En la tercera fase, destinada a la creación de sistemas que integren lo anterior, se incluyen dos tipos de sistemas: genéricos -públicos o de operador en Internet o en la nube- y específicos del dominio de la aplicación. Un ejemplo de estos últimos fue realizado por los socios finlandeses que desarrollaron instrumentos musicales para personas con discapacidad intelectual, que permitió a éstos producir música por sí mismos.

Las personas que desarrollan hardware en el marco del ecosistema DiYSE pueden ofrecer cualquier dispositivo enriquecido con los datos provenientes de otros dispositivos (lo que se denominó sensor virtual). Por su parte, esos nuevos datos generados, pueden ser ofertados a un mercado donde otros usuarios los utilicen para agregarlos a los producidos por ellos mismos y generar nueva información. Los usuarios finales pueden construir sus propias aplicaciones y pueden compartirlas con amigos o utilizarlas como plantillas para otras aplicaciones. El resultado es un ecosistema a nivel de usuario final. A modo de ejemplo, un usuario cualquiera podría utilizar la oferta de diferentes sensores de la calidad del aire en una gran ciudad (públicos o generados por otros usuarios), para realizar un mapa de contaminación, generando así un servicio mediante la agregación de otros. Otro usuario podría utilizar ese mapa para superponerlo a otros mapas y generar, por ejemplo, propuestas para desviar el tráfico y evitar así el paso de muchos vehículos por zonas que se encuentren maltratadas desde el punto de vista medioambiental.

Es cierto que la fase de “ejecución” requiere cierta habilidad, pero cientos de personas utilizaron el sistema experimental con decenas de sensores enviando activamente datos y se llegaron a desplegar decenas de miles de aplicaciones en la nube sobre la arquitectura distribuida. Para llevarlo a cabo, se desplegó una arquitectura de componentes que posibilita el flujo de datos distribuidos

A nivel español, el proyecto no tuvo el éxito esperado. Los intereses en rentabilizar las subvenciones recibidas por parte de alguna empresa, como si se trataran de ingresos y beneficios directos por el trabajo, y no una inversión que debería generar esos beneficios en el futuro, dieron al traste con el consorcio nacional. A pesar de ello, aún dio tiempo de publicar algunos trabajos científicos (que pueden encontrarse en las referencias bibliográficas del final de este artículo), y de participar en las actividades que dieron como resultado la obtención de la Medalla de Plata ITEA al proyecto en 2012.

En todo caso, a nivel europeo el proyecto tuvo un éxito considerable: más de 90 publicaciones, más de 90 presentaciones en ferias y conferencias, cerca de 10 eventos públicos organizados para mostrar los resultados, 8 nuevos productos que se pusieron en el mercado, más de 20 contribuciones en diferentes sistemas de estandarización, más de 20 patentes solicitadas y una spin-off. Como se puede apreciar, cuando las empresas confían en el sistema de I+D+i, los resultados obtenidos superan con mucho el esfuerzo realizado, y se recupera la inversión económica que se pudiera haber hecho.

Como ejemplos de la utilización de este proyecto, la empresa que lo lideró, la belga Alcatel-Lucent, desarrolló SenseTale, un sistema DiYSE experimental accesible al gran público. Los activos tecnológicos subyacentes se han transferido paulatinamente a las unidades de negocio de la empresa para facilitar la resolución de problemas en los sistemas M2M (Machine to Machine). Alcatel-Lucent también planea mejoras para los operadores de telecomunicaciones, haciendo posible ofrecer soluciones rentables y escalables que permitan a terceros introducir nuevas aplicaciones en el mercado. Un caso típico es el maratón de Nueva York, donde la ciudad quería una aplicación para seguir a los corredores y permitir así a los espectadores ver a sus corredores favoritos en directo. Un desarrollo realizado para este caso funcionó en pruebas a pequeña escala, pero no era lo suficientemente escalable y fracasó en la práctica cuando las 50.000 personas comenzaron a correr. SenseTale habría sido capaz de manejar esto de forma fiable a un coste de desarrollo más bajo. Por su parte, el operador de telefonía móvil Turkcell también ha utilizado los componentes DiYSE en el mercado M2M.

En Francia, Thales tiene previsto utilizar esta tecnología en el mercado de la vigilancia y la gestión de emergencias para facilitar el despliegue de sistemas ad hoc fiables sobre el terreno en situaciones de emergencia. No es algo que tenga un retorno inmediato: la explotación en este entorno podría durar varios años, ya que se requieren muchas aprobaciones diferentes, pero es una muestra de cómo deben utilizarse los resultados de proyectos de este tipo por parte de la industria.

Philips ha desarrollado jointSPACE, una arquitectura de software intermedio de código abierto en su última gama de televisores que sigue el principio DiYSE. Ofrece una plataforma abierta donde la gente puede instalar sus propias aplicaciones de IoT. Una aplicación de registro permite conectar los sensores de un televisor a la plataforma SenseTale para permitir, por ejemplo, la monitorización del uso del televisor por parte de los niños.

CONCLUSIONES

A lo largo de los más de treinta años de vida profesional, el autor he tenido la oportunidad de trabajar en casi medio centenar de proyectos de investigación e innovación diferentes. Los tres ejemplos que ilustran este trabajo, junto a otras experiencias, permiten extraer algunas conclusiones, como:

  1. La necesidad de apoyo por parte de la Administración,
  2. el descubrimiento del camino concreto en la evolución de nuevos productos o servicios (la escalera de la innovación),
  3. la necesidad de premiar la actividad de transferencia en el mundo académico, de manera diferenciada respecto a la actividad investigadora.

Apoyo de la Administración.- Es bueno (casi podríamos decir que imprescindible) que la Administración apoye los procesos de innovación. Pero a su vez, es necesario que las empresas no busquen ánimo de lucro directamente en la financiación del proyecto de innovación, sino en el producto generado o en el conocimiento adquirido. El producto final del proyecto (material o inmaterial) les permitirá situarse en una posición competitiva mejor que la de su entorno. Es en ese momento cuando se obtienen los beneficios reales.

La escalera de la innovación.- Esta idea no es del autor. La escuchó al profesor Jose Manuel Páez, cuando éste era director de la Escuela Técnica Superior de Ingenieros de Telecomunicación de la Universidad Politécnica de Madrid. Desde entonces la aplica y la difunde a quien quiera escucharla.

Los procesos de innovación deben realizarse mediante pequeños pasos en una de las dos direcciones posibles: Los nuevos productos o servicios se pueden obtener, bien utilizando una nueva tecnología para ofrecer un producto o servicio conocido, bien generando un nuevo producto o servicio utilizando tecnologías conocidas. Dar un salto “en diagonal”, modificando ambos ejes, nos generaría un nuevo producto o servicio que se realiza con una tecnología nueva. Este nuevo producto, normalmente, no será bien aceptado por los clientes.

Un ejemplo clásico de esta idea lo podemos encontrar en el iPad de Apple. Esta compañía lanzó en 1993 un producto al mercado que llevaba por nombre Newton: una PDA (asistente digital personal) de gran tamaño con su propio sistema operativo. La idea que subyacía a este producto es la de las actuales tabletas, pero los usuarios no supieron qué hacer con ella y en 1998 se abandonó su comercialización, y ese fue uno de los fracasos de la compañía. Coincidiendo con ese fracaso, Steve Jobs regresa a Apple, ve la potencia del producto y comienza a trabajar para conseguirlo: primero con el iPod: nueva tecnología para mejorar al walkman. Posteriormente con el iPod Touch: el interfaz táctil para el iPod. En tercer lugar, el iPhone: se incorpora ese interfaz táctil a los teléfonos móviles, perfectamente asentados. Y por último, el iPad: un “iPhone grande” que recuerda enormemente a lo que Newton podría haber sido.

Potenciación de la transferencia desde el ámbito académico al industrial.- El marco laboral en el que se mueven los investigadores públicos (léase los profesores de universidad, aunque es extensible a otros entornos de investigación), prima de manera superlativa la publicación de resultados en revistas de reconocido prestigio. En estas revistas hay poco espacio, habitualmente, para la publicación de resultados de proyectos de innovación. Lo más normal es que en ellas se publiquen avances científicos, en el sentido más general de la palabra. Esta situación lleva a todas aquellas personas que desean seguir una carrera universitaria o científica, a centrarse en proyectos que generen publicaciones, y no en proyectos que produzcan una mejora social.

Creo sinceramente que es necesario diferenciar la ciencia de la tecnología. Una persona dedicada exclusivamente a la investigación científica busca la generación de nuevo conocimiento en su disciplina, y nadie le pide que ese nuevo conocimiento tenga una aplicación inmediata al mundo real. Un tecnólogo, en cuanto que investigador, debe realizar avances en su disciplina que mejoren el entorno en el que vivimos. Para ello puede tener que realizar avances científicos, en el sentido anteriormente descrito, pero solo como un paso intermedio. Las más de las veces utilizará avances realizados por otras personas para alcanzar su objetivo. Mientras que en el mundo académico lo primero tiene reconocimiento, lo segundo apenas interesa.

En resumen, para avanzar, es necesario que tanto las administraciones, como las empresas y los profesionales de la tecnología, trabajemos coordinados para procurarnos un futuro mejor a medio y largo plazo, en lugar del cortoplacismo ibérico habitual. Para ello habrá que realizar cambios en algunas cosas que, a estas alturas, se han convertido en estructurales. Como digo, no podemos buscar la solución a corto plazo, pero debemos empezar a andar en la buena dirección cuanto antes…

Juan R. Velasco es catedrático de Ingeniería Telemática. Vicerrector de Estrategia y Planificación (Universidad de Alcalá).

REFERENCIAS BIBLIOGRAFICAS

PROYECTO  CORAGE

  1. R., Velasco, L. Magdalena y A. Rodriguez. A Genetic Learning System for Economic Control on Fossil Power Plants, European Simulation Symposium, ESS’91, Gante, Bélgica.
  2. R. Velasco, G. Fernández y L. Magdalena. Inductive Learning Applied to Fossil Power Plants Control Optimization. In Control of Power Plants and Power Systems, E. Welfonder, G.K. Lausterer and H. Weber (eds). Pergamon Press, 1993. Pp 205-210.
  3. Magdalena, J. R. Velasco, G. Fernández y F. Monasterio. A Control Architecture for Optimal Operation with Inductive Learning. In Intelligent Components and Instruments for Control Applications, A. Ollero and E.F. Camacho (eds), Pergamon Press, 1993. Pp 105-110.
  4. Rodríguez, A. Paricio y J. R. Velasco. Learning with Fuzzy Logic: A Way to Combine Genetic Algorithms and Fuzzy Logic. International Fuzzy Systems and Intelligent Control Conference. Louisville, Kentucky, USA, 1993.
  5. R. Velasco y L. Magdalena. Genetic Algorithms in Fuzzy Control Systems. In Genetic Algorithms in Engineering and Computer Science, G. Winter, J. Périaux, M. Galán and P. Cuesta (eds). John Wiley and Sons, 1995. Pp 141-165.
  6. R. Velasco, J. A. García y M. L. Garín. A Fuzzy-Evolving Control System for heat Rate Optimization in Power Plants. IFAC Symposium on Control of Power Plants and Power Systems. Cancún – México, 1.995.
  7. Magdalena y J. R. Velasco. Fuzzy Rule-Based Controllers that Learn by Evolving their Knowledge Base. In Genetic Algorithms and Soft Computing, J.L. Verdegay and F. Herrera, (eds). Physica-Verlag, 1996.
  8. Magdalena y J. R. Velasco. Evolutionary based learning of fuzzy controllers. In Fuzzy evolutionary computation, W. Pedrycz, (ed), Kluwer Academic Press, 1997.
  9. R. Velasco. Genetic-Based On-Line Learning for Fuzzy Process Control. International Journal of Intelligent Systems Vol 13, No 10-11, 1998. Pp 891-903

PROYECTO SECUR

  1. Marsa-Maestre y J. R. Velasco. Documento de especificación de requisitos del proyecto SECUR. Documento interno GIST-UAH SECUR-ER-01-0, 2006.
  2. A. Lopez-Carmona, I. Marsa-Maestre, E. de la Hoz y J. R. Velasco. Using RFID to Enhance Security in Off-Site Data Storage. Sensors 10(9), 2010. Pp 8010-8027

PROYECTO DiYSE

  1. R. Velasco, M. Roelands, D. De Roeck, R. Moonen, L. Trappeniers, M. A. López-Carmona, I. Marsá-Maestre, E. Marilly, N. Crespi, Y. Ghamri-Doudane. Do-it-yourself creation of pervasive, tangible applications. Tangible and Embedded Interaction, Funchal, Madeira (Portugal), 2011. Pp 361-364.
  2. Roelands, J. Plomp, D. Casado-Mansilla, J. R. Velasco, and 25 more authors (DiYSE Consortium). The DiY Smart Experiences Project. Architecting the Internet of Thinghs, Springer, 2011. Pp 279-315.
  3. Fernandez, I. Marsa-Maestre, J. R. Velasco, B. Alarcos, Ontology Alignment Architecture for Semantic Sensor Web Integration. Sensors 13(9), 2013. Pp 12581-12604.