¿Qué es el ORCID?

OrcidEl post de hoy va dedicado a aquellos de vosotros que os dedicáis a la investigación científica. Vamos a hablar de ORCID,  que es un proyecto abierto, sin ánimo de lucro, comunitario, que ofrece un sistema para crear y mantener un registro único de investigadores y un método claro para vincular las actividades de investigación y los productos de estos identificadores.  ORCID es único por su capacidad de aplicarse a todas las disciplinas, sectores de investigación y fronteras nacionales. Es un centro que conecta a los investigadores y la investigación a través de la incorporación de identificadores ORCID en flujos de trabajo clave, tales como el mantenimiento de los perfiles de investigación, las presentaciones manuscritas, las solicitudes de subvención y las solicitudes de patentes.

En mi caso particular, mis registros de investigador son los siguientes:

orcid.org/0000-0001-5488-6001

Scopus Author ID 23487457600

ResearcherID K-9763-2014

 

Para que tengáis más información, os dejo los siguientes vídeos explicativos:

HORSOST: Un proyecto de investigación sobre sostenibilidad y estructuras

2013-05-03 09.20.32
Instituto de Ciencia y Tecnología del Hormigón (ICITECH)

Creo que es interesante comentar en este post los resultados que estamos obteniendo de un proyecto de investigación financiado por el Ministerio de Ciencia e Innovación, que nuestro grupo de investigación llama HORSOST. Su nombre completo describe el contenido del trabajo que estamos desarrollando: «Diseño eficiente de estructuras con hormigones no convencionales basados en criterios sostenibles multiobjetivo mediante el empleo de técnicas de minería de datos«.

Se trata de un proyecto que iniciamos en 2012 y cuya finalización está prevista para finales de 2014. Nuestro grupo de investigación está formado por seis profesores y varios becarios de investigación del Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de  la Universidad Politécnica de Valencia. En dicho grupo me corresponde el papel de investigador principal. Espero que esta breve descripción os oriente sobre lo que estamos haciendo.

Este proyecto de investigación se encuentra relacionado con otros ya finalizados y otros en marcha, tanto de convocatorias competitivas como de convenios de transferencia tecnológica con empresas (constructoras, empresas de prefabricados, consultoras, etc.).

El objetivo fundamental del proyecto de investigación HORSOST consiste en establecer pautas de diseño eficiente de estructuras de hormigón no convencional, optimizadas heurísticamente mediante funciones multiobjetivo relacionadas con la sostenibilidad. Se pretende avanzar en el establecimiento de nuevos diseños que permitan extraer las ventajas que aportan los hormigones especiales, en particular hormigones de alta resistencia, hormigones con fibras, hormigones autocompactantes. Para ello, se utiliza el análisis del ciclo de vida de dichas estructuras (elaboración, transporte, procedimientos constructivos, mantenimiento, etc.), considerando aspectos energéticos, medioambientales, sociales y económicos. La optimización heurística permite evaluar los diseños más eficientes, comparar soluciones y generar bases de datos sobre las cuales aplicar herramientas procedentes de la minería de datos y del aprendizaje automático para extraer información no trivial que permita fórmulas de predimensionamiento. La posibilidad de análisis se debe a que las herramientas matemáticas empleadas son de carácter general. Se aplican técnicas como las redes neuronales o la teoría del valor extremo, además de otras herramientas más habituales, como la regresión lineal múltiple o el análisis por componentes principales.

INTRODUCCIÓN

Las evidencias del cambio climático actual, entre otras, han provocado una creciente preocupación por la sostenibilidad [1]. Ello ha impulsado la investigación en aspectos de sostenibilidad en el ámbito de la construcción. Así, se han desarrollado indicadores [2] y se han elaborado bases de datos que miden el impacto ambiental de los materiales [3,4], las cuales han servido en algunas investigaciones para reducir las emisiones de CO2 en estructuras [5,6]. Sin embargo, la sostenibilidad requiere considerar aspectos energéticos, medioambientales, sociales y económicos que deben abarcar todo el ciclo de vida de la estructura [7]. Un antecedente fue el Modelo Integrado de Cuantificación de Valor de un Proyecto Constructivo Sostenible: Aplicación a la Edificación Industrial y de Servicios (MIVES) y MIVES II, que abordaron la sostenibilidad mediante el análisis de valor aplicado a diversos ámbitos [8], y que fueron el punto de partida para el Anejo 13 de la actual EHE.

La disponibilidad de ordenadores de elevada potencia de cálculo, junto con el desarrollo de técnicas de análisis inteligente, ha permitido el avance en el diseño de estructuras óptimas [9-11]. Se ha insistido en la necesidad de optimizar estructuras reales, constatándose la escasez de optimización del hormigón estructural frente a las estructuras metálicas. La optimización [12] puede realizarse desde numerosos puntos de vista (geométricos, topológicos, seccionales, etc.). Además de los métodos basados en la programación matemática [13], el problema de optimización puede abordarse mediante técnicas metaheurísticas y bioinspiradas, tales como los algoritmos genéticos, el recocido simulado, las colonias de hormigas o las redes neuronales, entre otras [14,15]. Recientemente, el trabajo desarrollado por nuestro grupo ha reducido el coste de estructuras reales [16-28].

Sin embargo, la optimización ha requerido un intenso trabajo de investigación para extraer conclusiones aplicables a la realidad de las obras. Una forma que tiene el ingeniero para avanzar en el diseño de estructuras óptimas es difundir fórmulas de predimensionamiento [26,28]. Pues bien, para mejorar los diseños de las estructuras, es posible extraer información no trivial de bases de datos de estructuras óptimas mediante la inteligencia artificial.

IMG_0020

El descubrimiento de conocimiento en bases de datos (“Knowledge Discovery from Databases”, KDD) constituye un área en la que se realizan muchos esfuerzos, tanto en metodología como en investigación. En este contexto, la minería de datos constituye un conjunto de herramientas empleadas para extraer información no trivial que reside implícitamente en los datos [29]. Mediante este tipo de técnicas se pueden solucionar problemas de predicción, clasificación y segmentación [30]. Algunas de sus herramientas más representativas son las redes neuronales, las máquinas de soporte vectorial, los árboles de decisión, los modelos estadísticos avanzados multivariantes y los diseños de experimentos y el agrupamiento o “clustering”. Estas herramientas construyen modelos abstractos a partir de datos basándose en métodos de aprendizaje automático “machine learning”.

Por otra parte, la investigación sobre hormigones no convencionales constituye una de las líneas de investigación relevantes relacionadas con los nuevos materiales de construcción. Sus propiedades permiten mejorar las prestaciones y la durabilidad, lo cual se relaciona con la sostenibilidad de su uso. Así, el refuerzo con fibras (HRF) reduce la fisuración y mejora la durabilidad al impedir el acceso de agua y de contaminantes [31]. Sin embargo, razones económicas han llevado al empleo de fibras sólo en casos puntuales, cuando existen beneficios adicionales relativos a la mano de obra, la durabilidad o la congestión del refuerzo [32]. El hormigón autocompactante (HAC) ha mejorado significativamente la tecnología del hormigón al conseguir estructuras más duraderas, mejorar la producción y los procesos constructivos, y facilitar el diseño de elementos complejos y los acabados. Ello se consigue mediante dosificaciones que modifican las propiedades mecánicas respecto al hormigón convencional [33]. Todo ello abre horizontes inexplorados, donde una simple optimización económica de las estructuras haría inviable el empleo de muchos hormigones especiales, pero donde una visión más amplia que contemple criterios de sostenibilidad y análisis del ciclo de vida puede cambiar la perspectiva respecto de su empleo.

Hipótesis de partida y objetivos del proyecto

El objetivo fundamental de HORSOST consiste en establecer criterios de diseño eficientes basados en el análisis del ciclo de vida de estructuras de hormigón no convencional, aplicando, para ello, técnicas procedentes de la inteligencia artificial y la minería de datos a amplios conjuntos de estructuras optimizadas heurísticamente bajo objetivos múltiples de sostenibilidad (ahorro energético y de recursos naturales, aspectos ambientales, sociales y económicos).

Hipótesis de partida

a) Es posible mejorar los diseños de las estructuras de hormigón mediante pautas de predimensionamiento solo disponibles para algunos proyectistas de gran experiencia.

b) Existen criterios de diseño que permiten compatibilizar las exigencias derivadas de la sostenibilidad con reducciones de coste, con aumentos en seguridad y constructibilidad. Sin embargo, estos criterios no son triviales.

c) Los hormigones no convencionales presentan propiedades que contribuyen a la sostenibilidad de las estructuras al analizar el ciclo de vida.

d) La inteligencia artificial y la minería de datos permiten aflorar relaciones no triviales cuando existen bases de datos lo suficientemente amplias.

e) La optimización heurística permite elaborar bases masivas de datos de estructuras optimizadas con múltiples objetivos basados en la sostenibilidad (huella ecológica, reducción de CO2, etc.).

Objetivos del proyecto

1. Desarrollar una metodología capaz de extraer información no trivial de bases de datos masivas de estructuras de hormigón no convencionales optimizadas con múltiples objetivos basados en la sostenibilidad.

2. Obtener reglas de predimensionamiento optimizadas para cada tipología estructural. La novedad y la relevancia radican en el uso de herramientas procedentes del “data mining” y del “machine learning”.

3. Comparar las reglas de diseño obtenidas para hormigones convencionales y no convencionales, así como con los criterios obtenidos de la práctica habitual de diseño y de la bibliografía existente.

4. Divulgar el conocimiento adquirido para que los proyectistas puedan utilizar estos criterios de predimensionamiento, de forma que se obtengan mejoras en la sostenibilidad a lo largo del ciclo de vida de las estructuras de hormigón no convencional.

Descripción de la metodología empleada en el proyecto

La metodología empleada consta de una secuencia iterativa de fases (Figura 1):

  1. Integración y recopilación de datos, en la que se determinan las fuentes de información que pueden ser útiles y dónde conseguirlas.
  2. Selección, limpieza y transformación de datos, en las que se eliminan o corrigen los datos incorrectos y se decide la estrategia a seguir para los datos incompletos.
  3. Minería de datos, en la que se decide la tarea a realizar, ya sea la clasificación, la regresión, el agrupamiento o las reglas de asociación.
  4. Evaluación e interpretación, en la que se evalúan los patrones y se analizan por el equipo de investigación, volviéndose a fases anteriores para nuevas iteraciones si fuera necesario.
  5. Difusión, donde se hace uso del nuevo conocimiento adquirido y se hace partícipes de él a todos los posibles usuarios.

Figura 1 horsost

Figura 1 Extracción y difusión del conocimiento por contraste de criterios de diseño sostenible

Uno de los aspectos clave es la disponibilidad de datos utilizables, en cantidad y calidad suficientes, para aplicar las técnicas de “data mining”. Se trata de aplicar un procedimiento convergente para la generación de bases de datos (CGD, por sus siglas en inglés). A continuación se describe el fundamento y la forma de proceder de CGD.

Una estructura de hormigón puede representarse mediante una serie de variables y parámetros. Pues bien, la complejidad de un problema aumenta drásticamente con el número variables involucradas [34], efecto denominado como la “maldición de la dimensión” [35]. Para extraer información, como regla práctica [36], se necesita una muestra cuyo tamaño sea, al menos, 10 veces el número de variables independientes, siendo deseable que ese ratio sea mayor a 20. En el caso de un puente pretensado [37], el número de factores que son combinación lineal de las variables originales y que, además, sean independientes entre sí es de 4, por lo que se precisarían en torno a 40-80 casos para poder realizar inferencias lineales, lo cual no contemplaría relaciones cruzadas entre variables (ello implicaría una muestra mayor). Otras técnicas como las redes neuronales o las máquinas de soporte vectorial, que son capaces de inferir modelos no lineales e incluso discontinuos o discretos, requieren un número mayor de individuos. Además, se aconseja la reserva de un grupo de validación, que puede oscilar entre 1/3 y 1/4 de la muestra necesaria, para comprobar que las inferencias presentan una calidad adecuada.

Metaheurísticas empleadas en el desarrollo del proyecto

Desde los primeros años de la década de los 80, la investigación sobre los problemas de optimización se centra en el diseño de métodos aproximados basados en conceptos derivados de la inteligencia artificial, la evolución biológica y la mecánica estadística. En la Figura 2 se recoge una clasificación propuesta por Yepes [39] que debería complementarse con metaheurísticas híbridas que emplean, en mayor o menor medida, estrategias de unos grupos y otros. A continuación se describen algunas técnicas empleadas en HORSOST.

Figura 2 horsost

Figura 2 Taxonomía de estrategias empleadas en la resolución aproximada de problemas de optimización combinatoria [39]

Recocido simulado

El recocido simulado “Simulated Annealing” (SA) [40,41] se basa en la analogía entre la energía de un sistema termodinámico y la función de coste de un problema de optimización. Conceptualmente, es un algoritmo de búsqueda por entornos, donde una solución sustituye a la anterior si mejora a la anterior (D<0); en caso contrario, será aceptada con una probabilidad (e(-D/T), donde T es un parámetro denominado temperatura) decreciente con el aumento de D, la diferencia entre los costes de la solución candidata y la actual. La selección aleatoria de soluciones degradadas permite eludir los óptimos locales.

Aceptación por umbrales

La aceptación por umbrales “Threshold Accepting” (TA) [42] emplea un enfoque similar al de SA para eludir los óptimos locales, pero con una toma de decisiones más sencilla. Se autoriza el menoscabo de la calidad de las soluciones, siempre y cuando no se exceda, en cierta magnitud, la aptitud de la solución actual.

Sistema de colonia de hormigas

El sistema de colonia de hormigas “Ant System Optimization” (ACO) [43] se basa en la analogía con el comportamiento de estos insectos al encontrar el camino más corto entre la comida y su hormiguero. Tan pronto como un individuo encuentra una fuente de comida, evalúa su cantidad y calidad y transporta un poco al hormiguero. Durante el regreso, la hormiga deja por el camino feromonas para que las demás hormigas puedan seguirla. Después de un tiempo, el camino hacia el alimento se indicará por un rastro oloroso que crece con el número de hormigas que pasan por él y desaparece en caso contrario. El resultado final es la optimización del trabajo de todo el hormiguero en su búsqueda de comida.

Búsqueda local iterada

La idea de la búsqueda local iterada “Iterated Local Search” (ILS) [44] consiste en rastrear la solución entre los óptimos locales del subespacio definido por ellos. Dado que un algoritmo de búsqueda es capaz de transformar una solución s en otra s* que es un óptimo local, para pasar a otro óptimo local cercano, s’, se aplica una pequeña perturbación. Aplicando el algoritmo de búsqueda a s’ se encuentra otra solución s*’. La metaheurística acepta el paso de s* a s*’ según algún criterio, como el de máximo gradiente (si s*’ es mejor que s*, se acepta) o no (se puede pensar en un mecanismo TA o SA para evitar estancamientos dentro del subespacio de los óptimos locales s*).

Búsqueda en entornos variables

La búsqueda en entornos variables, “Variable Neighborhood Search” (VNS) [45], consiste en cambiar de operador de búsqueda cuando el anterior ha alcanzado un óptimo local. De este modo, VNS oscilará entre dos o más operadores con la esperanza de que los cambios en la estructura del entorno permitan escapar de muchos óptimos locales. Para que este principio funcione bien, los operadores empleados deberán ser lo suficientemente distintos respecto de la estructura del vecindario que generan.

Algoritmos genéticos

Los algoritmos genéticos, “Genetic Algorithms” (GA) [46], simulan el proceso de evolución de las especies que se reproducen sexualmente. Un nuevo individuo se genera a través del cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo, y de la mutación, que supone una modificación espontánea de esta información genética. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor, reproduciéndose con mayor probabilidad.

Algoritmos meméticos

Los algoritmos meméticos “Memetic Algorithms” (MA) [47] derivan de GA, donde el uso de una población de soluciones se combina con heurísticas de búsqueda local. La idea consiste en recombinar la información de las soluciones provenientes del subespacio de óptimos locales. El éxito de estos métodos puede atribuirse a su equilibrio entre la búsqueda rápida y el mantenimiento de la diversidad, para evitar la convergencia prematura.

Otras técnicas empleadas en el proyecto

Regresión lineal múltiple

Los modelos de regresión lineal múltiple (RLM) se ajustan mediante mínimos cuadrados, de modo que la variable de respuesta esté explicada al máximo posible por las variables independientes. El proceso se inicia intentando explicar la respuesta en función de la variable con la que presenta la mayor correlación. El objetivo es aumentar el coeficiente de regresión agregando variables independientes explicativas, utilizando el método stepwise de pasos sucesivos [48].

Análisis por componentes principales

El análisis de componentes principales (ACP) examina la interdependencia entre variables para reducir su dimensión a un nuevo subconjunto de variables no observables. En síntesis, calcula unos factores que sean una combinación lineal de las variables originales y que, además, sean independientes entre sí. La primera componente principal se elige de modo que explique la mayor parte de la varianza posible, y así sucesivamente. Para facilitar la interpretación, se emplea una rotación ortogonal que minimiza el número de variables con saturaciones altas en cada factor [49].

Redes neuronales artificiales

Las redes neuronales artificiales “Artificial Neural Networks” (ANN) simulan un sistema de procesamiento de la información altamente complejo, no lineal y en paralelo parecido al cerebro humano. McCulloch y Pitts [50] presentaron el primer modelo de neurona como un dispositivo no lineal multientrada con interconexiones “con peso”. La neurona suma las entradas ya ponderadas, les aplica una función no lineal y transmite una salida. La red puede ser preparada, utilizando ejemplos, para reconocer ciertas estructuras, como puede ser la clasificación de objetos por sus características o la inferencia a partir de los datos de entrada.

Teoría del valor extremo

Si se acepta que el óptimo local encontrado por un algoritmo de búsqueda estocástica puede considerarse una solución extrema de una muestra aleatoria simple formada por las soluciones visitadas, entonces se podría aplicar la teoría del valor extremo “Extreme Value Theory” (EVT) [51,52] para estimar el óptimo global del problema. Para ello se ha comprobado que los óptimos locales encontrados constituyen valores extremos que ajustan a una función Weibull de tres parámetros, siendo el de posición, γ, una estimación del óptimo global.

Tabla 1 Referencias del empleo de técnicas respecto a tipologías estructurales

 

SA

TA

ACO

ILS

VNS

GA

MA

EVT

ANN

ACP

RLM

Muros

[28]

[6]

 

 

[6]

 

 

 

 

 

 

Pórticos de edificación

[5,24]

 

 

 

 

 

 

[24]

 

 

 

Vigas de hormigón armado

 

[27]

 

 

[27]

 

 

[27]

 

 

 

Vigas pretensadas

 

 

 

 

 

 

 

 

[23]

 

 

Bóvedas de paso inferior

[16]

[16]

 

[17]

 

 

 

[17]

 

 

 

Marcos de paso inferior

[25]

[25,26]

 

 

 

 

 

 

 

 

 

Pilas de puente

[21]

 

[20,22]

 

 

[20]

 

 

 

 

 

Puentes de vigas artesa

[18]

 

 

 

 

 

[19]

 

 

 

 

Puentes losa postesados

 

 

 

 

 

 

 

 

 

[37]

[37]

 

Conclusiones

Como conclusiones generales del planteamiento del proyecto HORSOST se pueden citar las siguientes:

1)      Existe una importante área de mejora en los diseños de estructuras de hormigón no convencional de forma que se obtenga un importante beneficio social si estos diseños maximizan la sostenibilidad en la construcción de estas estructuras considerando todo el ciclo de vida del producto.

2) Es posible emplear técnicas procedentes del descubrimiento de conocimiento en bases de datos (KDD) para extraer información no trivial de bases de datos de estructuras de hormigón generadas mediante optimización heurística multiobjetivo orientada a la sostenibilidad.

3)      Los hormigones no convencionales  presentan prestaciones que favorecen su durabilidad y, por ello, pueden contribuir a la sostenibilidad si se consideran aspectos medioambientales, sociales y económicos a lo largo de toda su vida útil. Por tanto, deben analizarse en detalle para comprobar su validez frente a los hormigones convencionales y ofrecer criterios de diseño aplicables para los proyectistas.

Agradecimientos

Los autores agradecen el aporte financiero realizado para este trabajo por el Ministerio de Ciencia e Innovación (Proyecto de Investigación BIA2011-23602) y por la Universitat Politècnica de València (Proyecto de Investigación PAID-06-12).

Referencias

[1]        Baldasano, J.M. (2007). Evidencias del actual cambio climático, en Cambio climático y sus consecuencias. Generalitat Valenciana, pp. 43-56.

[2]        Rodríguez, F.; Fernández, G. (2010). Ingeniería sostenible: nuevos objetivos en los proyectos de construcción. Revista Ingeniería de Construcción, 25(2), 147-160. [doi:10.4067/S0718-50732010000200001]

[3]        Goedkoop, M.; Spriensma, R. (2001). The Ecoindicator 99: A damage oriented method for life cycle impact assessment. Methodology Report. Product Ecology Consultants, Amersfoort, Netherlands.

[4]        Institut de Tecnologia de la Construcció de Catalunya (2009). BEDEC PR/PCT ITEC materials database. Available online at:http://www.itec.es/nouBedec.e/presentaciobedec.aspx

[5]        Payá-Zaforteza I.; Yepes, V.; Hospitaler, A.; González-Vidosa, F. (2009). CO2-Efficient Design of Reinforced Concrete Building Frames. Engineering Structures, 31, 1501-1508. [doi.org/10.1016/j.engstruct.2009.02.034]

[6]        Yepes, V.; González-Vidosa, F.; Alcalá, J.; Villalba, P. (2012). CO2-Optimization Design of Reinforced Concrete Retaining Walls based on a VNS-Threshold Acceptance Strategy. Journal of Computing in Civil Engineering ASCE, 26 (3), 378-386. [doi:10.1061/(ASCE)CP.1943-5487.0000140]

[7]        Burón, M. (2007). La sostenibilidad de las construcciones de hormigón. Revista Técnica Cemento Hormigón, 897, 58-65.

[8]        Aguado, A.; Alarcón, D.B.; Manga, R. (2008). Razón de ser del anejo ICES de la EHA y características del mismo. Revista Técnica Cemento Hormigón, 913, 16-23.

[9]        Sriram, R.D. (2006). Artificial intelligence in engineering: personal reflections. Advanced Engineering Informatics, 20, 3-5. [doi:10.1016/j.aei.2005.12.002]

[10]    Sarma, K.C.; Adeli, H. (1998). Cost optimization of concrete structures. ASCE Journal of Structural Engineering, 124(5), 570-578. [doi:10.1061/(ASCE)0733-9445(1998)124:5(570)]

[11]    Cohn, M.Z.; Dinovitzer, A.S. (1994). Application of structural optimization. ASCE Journal of Structural Engineering, 120(2), 617-649. [doi:10.1061/(ASCE)0733-9445(1994)120:2(617)]

[12]    Martínez, P.; Martí, P.; Querín, O.M. (2007). Growth method for size, topology, and geometry optimization of truss structures. Structural and Multidisciplinary Optimization, 33, 13-26. [doi:10.1007/s00158-006-0043-9]

[13]    Hernández, S.; Fontan, A. (2002). Practical Applications of Design Optimization. WIT Press, Southampton.

[14]    Adeli, H.; Sarma, K.C. (2006). “Cost optimization of structures. Fuzzy logic, genetic algorithms and parallel computing”, Wiley, Chichester.

[15]    Dreo, J.; Petrowsky, A.; Siarry, P.; Taillard, E. (2006). Metaheuristics for hard optimization. Methods and case studies. Springer, Berlin Heidelberg.

[16]    Carbonell, A.; González-Vidosa, F.; Yepes, V. (2011). Heuristic optimization of reinforced concrete road vault underpasses. Advances in Engineering Software, 42(4), 151-159. [doi:10.1016/j.advengsoft.2011.01.002]

[17]    Carbonell, A.; Yepes, V.; González-Vidosa, F. (2012). Automatic design of concrete vaults using iterated local search and extreme value estimation. Latin American Journal of Solids and Structures, 9(6), 675-689.

[18]    Martí, J.V.; González-Vidosa, F.; Yepes, V.; Alcalá, J. (2013). Design of prestressed concrete precast road bridges with hybrid simulated annealing. Engineering Structures, 48, 342-352. [doi:10.1016/j.engstruct.2012.09.014]

[19]    Martí, J.V.; Yepes, V.; González-Vidosa, F.; Luz, A. (2013). Diseño automático de tableros óptimos de puentes de carretera de vigas artesa prefabricadas mediante algoritmos meméticos híbridos. Revista Internacional de Métodos Numéricos para Cálculo y Diseño en Ingeniería, (en prensa).

[20]    Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88(5-6), 375-386. [doi:10.1016/j.compstruc.2009.11.009]

[21]    Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2012). Multi-objective optimization design of bridge piers with hybrid heuristic algorithms. Journal of Zhejiang University-SCIENCE A (Applied Physics & Engineering, 13(6), 420-432. [doi:10.1631/jzus.A1100304]

[22]    Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2013). A parametric study of optimum tall piers for railway bridge viaducts. Structural Engineering and Mechanics, 45(6), 723-740.

[23]    Martí-Vargas, J.R.; Ferri, F.J.; Yepes, V. (2013). Prediction of the transfer length of prestressing strands with neural networks. Computers and Concrete, (in press).

[24]    Payá-Zaforteza, I.; Yepes, V.; González-Vidosa, F.; Hospitaler, A. (2010). On the Weibull cost estimation of building frames designed by simulated annealing. Meccanica, 45(5), 693-704. [doi:10.1007/s11012-010-9285-0]

[25]    Perea, C.; Alcalá, J.; Yepes, V.; González-Vidosa, F.; Hospitaler, A. (2008). Design of Reinforced Concrete Bridge Frames by Heuristic Optimization. Advances in Engineering Software, 39(8), 676-688. [doi:10.1016/j.advengsoft.2007.07.007]

[26]    Perea, C.; Yepes, V.; Alcalá, J.; Hospitaler, A.; González-Vidosa, F. (2010). A parametric study of optimum road frame bridges by threshold acceptance. Indian Journal of Engineering & Materials Sciences, 17(6), 427-437.

[27]    Torres-Machí, C.; Yepes, V.; Alcalá, J.; Pellicer, E. (2013). Optimization of high-performance concrete structures by variable neighborhood search. International Journal of Civil Engineering, Transaction A: Civil Engineering, 11(2), 90-99.

[28]    Yepes, V.; Alcalá, J.; Perea, C.; González-Vidosa, F. (2008). A Parametric Study of Optimum Earth Retaining Walls by Simulated Annealing. Engineering Structures, 30(3), 821-830. [doi:10.1016/j.engstruct.2007.05.023]

[29]    Fayyad, U.M. (1996). Data Mining and Knowlegde Discovery: Making Sense Out of Data. IEEE Expert, 11(5), 20-25. [doi:10.1109/64.539013]

[30]    Hernández, J.; Ramírez, M.J.; Ferri, C. (2004). Introducción a la minería de datos. Pearson, Madrid.

[31]    Rossi, P.; Chanvillard, G. (eds.) (2000). “Fibre-Reinforced Concretes (FRC)”. Proceedings of the 5th International RILEM Symposium (BEFIB 2000). RILEM Publications S.A.R.L., Cachan, France.

[32]    Massicitte, B. (2000). Fiber Reinforce Concrete: a Structural Perspective, RILEM Proceedings 15, BEFIB 2000.

[33]    Martí-Vargas, J.R.; Serna-Ros, P.; Arbeláez, C.A.; Rigueira-Víctor, J.W. (2006). Comportamiento adherente del hormigón autocompactante en transmisión y anclaje. Materiales de Construcción, 56(284), 27-42.

[34]    Pettis, K.W.; Bailey, T.A.; Jain, A.K.; Dubes, R.C. (1979). An intrinsic dimensionality estimator from near-neighbor information. IEEE Transactions on pattern analysis and machine intelligence, 1, 25-37. [doi:10.1109/TPAMI.1979.4766873]

[35]    Bellman, R.E. (1961). Adaptive Control Processes. Princeton University Press, Princeton, N.J.

[36]    Fukunaga, M. (1990). Introduction to Statistical Pattern Recognition. 2nd Edition. Academic Press, San Diego, USA.

[37]    Yepes, V.; Díaz, J.; González-Vidosa, F.; Alcalá, J. (2009). Caracterización estadística de tableros pretensados para carreteras. Revista de la Construcción, 8(2), 95-109.

[38]    Ferri, J.; Diaz-Chito, K.; Diaz-Villanueva, W. (2010). Efficient dimensionality reduction on undersampled problems through incremental discriminative common vectors, ICDM’10 (OEDM Workshop), pp. 1159-1166.

[39]    Yepes, V. (2002). Optimización heurística económica de redes de transporte del tipo VRPTW. Tesis doctoral, Universitat Politècnica de València.

[40]    Kirkpatrick, S.; Gelatt, C.D.; Vecchi, M.P. (1983). Optimization by simulated annealing. Science, 220(4598), 671-680. [doi:10.1126/science.220.4598.671]

[41]    Cerny, V. (1985). Thermodynamical approach to the traveling salesman problem: An efficient simulation algorithm. Optimization Theory and Applications, 45, 41-51. [doi:10.1007/BF00940812]

[42]    Dueck G, Scheuer T. (1990). Threshold accepting: a general purpose optimization algorithm superior to simulated annealing. Journal of Computational Physics, 90(1), 161–75. [doi:10.1016/0021-9991(90)90201-B]

[43]    Dorigo, M.; Maniezzo, V.; Colorni, A. (1996). The ant system: optimization by a colony of cooperating agents. IEEE Transactions on Systems, Man, and Cybernetics-Part B, 26(1), 29-41. [doi:10.1109/3477.484436]

[44]    Lourenço, H.R.; Martin, O.C.; Stülze, T. (2003). Iterated local search. In F.W. Glover and G.A. Kochenberger, edi-tors, Handbook of metaheuristics, pages 321-353, Boston, Dordrecht, London. Kluwer Academic Publishers.

[45]    Mladenovic, N.; Hansen, P. (1997). Variable neighborhood search. Computers and Operations Research, 24(11), 1097-1100. [doi:10.1016/S0305-0548(97)00031-2]

[46]    Holland, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

[47]    Moscato, P. On evolution, search, optimization, genetic algorithms and martial arts: Towards memetic algorithms. Technical Report Caltech Concurrent Computation Program Report 826, Caltech, Pasadena, California, USA.

[48]    Hocking, R. (1976). The Analysis and Selection of Variables in Linear Regression. Biometrics, 32, 1-49.

[49]    Kaiser H.F. (1958). The Varimax criterion for analytic rotation in factor analysis. Psychometrika, 23(3), 187-200. [doi:10.1007/BF02289233]

[50]    McCulloch, W.; Pitts, W. (1943). A logical calculus of ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5, 115-133. [doi:10.1016/S0092-8240(05)80006-0]

[51]    McRoberts, K. (1971). A search model for evaluating combinatorially explosive problems. Operations Research, 19(6), 1331-1349. [doi:10.1287/opre.19.6.1331]

[52]    Golden, B.L.; Alt, F.B. (1979). Interval estimation of a global optimum for large combinatorial problems. Naval Research Logistics Quarterly, 26(1), 69-77. [doi: 10.1002/nav.3800260108]

 

 

Tatiana García Segura, primer premio Cemex en sostenibilidad

http://catcemexsost.blogs.upv.es/

Hoy me toca hablar de Tatiana García Segura. Es una brillante ingeniera de caminos, canales y puertos, máster en ingeniería del hormigón e investigadora en el Instituto de Ciencia y Tecnología del Hormigón (ICITECH), que acaba de ganar el primer premio de la Cátedra CEMEX SOSTENIBILIDAD a su Tesis Fin de Máster en materia de sostenibilidad y medio ambiente presentada en el curso 2012-13. La tesis se denomina «Métricas para el diseño eficiente de estructuras con hormigones no convencionales basados en criterios sostenibles multiobjetivo», dirigida por Víctor Yepes Piqueras y Julián Alcalá González. Dicho trabajo obtuvo la calificación de 10 sobresaliente con matrícula de honor. De este trabajo ya se han aceptado varios artículos internacionales en revistas científicas de primer nivel. Este premio constituye un espaldarazo al proyecto de investigación HORSOST (BIA2011-23602), financiado por el Ministerio de Ciencia e Innovación, de la cual Tatiana es becaria FPI y yo mismo investigador principal. En este momento Tatiana está desarrollando su tesis doctoral aplicando los resultados obtenidos de su trabajo en el diseño automático de puentes óptimos postesados de sección en cajón basándose en criterios sostenibles multiobjetivo aplicado al ciclo completo de vida de la estructura y utilizando hormigones no convencionales.

Creo que es de interés transcribir a continuación el resumen de dicha Tesis Fin de Máster:

«El diseño eficiente de estructuras de hormigón ha estado ligado con la potenciación de sus características resistentes, constructivas y económicas. Durante las últimas décadas ha habido un incremento en la producción científica relacionada con los hormigones no convencionales. Los hormigones de alta resistencia, autocompactables y reforzados con fibras son cada vez más empleados en el ámbito de la ingeniería civil y la arquitectura. Estos materiales tienen ciertas propiedades como son la alta resistencia, la facilidad de colocación y la durabilidad, que le confieren características adicionales al hormigón convencional. A pesar de ello, se ha detectado un vacío en el conocimiento de las métricas que permiten valorar su contribución a la sostenibilidad.

Existen varias herramientas que permiten analizar la sostenibilidad de un proyecto estructural. Algunas de ellas son capaces de medir el impacto global de una construcción, pero no llegan a discernir entre los distintos tipos de hormigones. Otras permiten la comparación entre hormigones, pero no contemplan el ciclo de vida completo de la estructura. En este trabajo se valoran las distintas herramientas existentes y se propone una metodología que sirva para evaluar la sostenibilidad de una estructura.

Para alcanzar dicho objetivo, se aborde en primer lugar un estado del arte de las metodologías existentes. Seguidamente, se lleva a cabo un estudio del ciclo de vida de una estructura de hormigón para detectar los principales puntos a tratar en el análisis posterior. Asimismo, la descripción y evaluación de las propiedades de los hormigones no convencionales nos conduce a una valoración más precisa. Una vez finalizado el estudio de la metodología se proponen cuatro casos prácticos que consideran el uso de cementos con adiciones, hormigones autocompactables, de alta resistencia y reforzados con fibras. Por último se realiza un estudio estadístico de las variables más influyentes.

La metodología propuesta tiene un enfoque multiobjetivo que contempla las características de los hormigones no convencionales. Además, permite analizar el ciclo de vida completo de la estructura, incluyendo su durabilidad. Se comprueba su eficacia para encontrar estructuras más durables, con menor impacto ambiental y económicamente viables. Finalmente se valora el coste y la emisión anual«.

Referencias:

GARCÍA-SEGURA, T.; YEPES, V.; ALCALÁ, J. (2014). Life-cycle greenhouse gas emissions of blended cement concrete including carbonation and durability. International Journal of Life Cycle Assessment, 19(1):3-12. DOI 10.1007/s11367-013-0614-0 (link) (descargar versión autor)

GARCÍA-SEGURA, T.; YEPES, V.; MARTÍ, J.V.; ALCALÁ, J. (2014). Optimization of concrete I-beams using a new hybrid glowworm swarm algorithm. Latin American Journal of Solids and Structures,  11(7):1190 – 1205. ISSN: 1679-7817. (link)

GARCÍA-SEGURA, T.; YEPES, V.; ALCALÁ, J.; PÉREZ-LÓPEZ, E. (2015). Hybrid harmony search for sustainable design of post-tensioned concrete box-girder pedestrian bridges. Engineering Structures, 92:112-122. DOI: 10.1016/j.engstruct.2015.03.015 (link)

Pincha aquí para descargar

 

Definiciones básicas del diseño de experimentos

Entendemos por experimento el cambio en las condiciones de operación de un sistema o proceso, realizado con el objetivo de medir el efecto del cambio en una o varias variables del producto. Ello nos permite ampliar el conocimiento sobre el sistema o el proceso.

Asimismo, entendemos por “diseño de un experimento” la planificación de un conjunto de pruebas experimentales, de modo que los datos generados puedan analizarse estadísticamente para obtener conclusiones válidas y objetivas acerca del problema establecido.

En un experimento, es muy importante su reproducibilidad, es decir, poder repetirlo. Ello nos proporciona una estimación del error experimental y permite obtener una estimación más precisa del efecto medio de cualquier factor.

 

Veamos algunas definiciones importantes en el diseño de experimentos:

  • Unidad experimental: es la muestra de unidades que es necesario producir en una condición para obtener una medición o un dato representativo. Unidad a la cual se le aplica un solo tratamiento (puede ser una combinación de muchos factores) en una reproducción del experimento.
  • Variables de respuesta: son las características del producto cuyo valor interesa mejorar mediante el diseño de experimentos.
  • Factor: una variable independiente. En la mayoría de las investigaciones se trata con más de una variable independiente y con los cambios que ocurren en la variable independiente, cuando varía una o más de las variables independientes.
  • Factores controlables: son variables del proceso que se pueden fijar en un punto o en un nivel de operación.
  • Factores no controlables: son variables que no pueden controlarse durante la operación normal del proceso.
  • Factores estudiados: son las variables que se investigan en el experimento para observar cómo afectan a la variable de respuesta.
  • Confusión: Dos o más efectos se confunden en un experimento si es posible separarlos en el análisis estadístico posterior.
  • Error aleatorio: Es la variabilidad observada que no puede explicarse por los factores estudiados y se debe al pequeño efecto de los factores no estudiados y al error experimental.
  • Error experimental: componente del error aleatorio que refleja los errores del experimentador en la planificación y la ejecución del experimento.
  • Aleatorización: consiste en realizar experimentos en orden aleatorio; este principio aumenta la probabilidad de que el supuesto de independencia de los errores se cumpla. Asignación al azar del tratamiento a las unidades experimentales. Una suposición frecuente en los modelos estadísticos de diseño de experimentos en los que las observaciones o los errores en ellas están distribuidos de forma independiente. La aleatorización hace válida esta suposición.
  • Repetición: Es correr más de una vez un tratamiento o combinación de factores
  • Bloqueo: Es nulificar o considerar adecuadamente todos los factores que pueden afectar la respuesta observada. Distribución de las unidades experimentales en bloques, de manera que las unidades dentro de un bloqueo sean relativamente homogéneas; de esta manera, la mayor parte de la variación predecible entre las unidades queda confundida con el efecto de los bloques.
  • Tratamiento o combinación de tratamientos: conjunto particular de condiciones experimentales que deben imponerse a una unidad experimental dentro de los confines del diseño seleccionado.

El error aleatorio describe la situación de no llegar a resultados idénticos con dos unidades experimentales tratadas idénticamente y refleja:

  • Errores de experimentación
  • Errores de observación
  • Errores de medición
  • Variación del material experimental (esto es, entre unidades experimentales)
  • Efectos combinados de factores extraños que podrían influir en las características en estudio, pero respecto de los cuales no se ha llamado la atención en la investigación.

El error aleatorio puede reducirse:

  • Usando material experimental más homogéneo o mediante una estratificación cuidadosa del material disponible.
  • Utilizando información proporcionada por variables aleatorias relacionadas
  • Teniendo más cuidado al dirigir y desarrollar el experimento
  • Usando un diseño experimental muy eficiente.

Referencias:

  • Box, G.E.; Hunter, J.S.; Hunter, W.G. (2008). Estadística para investigadores. Diseño, innovación y descubrimiento. Segunda Edición, Ed. Reverté, Barcelona.
  • Gutiérrez, H.; de la Vara, R. (2003). Análisis y diseño de experimentos. McGraw-Hill, México.
  • Vicente, M.L.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de experimentos. Soluciones con SAS y SPSS. Pearson Educación, Madrid.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Antoni Marí Bernat

Empezamos una serie de artículos sobre ingenieros que, de una u otra forma, han influido en mi pensamiento y trayectoria con Antoni Marí, catedrático de hormigón de la Universidad Politécnica de Cataluña. Es catedrático de hormigón en la Universitat Politècnica de Catalunya. No he tenido la suerte de tenerlo como profesor, pero siempre me ha tendido una mano y me ha dado buenos consejos cuando los he necesitado. Quisiera destacar su faceta humana y su capacidad para compaginar las labores docente, investigadora, profesional y de gestión. Aunque quizás lo que más me gustaría destacar son su faceta docente y su contacto humano. Dejo aquí un par de entrevistas producidas por Zigurat TV. Espero que os gusten.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Escritura de artículos científicos

En un artículo anterior, tuvimos la oportunidad de introducir algunos conceptos básicos sobre qué es y cómo se estructura un artículo científico. En esta entrada, os dejo un par de Polimedias realizados por la profesora María Milagros del Saz Rubio, de la Universitat Politècnica de València sobre la escritura de artículos académicos en inglés. Creo que son muy interesantes y espero que os gusten.

El primero busca ofrecer una introducción a las características básicas de la escritura académica.

El segundo se centra en la estructura de los artículos científicos.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué es un artículo científico?

¿Alguna vez os habéis preguntado cómo se almacena el conocimiento científico hoy en día? Pues sí, se trata de los ARTÍCULOS CIENTÍFICOS. No siempre se ha hecho así; baste con recordar las grandes bibliotecas como la de Alejandría, los manuscritos copiados una y otra vez por escribas y monjes, las cartas entre científicos, etc. Sin embargo, son las revistas y los artículos científicos los que hoy en día se consideran custodios del acervo científico actual.

Pero ¿qué es un artículo científico? Se trata de un informe escrito que comunica, por primera vez, los resultados de una investigación. No es nada fácil escribir un artículo de este tipo, puesto que requiere una rigurosidad, claridad, precisión y concisión muy elevadas. Además, antes de publicarse un artículo científico en una revista de alto impacto científico, este artículo se ve sometido a una rigurosa revisión por otros especialistas en el tema tratado (revisión por pares). Se podría decir que una investigación termina realmente cuando el público especializado accede a un artículo publicado en una revista científica.

¿Cómo podemos leer o escribir un artículo científico? ¿Por qué es importante escribirlo? ¿Qué estructura tiene?

Para poder contestar brevemente alguna de estas preguntas, vamos a difundir un par de videos explicativos sobre el tema, a sabiendas de que nos quedaremos cortos y de que en internet existen múltiples enlaces de gran calidad que nos pueden ayudar. También resulta de gran utilidad leer con detenimiento las instrucciones que las propias revistas exigen a sus autores para garantizar un mínimo de calidad en el estilo. No olvidemos que una buena investigación puede quedar sin publicarse si no somos capaces de transmitir bien lo que queremos decir.

 Os paso una plantilla para detectar los errores más frecuentes en los que podemos caer al redactar un artículo científico:

TÍTULO

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Sintaxis equívoca
Uso de términos ambiguos o vagos
Uso de jerga o jerigonza
Uso de abreviaturas y siglas
Falta de brevedad
Título telegráfico o inespecífico
Exceso de preposiciones y artículos
Uso de subtítulos innecesarios
Uso de palabras repetitivas o vacías
Otro tipo de errores detectados

AUTORES

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Nombre incompleto, con iniciales que llevan a la confusión
Incluye grados académicos o posiciones jerárquicas en la burocracia institucional
No incluye la institución donde se llevó a cabo la investigación
No figura la dirección postal exacta de cada institución
Cuando hay varios autores, no figura el autor responsable de la correspondencia con la revista
Otros errores

RESUMEN

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
No existe el resumen
No se puede entender el resumen por sí mismo, sin el contenido del resto del artículo
No incluye los objetivos
No incluye los materiales y métodos
No se incluyen los resultados más relevantes
Incluye información irrelevante
Incluye conclusiones no mencionadas en el texto
Carece de precisión o concisión
No está ordenado adecuadamente
Otros errores

 

PALABRAS CLAVE

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Selección de palabras que no son “clave”
Excesivo número de palabras (más de 10)
Escaso número de palabras (menos de 3)
Términos inespecíficos o ambiguos
Uso de abreviaturas
Uso de preposiciones
Otros errores

INTRODUCCIÓN

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Inexactitud en la identificación del problema general
Imprecisión en la definición del problema de investigación
Ausencia de un marco de referencia conceptual
Ausencia o insuficiencia de respaldo bibliográfico
Objetivos demasiados generales, vagos o ambiguos
Supuestos básicos no explícitos
Variables no identificadas
Exclusión de las definiciones de términos principales
Hipótesis mal formuladas
Limitaciones del estudio no explícitas
Falta de enlace con el resto del artículo, explicando su estructura
Otros errores

MATERIALES Y MÉTODOS (este apartado va a depender del tipo de artículo)

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Metodología inapropiada para el objetivo de la investigación
Metodología en desacuerdo con el nivel actual de conocimientos sobre el problema
Imprecisión en la descripción del método de muestreo
Imprecisión en la descripción de los materiales, aparatos, etc.
Imprecisión en la descripción de la metodología
Supuestos básicos de la investigación no explícitos
Falta de orden lógico
Imposibilidad de repetibilidad de la investigación
Otros errores

 

RESULTADOS

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Incluir información no pertinente a los objetivos del estudio
Confundir hechos con opiniones
Presentación de los hallazgos sin secuencia lógica
Falta de tratamiento estadístico, o bien es inapropiado o no se entiende
Información insuficiente para justificar las conclusiones
Medios de presentación (tablas, gráficos, etc.) inadecuados o poco claros para justificar las conclusiones
Los cuadros y gráficos carecen de legibilidad y de comprensibilidad
Los cuadros y gráficos repiten información ya expuesta en el texto
Los cuadros y gráficos se utilizan de forma indiscriminada, inadecuada e innecesaria
Los gráficos incluyen muchas series estadísticas juntas o con muchas categorías, lo que dificulta el dibujo e interpretación
Los gráficos se presentan incompletos. Falta de información sobre título, número, escalas, fuente y simbología
Los gráficos son inadecuados, complejos y de difícil interpretación
Exceso de cuadros, material gráfico
Otros errores

 

DISCUSIÓN

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Repetir los resultados
No confrontar los resultados
Reformular los puntos ya tratados
Polemizar de forma trivial
Hacer comparaciones teóricas sin fundamento
Hacer conjeturas sin identificarlas como tales y sin relacionarlas estrecha y lógicamente con la información empírica o teórica disponible
Otros errores

 

CONCLUSIONES

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
No hay conclusiones
Las conclusiones no se justifican por cuanto no se apoyan en los resultados
Las conclusiones no concuerdan con las preguntas de investigación formuladas en la introducción
Otros errores

 

AGRADECIMIENTOS

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Falta de concisión en la exposición del agradecimiento
Otros errores

 

REFERENCIAS

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
No se presentan referencias
Las referencias son exiguas
Las referencias son muy numerosas
Las referencias son obsoletas y muestran la desactualización del autor
Las referencias no están citadas en el texto o se citan equivocadamente
Las referencias se seleccionan sin cuidado y no son pertinentes
Los documentos que respaldan las referencias no son accesibles al lector
Las referencias citadas están incompletas
Se incluyen referencias no aceptables para la comunidad científica (reuniones no publicadas, documentos inéditos, comunicaciones personales, tesis no accesibles…)
Otros errores

 

APÉNDICES

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Hacer caso omiso del apéndice e incluir información complementaria – no esencial— en el cuerpo del artículo
Información desordenada
Otros errores

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué juicios dan soporte a la ciencia? Kant versus Hume.

Retrato de Inmanuel Kant (1724-1804)
Retrato de Immanuel Kant (1724-1804)

Aunque este blog está fuertemente orientado a la ingeniería, de vez en cuando vamos a reflexionar sobre aspectos que considero de interés. En este caso, vamos a los cimientos de la propia ciencia, donde, a su vez, se apoya una gran parte de la ingeniería actual. Veamos, pues, el pensamiento crítico de Kant frente al empirismo de Hume y las razones por las que sostiene que la metafísica no es posible como ciencia.

El pensamiento de Kant es fruto de la fuerte transformación histórica que se inicia con el Renacimiento y termina con la Ilustración. El antiguo orden social, político, religioso o científico se desvanece ante los nuevos conocimientos geográficos, los avances tecnológicos y la revolución científica. De esta forma, la filosofía aristotélica, focalizada en la naturaleza de las cosas, la ontología, da un giro hacia la preocupación por el conocimiento, la epistemología. Si tuviésemos que identificar un momento de modernidad en la ingeniería civil, tendríamos que bucear en la Ilustración como punto de inflexión. Es el momento del hombre y de su conciencia como fundamento último de la verdad, es decir, del conocimiento. Esta modernidad filosófica se nutrió del racionalismo y el empirismo y desembocó en la Ilustración, como proyecto de transformación y mejora de la humanidad mediante el desarrollo de su propia naturaleza racional.

Kant comparte con Hume la crítica al dogmatismo racionalista que pretendía alcanzar un conocimiento más allá de toda experiencia, pues prescindir de la experiencia puede confundir el conocimiento con la imaginación. Sin embargo, va más allá del empirismo de Hume que reduce el conocimiento al límite de la experiencia. De hecho, Kant postula la evidencia de que estamos en posesión de conocimientos universales y necesarios en las ciencias matemáticas y las ciencias naturales. Si estos conocimientos no vienen de la experiencia, ni tampoco son innatos, como indican los racionalistas, entonces es la propia razón la que los construye por sí misma basándose en la experiencia. Ello permite a Kant distinguir el conocimiento sensible, o “a posteriori”, del conocimiento “a priori”, producido por nuestra propia razón. El término “a priori” no debe entenderse como previo a la experiencia, sino como independiente de ella. Dicho con otras palabras, todo conocimiento comienza con la experiencia, pero no todo proviene de la experiencia. Como ejemplos, podríamos hablar del espacio o del tiempo, así como del concepto de causa-efecto. Un niño no nace con la idea de causalidad, como afirmarían los racionalistas, sino que la experiencia hace que la razón formule dicho concepto por sí misma. De este modo, si para Hume el concepto de causalidad no es conocimiento, sino costumbre o hábito, para Kant será conocimiento “a priori”, puesto que es universal y necesario. Así, la universalidad y la necesidad son la estructura natural de nuestro propio entendimiento.

Así pues, Kant establece la existencia de un conocimiento universal y necesario, pues este es el que se comprueba en las ciencias matemáticas y físicas. Si la ciencia es un conjunto de proposiciones o juicios, ¿cuáles de ellos son los que sustentan la ciencia? Para ello, Kant establece la diferencia entre los juicios analíticos y los sintéticos. Los primeros, aunque son juicios “a priori” típicos de la lógica, no amplían el conocimiento, pues las conclusiones derivan necesariamente de los supuestos. Los juicios sintéticos sí dan información, amplían el conocimiento, pues la conclusión no se deriva necesariamente de los supuestos. Hume estaría totalmente de acuerdo con Kant en esta división, puesto que los juicios analíticos serían relaciones entre ideas y los juicios sintéticos serían juicios sobre los hechos. La gran originalidad de Kant radica en distinguir los juicios sintéticos “a posteriori”, provenientes de la experiencia, de los juicios sintéticos “a priori”, provenientes de la razón. Este tipo de juicios amplía el conocimiento de la realidad, puesto que son universales y necesarios, pero no proceden de la experiencia, sino de la razón. Los ejemplos de este tipo de juicios los podemos ver en las matemáticas o en la física. Estos juicios sintéticos a priori, pese a no provenir de la experiencia, siempre pueden contrastarse empíricamente.

Todo lo anteriormente expuesto nos lleva al problema epistemológico clave para Kant, que será averiguar hasta qué punto es posible que la metafísica pueda ser ciencia, es decir, pueda disponer de un conjunto de juicios o proposiciones que la sustenten. Para ello, serían necesarios juicios sintéticos a priori que pudieran adecuarse a las condiciones formales de la experiencia. Si no pueden contrastarse, se tendrían juicios vacíos, sin un objeto posible. En este caso, Kant afirma que se habría construido un juicio que superaría nuestra facultad de conocimiento y, por tanto, sería ilegítimo. Eso es lo que ocurre, por ejemplo, con los juicios sobre Dios. Todo ello conduce a Kant a plantear que la metafísica no es posible como ciencia.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.