Comparación pareada como método de evaluación de competencias transversales en materia de sostenibilidad

La evaluación de las competencias transversales adquiridas a lo largo de la formación universitaria es un objetivo fundamental para garantizar la adecuada formación de los alumnos. Con los recientemente establecidos Objetivos de Desarrollo Sostenible, la demanda de competencias transversales orientadas a tal fin es cada vez mayor y, su desarrollo y evaluación, más urgente. En el contexto de la sostenibilidad, resulta particularmente relevante la capacidad de pensamiento crítico de los estudiantes. Ante la falta de consenso en cuanto a cómo determinar el grado de adquisición de las competencias transversales, se propone un procedimiento objetivo orientado a la evaluación del pensamiento crítico basado en la resolución de casos de estudio, combinados con la aplicación del Proceso Analítico Jerárquico de decisión multicriterio. La aplicación de este proceso permite determinar, de forma objetiva, la coherencia implícita de los alumnos en sus juicios y ofrece, por lo tanto, una herramienta valiosa para evaluar su capacidad de pensamiento crítico y la claridad con la que perciben la sostenibilidad y sus implicaciones en el desarrollo de su futura práctica profesional.

Referencias:

NAVARRO, I.J.; YEPES, V.; MARTÍ, J.V. (2020). Comparación pareada como método de evaluación de competencias transversales en materia de sostenibilidad. VI Congreso de Innovación Educativa y Docencia en Red. IN-RED 2020, 16 y 17 de julio de 2020. Doi: http://dx.doi.org/10.4995/INRED2020.2020.12000

 

Memoria anual 2018-2019 de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de Valencia

Acaba de publicarse la Memoria 2018-2019 de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de Valencia. Creo que vale la pena difundir esta información, pues son muchos, incluidos los propios profesores y estudiantes de esta Escuela, que desconocen algunas de las actividades que se realizan. Sirva también, para hacer transparente nuestra Escuela a todos los niveles. Aquí os la dejo.

 

 

 

 

 

Descargar (PDF, 3.48MB)

Toma de decisiones aplicada a la construcción de un puente mixto en cajón

Os dejo a continuación un ejemplo sencillo de aplicación de la técnica AHP de toma de decisiones dirigida a la selección de alternativas en la construcción de un puente mixto en cajón. Se trata de un caso que utilizamos con nuestros estudiantes para enseñar la técnica. Tratamos de evitar que, en los estudios de soluciones, los estudiantes recurran siempre a las matrices de valoración ponderada, donde los pesos de cada criterio siempre se ponen de forma más o menos arbitraria, o bien para justificar la solución preferida. Este tipo de problemas también suelen aparecer en los concursos de licitación de obras públicas.

Referencia:

YEPES, V.; MARTÍNEZ-MUÑOZ, D.; ATA-ALI, N.; MARTÍ, J.V. (2019). Multi-criteria decision analysis techniques applied to the construction of a composite box-girder bridge. 13th annual International Technology, Education and Development Conference (INTED 2019), Valencia, 11th, 12th and 13th of March, 2019, 1458-1467. ISBN: 978-84-09-08619-1

Descargar (PDF, 441KB)

 

Gestión de la innovación en las empresas constructoras

Tras la crisis financiera de 2008, que supuso una caída brutal de la contratación de obra pública en España, las empresas constructoras y consultoras tuvieron que internacionalizarse. Sin casi haber salido completamente de este trance, sobrevino la actual crisis sanitaria de la pandemia del coronavirus que ha acarreado una nueva recesión social y económica que, de momento, no se atisba su solución. Las consecuencias de esta nueva crisis, graves sin duda, aún no se sabe hasta dónde pueden alcanzar. Por tanto, el sector de la construcción vuelve a sufrir una convulsión de difícil pronóstico. Las nuevas tecnologías están teniendo un papel determinante en la forma de afrontar esta coyuntura, especialmente en el trabajo no presencial. Los cambios que podrían tardar décadas en llegar, nos han alcanzado de repente. La pregunta es la de siempre: ¿cómo afrontar la competitividad de las empresas en escenarios tan cambiantes como los actuales?

Parece evidente que la metáfora darwinista de la evolución podría aplicarse, con todas las cautelas necesarias, al mundo empresarial. Solo sobrevivirán aquellas organizaciones capaces de adaptarse rápidamente al nuevo entorno. Y para ello no es suficiente la mejora continua de nuestros procesos y productos, sino que se requiere un cambio radical, rupturista, basado en la innovación, capaz de crear un “océano azul” donde la competencia sea irrelevante.

A continuación os paso una clase que tuve que impartir en línea sobre la gestión de la innovación en las empresas constructoras. Se trata de una clase impartida en la asignatura “Gestión de la innovación en el sector de la construcción” del Máster Universitario en Planificación y Gestión en Ingeniería Civil (MAPGIC) de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de la Universitat Politècnica de València. La dejo en abierto para que la pueda ver quien esté interesado.

Especialista en tecnologías sin zanja

Os anuncio a continuación la VI edición anual del Curso de Postgrado: ESPECIALISTA EN TECNOLOGÍAS SIN ZANJA, que se desarrolla del 26 de octubre al 11 de noviembre de 2020 en la modalidad online, a través de la plataforma Microsoft Teams. Se trata un curso de 46 horas organizado por la Asociación Ibérica de Tecnología SIN Zanja (IbSTT).

Os adjunto el programa actualizado y el enlace para que puedan cumplimentar el boletín de inscripción, y la reserva de plaza: https://forms.gle/FyYRn9D8XmuENyj4A. Por cierto, podéis solicitar un “código de descuento de empresa asociada” del 10% si sois alumno mío o bien contacto, por ser miembro colaborador (dáis mi nombre al inscribiros y os harán el descuento).

También os paso, gratuitamente, la ponencia que imparto dentro del curso, que he colgado en Youtube, por si os resulta de interés. Se trata del Módulo 7-1: Aspectos generales: Peforación Horizontal Dirigida PHD.

Descargar (PDF, 399KB)

Correlación y modelo de regresión lineal. Problema resuelto en puentes losa

Figura 1. Modelo lineal simple de un tablero de puente losa postesado macizo (Yepes et al., 2009)

Uno de los temas básicos que se estudia en la asignatura de estadística de cualquier grado de ingeniería es la inferencia y los modelos de regresión lineal (Figura 1). A pesar de su sencillez, muchos estudiantes y profesionales aplican, sin más, este tipo de regresiones para interpolar valores en múltiples campos de la ingeniería, la economía, la salud, etc. El conocimiento de algunas nociones básicas nos permitiría evitar errores de bulto. Uno de ellos es intentar forzar las predicciones más allá de las observaciones realizadas. Otro error es confundir la correlación con la regresión. Buscar relaciones donde no las hay (relación espuria, Figura 2). Y por último, uno de los aspectos más descuidados es la no comprobación de las hipótesis básicas que se deben cumplir para que un modelo de regresión lineal sea válido.

Figura 2. Relaciones espuria entre el consumo de chocolate y el número de premios Nobel

Dicho de otra forma, valorar la calidad del ajuste mediante el coeficiente de determinación no equivale a valorar el cumplimiento de las hipótesis básicas del modelo. Si las hipótesis del modelo no se cumplen, se pueden estar cometiendo graves errores en las conclusiones de las inferencias. Así, las hipótesis básicas del modelo de regresión son las siguientes:

  • Linealidad: los parámetros y su interpretación no tienen sentido si los datos no proceden de un modelo lineal
  • Normalidad de los errores: se asume que la distribución de los errores es normal
  • Homocedasticidad: la varianza del error es constante
  • Independencia de los errores: las variables aleatorias que representan los errores son mutuamente independientes
  • Las variables explicativas son linealmente independientes

Para aclarar las ideas, he analizado un caso de regresión lineal simple con datos reales procedentes de 26 puentes losa postesados macizos (Yepes et al., 2009). Se trata de conocer la relación que existe entre la luz principal de este tipo de puentes y el canto del tablero. Utilizaremos los programas siguientes: MINITAB, SPSS, EXCEL y MATLAB. También os dejo un vídeo explicativo, muy básico, pero que espero sea de interés. Dejo los detalles matemáticos aparte. Los interesados pueden consultar cualquier manual básico de estadística al respecto.

Descargar (PDF, 817KB)

Referencias:

YEPES, V.; DÍAZ, J.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2009). Statistical Characterization of Prestressed Concrete Road Bridge Decks. Revista de la Construcción, 8(2):95-109.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Tablas de contingencia aplicadas al hormigón

Figura 1. ¿Depende la calidad del hormigón de un proveedor determinado?

En ocasiones nos encontramos con un par de variables cualitativas que, a priori, no sabemos si se encuentran relacionadas entre sí, o si pertenecen a una misma población estadística. Recordemos que las variables cualitativas son aquellas cuyo resultado es un valor o categoría de entre un conjunto finito de respuestas (tipo de defecto, nombre del proveedor, color, etc.).

En el ámbito del hormigón, por ejemplo, podríamos tener varios proveedores de hormigón preparado en central y un control del número de cubas-hormigonera aceptadas, aceptadas con defectos menores o rechazadas. Otro ejemplo sería contabilizar el tipo de incumplimiento de una tolerancia por parte de un equipo que está encofrando un muro de contención. En estos casos, se trata de saber si existe dependencia entre los proveedores o los equipos de encofradores respecto a los defectos detectados. Esto sería interesante en el ámbito del control de la calidad para tomar medidas, como pudiese ser descartar a determinados proveedores o mejorar la formación de un equipo de encofradores.

Así, podríamos tener un problema como el siguiente: Teniendo en cuenta el punto 5.6 del Anejo 11 de la EHE, donde se definen las tolerancias de muros de contención y muros de sótano, se quiere comprobar si tres equipos de encofradores producen de forma homogénea en la ejecución de muros vistos, o por el contrario, unos equipos producen más defectos de un tipo que otro. Todos los equipos emplean el mismo tipo de encofrado. Las tolerancias que deben cumplirse son:

1. Desviación respecto a la vertical
2. Espesor del alzado
3. Desviación relativa de las superficies planas de intradós o de trasdós
4. Desviación de nivel de la arista superior del intradós, en muros vistos
5. Tolerancia de acabado de la cara superior del alzado, en muros vistos

Los equipos han estado trabajando durante año ejecutando este tipo de unidad de obra. Durante este tiempo el número de defectos en relación con la tolerancia dimensional ha sido pequeño, pero se han contabilizado 375 defectos. El control de calidad ha dado como resultado el conteo de la tabla de la Figura 2.

Figura 2. Conteo de incumplimientos según el equipo de encofradores. En paréntesis figura el valor esperado.

En la Figura 2 se ha representado también la frecuencia esperada para cada uno de los casos. Por ejemplo, la fracción esperada del incumplimiento “1” es de 89/375, mientras que la fracción esperada de defectos del equipo A es de 150/375. Ello implica que el valor esperado de incumplimientos del tipo “1” para el equipo de encofradores “A” sería: (89/375)·(150/375)·375=89·150/375=35,60.

La pregunta que nos podríamos hacer es la siguiente: ¿Influye el tipo de proveedor en la calidad de la recepción del hormigón? Para ello plantearíamos la hipótesis nula: El tipo de proveedor no influye en la calidad de la recepción del hormigón. La hipótesis alternativa sería que sí que existe dicha influencia o dependencia entre las variables cualitativas.

Para ello necesitamos una prueba estadística, en este caso es la prueba χ². El fundamento de la prueba χ² es comparar la tabla de las frecuencias observadas respecto a la de las frecuencias esperadas (que sería la que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas). Esta prueba permite obtener un p-valor (probabilidad de equivocarnos si rechazamos la hipótesis nula) que podremos contrastar con el nivel de confianza que determinemos. Normalmente el umbral utilizado es de 0,05. De esta forma, si p<0,05 se rechaza la hipótesis nula y, por tanto, diremos que las variables son dependientes. Dicho de forma más precisa, en este caso no existe un nivel de significación suficiente que soporte la independencia de las variables.

Las conclusiones que se obtienen de la prueba son sencillas de interpretar. Si no existe mucha diferencia entre los valores observados y los esperados, no hay razones para dudar de que las variables sean independientes.

No obstante, hay algunos problemas con la prueba χ², uno de ellos relacionado con el tamaño muestral. A mayor número de casos analizados, el valor de la χ² tiende a aumentar. Es decir, si la muestra es excesivamente grande, será más fácil que rechacemos la hipótesis nula de independencia, cuando a lo mejor podrían ser las variables independientes.

Por otra parte, cada una de las celdas de la tabla de contingencia debería tener un mínimo de 5 observaciones esperadas. Si no fuera así, podríamos agrupar filas o columnas (excepto en tablas 2×2). También se podría eliminar la fila que da una frecuencia esperada menor de 5.

Por último, no hay que abusar de la prueba χ². Por ejemplo, podríamos tener una variable numérica, como la resistencia característica del hormigón, y agruparla en una variable categórica en grupos tales como 25, 30, 35, 40, 45 y 50 MPa. Lo correcto cuando tenemos una escala numérica sería aplicar la prueba t-Student, siendo incorrecto convertir la escala numérica en una ordinal o incluso binaria.

A continuación os dejo el problema anterior resuelto, tanto con el programa SPSS como con MINITAB.

Descargar (PDF, 326KB)

Os dejo un par de vídeos explicativos, que espero os sean de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Cuál es el mejor algoritmo para optimizar un problema? “No free lunch”

Figura 1. Desgraciadamente, no existe la comida gratis. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

Después de años impartiendo docencia en asignaturas relacionadas con la optimización heurística de estructuras de hormigón, y tras muchos artículos científicos publicados y más donde he sido revisor de artículos de otros grupos de investigación, siempre se plantea la misma pregunta: De todos los algoritmos que utilizamos para optimizar, ¿cuál es el mejor? ¿Por qué dice en su artículo que su algoritmo es el mejor para este problema? ¿Por qué no nos ponemos de acuerdo?

Para resolver esta cuestión, dos investigadores norteamericanos, David Wolpert y William Macready, publicaron un artículo en 1997 donde establecieron un teorema denominado “No free lunch“, que traducido sería algo así como “no hay comida gratis”. Dicho teorema establece que, por cada par de algoritmos de búsqueda, hay tantos problemas en el que el primer algoritmo es mejor que el segundo como problemas en el que el segundo algoritmo es mejor que el primero.

Este teorema revolucionó la forma de entender el rendimiento de los algoritmos. Incluso una búsqueda aleatoria en el espacio de soluciones podría dar mejores resultados que cualquier algoritmo de búsqueda. La conclusión es que no existe un algoritmo que sea universalmente mejor que los demás, pues siempre habrá casos donde funcione peor que otros, lo cual significa que todos ellos se comportarán igual de bien (o de mal) en promedio.

De hecho, se podría decir que un experto en algoritmos genéticos podría diseñar un algoritmo genético más eficiente que, por ejemplo, un recocido simulado, y viceversa. Aquí el arte y la experiencia en un problema y en una familia de algoritmos determinados, suele ser decisivo. En la Figura 2 se puede ver cómo un algoritmo muy especializado, que conoce bien el problema, puede mejorar su rendimiento, pero pierde la generalidad de poder usarse en cualquier tipo de problema de optimización que no sea para el que se diseñó.

Figura 2. El uso del conocimiento del problema puede mejorar el rendimiento, a costa de la generalidad. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

¿Qué consecuencias obtenemos de este teorema? Lo primero, una gran decepción, pues hay que abandonar la idea del algoritmo inteligente capaz de optimizar cualquier problema. Lo segundo, que es necesario incorporar en el algoritmo cierto conocimiento específico del problema, lo cual equivale a una “carrera armamentística” para cada problema de optimización. Se escriben y escribirán miles de artículos científicos donde un investigador demuestre que su algoritmo es mejor que otro para un determinado problema.

Una forma de resolver este asunto de incorporar conocimiento específico del problema es el uso de la inteligencia artificial en ayuda de las metaheurísticas. Nuestro grupo de investigación está abriendo puertas en este sentido, incorporando “deep learning” en el diseño de los algoritmos (Yepes et al., 2020; García et al., 2020a; 2020b), o bien redes neuronales (García-Segura et al., 2017). Incluso, en este momento, me encuentro como editor de un número especial de la revista Mathematics (primer decil del JCR) denominado: “Deep Learning and Hybrid-Metaheuristics: Novel Engineering Applications”, al cual os invito a enviar vuestros trabajos de investigación.

Si nos centramos en un tipo de problema determinado, por ejemplo, la optimización de estructuras (puentes, pórticos de edificación, muros, etc.), el teorema nos indica que necesitamos gente formada y creativa para optimizar el problema concreto al que nos enfrentamos. Es por ello que no existen programas comerciales eficientes capaces de adaptarse a cualquier estructura para optimizarla. Tampoco son eficientes las herramientas generales “tools” que ofrecen algunos programas como Matlab para su uso inmediato e indiscriminado.

Por tanto, no se podrá elegir entre dos algoritmos solo basándose en lo bien que trabajaron anteriormente en un problema determinado, pues en el siguiente problema pueden optimizar de forma deficiente. Por tanto, se exige conocimiento intrínseco de cada problema para optimizarlo. Es por ello que, por ejemplo, un experto matemático o informático no puede, sin más, dedicarse a optimizar puentes atirantados.

Referencias:

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020a). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020b). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862.

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150.

WOLPERT, D.H.; MACREADY, W.G. (1997). No Free Lunch Theorems for Optimization. IEEE Transactions on Evolutionary Computation, 1(1):67-82.

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767.

A continuación os dejo el artículo original “No Free Lunch Theorems for Optimization”. Se ha convertido en un clásico en optimización heurística.

Descargar (PDF, 698KB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

“Fake engineering”. ¿Es oro todo lo que reluce en internet?

Figura 1. https://nationalpost.com/news/toronto/historic-home-perched-five-storeys-above-solid-ground-so-50-storey-condo-can-rise-behind-19th-century-dwelling

Todos los días vemos miles de imágenes en internet. Un buen número de ellas son montajes que buscan llamar la atención para capturar visitas y aumentar los ingresos por publicidad. La ingeniería no se libra de este tipo de fenómenos.

En la Figura 1 podéis observar una imagen que, a priori es espectacular. Pero para un ingeniero supone un rompecabezas, pues es muy complicado ejecutar unos pilotes justamente debajo de un edificio. Es la típica fotografía que utilizo para que mis estudiantes piensen un poco sobre cómo se ha podido realizar este procedimiento constructivo. Muchas veces la respuesta suele ser correcta: es un montaje. Sin embargo, no es éste el caso.

En este caso, la pregunta me la hizo Marcos Barjola. La respuesta no es nada fácil a priori. No obstante, buscando por internet uno puede encontrar una nota de prensa fechada en Toronto que habla de este caso.

Se trata de una noticia del año 2014. El titular decía lo siguiente: “Una casa histórica encaramada a cinco pisos sobre tierra firme para que un condominio de 50 pisos se levante detrás de una vivienda del siglo XIX”. Además, se añadía lo siguiente: “Hay pocas posibilidades de que los ocupantes originales de la Casa John Irwin pudieran imaginar lo que pasaría con su vivienda dentro de 141 años”.

La solución fue ingeniosa y, ciertamente, costosa. Se desplazó la vivienda, se ejecutaron los pilotes y la viga riostra, y se volvió a situar la vivienda sobre la estructura. Sin embargo, se trataba de salvar un edificio de dos plantas, construido en 1873, que es único porque es una de las últimas casas existentes del siglo XIX en el centro de Toronto.

Este tipo de noticias suele dar pie a muchas reflexiones ingenieriles. Un ejemplo es la Figura 2. ¿Se trata de un montaje? ¿Es posible que la foto sea real? Os dejo la pregunta abierta, para que penséis por un rato.

Figura 2. ¿Es posible? ¿Es fotomontaje?

 

Instrucciones básicas de Matlab para tratamiento estadístico de datos

Dejo a continuación una serie de instrucciones básicas que podéis utilizar en Matlab para realizar cálculos estadísticos básicos. Este post está dedicado a mis estudiantes de Modelos Predictivos y de Optimización de Estructuras de Hormigón, pero puede ser de interés, por lo que lo dejo en abierto.

Importar datos de un fichero Excel

>> datos=xlsread(‘Ejercicio 4’)

Número de filas y columnas

>> size(datos)

Dimensión más grande de una matriz

>> length(datos)

Ordena los elementos de forma ascendente

>> sort(datos)

Ordena los elementos de forma descendente

>> sort(datos,’descend’)

Suma de los datos

>> sum(datos)

Producto de los datos

>> prod(datos)

Vector de sumas acumuladas

>> cumsum(datos)

Vector de productos acumulados

>> cumprod(datos)

Calcular la media aritmética

>> mean(datos)

Calcular la mediana

>> median(datos)

Calcular la moda de la muestra

>> mode(datos)

Calcular la media aritmética omitiendo el 5% de datos de cada lado

>> trimmean(datos,10)

Calcular la media geométrica de una muestra

>> geomean(datos)

Calcular la media armónica de una muestra

>> harmmean(datos)

Calcular el sesgo de la muestra

>> skewness(datos)

Calcular la curtosis de los datos

>> kurtosis(datos)

Varianza muestral

>> var(datos)

Desviación estándar muestral

>> std(datos)

 

Rango de los datos

>> range(datos)

El menor valor

>> min(datos)

El mayor valor

>> max(datos)

Desviación absoluta respecto a la media

>> mad(datos)

Momento central de orden 3 respecto a la media

>> moment(datos,3)

Rango intercuartílico

>> iqr(datos)

Primer cuartil (percentil 25)

>> prctile(datos, 25)

Percentil del 5%

>> prctile(datos,5)

Dibujar un diagrama de caja

>> boxplot(datos)

Dibujar el histograma de datos

>> hist(datos)

Dibujar la distribución de frecuencia acumulada

>> cdfplot(datos)

Visualización de funciones de probabilidad

>> disttool

Ajuste de modelos de distribución a conjunto de datos

>> dfittool

Matriz 3×3 de números aleatorios entre 0 y 1

>> rand(3)

Matriz 3×2 de números aleatorios entre 0 y 1

>> rand(3,2)

Matriz 3×3 de números aleatorios normales de media 0 y varianza 1

>> randn(3)

Matriz 3×2 de números aleatorios normales de media 0 y varianza 1

>> randn(3,2)

Secuencia de 5 valores aleatorios normales de desviación estándar de 2,5 y media 3

>> rand(1,5)*2.5+3