Las juntas de dilatación en estructuras, ¿son absolutamente necesarias?

Figura 1. Junta de dilatación en un edificio. http://www.trabver.com/juntas-dilatacion-trabajos-verticales-valencia.htm

El aumento o la disminución de la temperatura en las estructuras ocasiona cambios de volumen que deben tenerse en cuenta. En el caso de un pavimento, la pequeña relación entre el espesor y el área superficial implica un incremento de longitud más que evidente. Si dicho elemento se encuentra confinado, aumentan los esfuerzos de compresión y pueden ocasionar efectos como alabeo en las placas o introducir esfuerzos en las estructuras adyacentes. Un efecto similar ocurre en el caso de la retracción y la fluencia del hormigón, por lo que muchas veces se estudian conjuntamente estos efectos con los cambios térmicos. Es por ello que se suele dejar una separación estructural que permita los movimientos diferenciales, tanto horizontales como verticales. A este tipo de juntas se les denomina «juntas de expansión», «juntas de dilatación» o «juntas de aislamiento». ¿Pero son absolutamente necesarias?

El tipo de estructura, su geometría y dimensiones, los materiales utilizados o las circunstancias ambientales, entre otros factores, influyen en el comportamiento que tenga la estructura ante las variaciones térmicas. Incluso la presencia de agua, si se congela, puede incrementar de forma significativa la acción expansiva.

La omisión de este tipo de juntas de dilatación provoca daños en los elementos estructurales (zapatas, muros de sótano, pavimentos, fábricas de ladrillo, etc.). Es por ello que las juntas de dilatación deben considerarse desde el mismo momento del proyecto de la estructura. Normalmente se usan elementos tales como cintas de espuma impregnada para sellar las juntas de dilatación, aunque también se pueden dejar abiertas.

El rango de movimiento de una junta se puede calcular multiplicando el coeficiente de dilatación del material por la dimensión inicial del elemento y por la diferencia esperada de temperaturas. No obstante, el Código Técnico de Edificación (CTE SE-AE 3.4) establece que, en los edificios habituales con elementos estructurales de hormigón o acero, pueden no considerarse las acciones térmicas cuando se dispongan juntas de dilatación de forma que no existan elementos continuos de más de 40 m de longitud, aunque la experiencia nos dice que si son menos de 40 m, mejor. En el caso de edificios de hasta 4 plantas, en zona no sísmica, la junta puede tener 2,5 cm; debiéndose calcular cuando se dan otras condiciones. Para edificios de planta rectangular y estructura a base de fábrica de ladrillo la distancia entre juntas debe ser menor de 30 m. Si la planta tiene alas en forma de “L” o “U”, de longitud mayor a 15 m (50% de 30 m), el CTE (SE-F, 2.2 Juntas de movimiento) establece que se debe disponer de juntas de dilatación cerca de sus líneas de encuentro.

Con todo, hay estudios que demuestran que se pueden superar distancias mayores a las indicadas en el CTE siempre que se cuiden los detalles constructivos de los elementos no estructurales. De hecho, la técnica permite incluso construir edificios de hasta 300 m sin este tipo de juntas. En el caso de estructuras en obras civiles, por ejemplo en puentes, es habitual ver tramos de luces mucho mayores a los 40 m del CTE sin establecer ningún tipo de junta. Incluso en el ámbito de los ferrocarriles, ya está superado el uso de la barra largo soldada, sin juntas. Pero hay que recordar que se deben tener en cuenta en el cálculo los efectos de la temperatura.

Además, no hay que olvidar que cualquier tipo de junta en una estructura supone un problema, tanto en la ejecución, como en el mantenimiento. Un argumento más para considerar los efectos térmicos, de retracción y fluencia en el cálculo  estructural e intentar evitar este tipo de juntas. El problema es la dificultad de encontrar herramientas comerciales que permitan el análisis de los efectos termohigrométricos (fluencia, retracción y cambios térmicos) junto con la fisuración, lo que lleva a que muchos técnicos se decanten por cumplir los requerimientos expuestos en el CTE.

Pero creo que lo mejor es que veáis esta clase de Juan Carlos Arroyo, que seguro, os aclarará muchas de vuestras dudas. Incluso tiene un curso sobre el tema por si a alguno le interesa: https://ten.ingenio.xyz/p/masterclass-juntas-de-dilatacion-en-estructuras

 

Alcoy, ciudad de terremotos. A unos días del 400 aniversario de una de las mayores tragedias vividas.

Figura 1. Sismo del 3 de noviembre de 2020, con epicentro en Relleu

Hoy mismo nos hemos despertado con la noticia de un terremoto de magnitud 3,6 en la escala de Richter y epicentro en Relleu que se ha dejado notar en todo el norte de la provincia de Alicante, según el departamento de Sismología del Instituto Geográfico Nacional (Figura 1). Tuvo lugar a las 5:25 de la madrugada, durando aproximadamente los temblores cinco segundos. Han habido varias réplicas. Los temblores se han sentido en Alcoy y otros pueblos cercanos con movimiento de lámparas y camas, aunque sin daños personales o materiales de los que se tenga constancia. Este movimiento es el tercero percibido en la provincia de Alicante en poco más de 24 horas, tras los dos con epicentro en aguas del Mediterráneo, frente a Torrevieja (magnitud 2,6 en la escala Ritcher el domingo y 2,5 el del lunes).

Si observamos el mapa de sismicidad de la Península Ibérica y de las zonas próximas, comprobamos que el sur-sureste se encuentra en zona de alto riesgo (Figura 2). Nos encontramos en el borde entre la placa tectónica euroasiática y la africana, que se encuentran en colisión.

Figura 2. Sismicidad de la península ibérica y zonas próximas. http://www.ign.es/web/resources/sismologia/www/dir_images_terremotos/mapas_sismicidad/sismicidad.jpg

De hecho, el Instituto Geográfico Nacional recoge alguno de los episodios más graves habidos (Tabla 1), destacando con mucho el ocurrido el 1 de noviembre de 1755 al SW del Cabo San Vicente, que produjo un tsunami de casi 15 m de altura, con efecto a Europa occidental y norte de África. Fue de intensidad X, magnitud 8,5 y produjo unos 15000 muertos.

Tabla 1. Terremotos más importantes. https://www.ign.es/web/ign/portal/terremotos-importantes

Para aclarar algo más este tema, hay que distinguir entre la magnitud y la intensidad de un sismo. La magnitud mide la energía liberada, mientras la intensidad es una descripción cualitativa de los efectos, que ocurren en superficie. Si bien la magnitud se ha medido con las fórmulas originales de la escala Richter, hoy en día se hacen nuevos análisis de la magnitud basado en las ondas sísmicas. Os dejo a continuación la Figura 3, donde aparecen los terremotos más grandes acaecidos, con su magnitud y energía descargada equivalente.

Figura 3. Lista de terremotos de mayor magnitud. https://ecoexploratorio.org/amenazas-naturales/terremotos/magnitud-intensidad-y-aceleracion/#prettyPhoto/4/

¿Cuál es la razón del titular de este artículo? En primer lugar, por ser Alcoy mi pueblo natal. Pero, sobre todo, porque la memoria colectiva es muy corta. Quiero hacer referencia a algunos episodios que ocurrieron y que provocaron una verdadera calamidad no hace tampoco tanto tiempo.

El primer terremoto al que quiero referirme en Alcoy, tuvo lugar el 2 de diciembre de 1620, con una intensidad de VII-VIII, y unos días después, el 14 de diciembre, otro con una intensidad de V. El 26 de septiembre de 1793, el 2 de noviembre de 1819, el 8 de noviembre de 1882 y el 21 de enero de 1931 ocurrieron terremotos de intensidad V. Como vemos, terremotos de intensidad V o superior están bien documentados.

De todos los terremotos ocurridos en Alcoy, el del 1620 fue especialmente grave. Tanto fue así que los alcoyanos nombraron a San Mauro como patrono del pueblo. Las crónicas, recogidas en el Archivo Municipal de Alcoy, fueron escritas por Alonso García Molero, que la dedicó al corregidor de la ciudad de Granada, donde fue impreso en 1621.

¡Qué casualidad que quede menos de un mes del 400 aniversario de esta tragedia! Según cuenta en cronista Carbonell: “Poco después de las oraciones del Ave María, se sintió un terremoto tan estupendo que hoy referirse no puede ser, sin liquidarse el corazón por los ojos, pues es el mayor que ha visto el mundo después que murió Cristo Redentor nuestro”. Para medir la importancia de aquel terremoto, se pueden ver los daños que ocasionó a la arquitectura religiosa: se partió la Iglesia Parroquial por la mitad; el Convento de San Agustín fue arrasado en un instante (arcos de sillería destrozados, tres torres derrumbadas, el coro desplomado sobre tres religiosos…); el Monasterio de San Francisco se abrió como una granada, muriendo siete mujeres y un niño; víctimas por toda la ciudad, destacando las 22 de la Calle del Portal… Como en otras ocasiones, el desastre natural ocurrió de noche. Cuentan que las casas chocaban unas con otras al desplomarse; la gente salía de ellas con los niños en brazos y los ancianos al cuello; algunos con la mujer desmayada; los más rodaban por el suelo y los gritos de los sepultados y los bramidos de los irracionales, que no pudieron salir de los establos, se escuchaban por toda la ciudad.

Todo lo anterior nos lleva al «leit motiv» del presente artículo. Al igual que otras tragedias como riadas o inundaciones, los sismos son acontecimientos que ocurren y que requieren de una planificación previa y de estrategias técnicas que reduzcan los efectos de este tipo de acontecimientos. La teoría del «cisne negro» parece más actual que nunca.

 

Memoria anual 2018-2019 de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de Valencia

Acaba de publicarse la Memoria 2018-2019 de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de Valencia. Creo que vale la pena difundir esta información, pues son muchos, incluidos los propios profesores y estudiantes de esta Escuela, que desconocen algunas de las actividades que se realizan. Sirva también, para hacer transparente nuestra Escuela a todos los niveles. Aquí os la dejo.

 

 

 

 

 

Pincha aquí para descargar

Diseño de experimentos en cuadrado grecolatino. Ejemplo aplicado al hormigón

Figura 1. Cuadrado grecolatino de orden cuatro. Wikipedia

Un cuadrado greco-latinocuadrado de Euler o cuadrados latinos ortogonales de orden n se denomina, en matemáticas, a la disposición en una cuadrícula cuadrada n×n de los elementos de dos conjuntos S y T, ambos con n elementos, cada celda conteniendo un par ordenado (st), siendo s elemento de S y t de T, de forma que cada elemento de S y cada elemento de T aparezca exactamente una vez en cada fila y en cada columna y que no haya dos celdas conteniendo el mismo par ordenado. Si bien los cuadrados grecolatinos eran una curiosidad matemática, a mediados del siglo XX Fisher demostró su utilidad para el control de experimentos estadísticos.

El diseño de experimentos en cuadrado grecolatino constituye una extensión del cuadrado latino. En este caso se eliminan tres fuentes extrañas de variabilidad, es decir, se controlan tres factores de bloques y un factor de tratamiento. Se trata de un diseño basado en una matriz de «n» letras latinas y «n» letras griegas, de forma que cada letra latina aparece solo una vez al lado de cada letra griega. Lo interesante de este diseño es que se permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con «n» niveles en solo «n2» corridas. Se llama cuadrado grecolatino porque los cuatro factores involucrados se prueban en la misma cantidad de niveles, de aquí que se pueda escribir como un cuadro. En la Figura 1 se presenta el aspecto de los datos del diseño de orden cuatro. El inconveniente de este modelo es que su utilización es muy restrictiva. El análisis de la varianza permite comprobar las hipótesis de igualdad de letras latinas (tratamientos), de las filas, de las columnas y de las letras griegas.

Si a un cuadrado latino p x p se le superpone un segundo cuadrado latino n x n en el que los tratamientos se denotan con letras griegas, entonces los dos cuadrados tienen la propiedad de que cada letra griega aparece una y sólo una vez con cada letra latina. Este diseño permite controlar sistemáticamente tres fuentes de variabilidad extraña. Ello permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con p niveles en sólo n2 ensayos.

Por tanto, el diseño de experimentos en cuadrado grecolatino se caracteriza por lo siguiente:

  • Es un diseño con cuatro factores a n niveles
  • Se asume que no hay interacciones entre los factores
  • Requiere de n2 observaciones
  • Cada nivel de un factor aparece una vez con cada nivel de los otros factores
  • Se trata de la superposición de dos cuadrados latinos (ver Figura 2)
Figura 2. Superposición de dos cuadrados latinos

En un diseño en cuadrado greco-latino la variable respuesta yij(hp) viene descrita por la siguiente ecuación:

A continuación os presento un caso para aclarar la aplicabilidad de este diseño de experimentos. Se trata de averiguar si la resistencia característica del hormigón a flexocompresión (MPa) varía con cuatro dosificaciones diferentes. Para ello se han preparado amasadas en cuatro amasadoras diferentes, se han utilizado cuatro operarios de amasadora y los ensayos se han realizado en cuatro laboratorios diferentes. Los resultados se encuentran en la tabla que sigue. Se quiere analizar el diseño de experimentos en cuadrado grecolatino realizado.

En el caso que nos ocupa, la variable de respuesta de la resistencia característica del hormigón a flexocompresión (MPa). El factor que se quiere estudiar es la dosificación a cuatro niveles (A, B, C y D). El bloque I es el tipo de amasadora, con cuatro niveles (α, β, γ y δ). El bloque II es el operario de la amasadora, con cuatro niveles (1, 2, 3 y 4). El bloque III es el laboratorio, con cuatro niveles (las filas). Se supone que no hay interacción entre el factor y los bloques entre sí.

Lo que se quiere averiguar es si hay diferencias significativas entre las dosificaciones (el factor a estudiar). De paso, se desea saber si hay diferencias entre los laboratorios, los operarios y las amasadoras (los bloques).

Os paso un pequeño vídeo donde se explica, de forma muy resumida, este caso, tanto para SPSS como para MINITAB.

Os dejo otro vídeo donde también se explica este tipo de diseño de experimentos.

Referencias:

  • Gutiérrez, H.; de la Vara, R. (2004). Análisis y Diseño de Experimentos. McGraw Hill, México.
  • Vicente, MªL.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de Experimentos. Soluciones con SAS y SPSS. Pearson, Prentice Hall, Madrid.
  • Pérez, C. (2013). Diseño de Experimentos. Técnicas y Herramientas. Garceta Grupo Editorial, Madrid.

 

Optimización heurística de pórticos de paso de carretera de hormigón armado

A continuación recojo uno de los primeros trabajos que hizo nuestro grupo de investigación en el año 2005 sobre optimización heurística de estructuras de hormigón. Se trata de la optimización mediante varias heurísticas (máximo gradiente, aceptación por umbrales y recocido simulado) de un pórtico de paso de carretera de hormigón armado. En este caso se consideraron 28 variables para definir una solución de pórtico. Este artículo se publicó en la revista Hormigón y Acero. Espero que os sea de interés.

 

Referencia:

CARRERA, J.M.; ALCALÁ, J.; YEPES, V.; GONZÁLEZ-VIDOSA, F. (2005). Optimización heurística de pórticos de paso de carretera de hormigón armado. Hormigón y Acero, 236: 85-95.

Pincha aquí para descargar

Toma de decisiones aplicada a la construcción de un puente mixto en cajón

Os dejo a continuación un ejemplo sencillo de aplicación de la técnica AHP de toma de decisiones dirigida a la selección de alternativas en la construcción de un puente mixto en cajón. Se trata de un caso que utilizamos con nuestros estudiantes para enseñar la técnica. Tratamos de evitar que, en los estudios de soluciones, los estudiantes recurran siempre a las matrices de valoración ponderada, donde los pesos de cada criterio siempre se ponen de forma más o menos arbitraria, o bien para justificar la solución preferida. Este tipo de problemas también suelen aparecer en los concursos de licitación de obras públicas.

Referencia:

YEPES, V.; MARTÍNEZ-MUÑOZ, D.; ATA-ALI, N.; MARTÍ, J.V. (2019). Multi-criteria decision analysis techniques applied to the construction of a composite box-girder bridge. 13th annual International Technology, Education and Development Conference (INTED 2019), Valencia, 11th, 12th and 13th of March, 2019, 1458-1467. ISBN: 978-84-09-08619-1

Pincha aquí para descargar

 

Gestión de la innovación en las empresas constructoras

Tras la crisis financiera de 2008, que supuso una caída brutal de la contratación de obra pública en España, las empresas constructoras y consultoras tuvieron que internacionalizarse. Sin casi haber salido completamente de este trance, sobrevino la actual crisis sanitaria de la pandemia del coronavirus que ha acarreado una nueva recesión social y económica que, de momento, no se atisba su solución. Las consecuencias de esta nueva crisis, graves sin duda, aún no se sabe hasta dónde pueden alcanzar. Por tanto, el sector de la construcción vuelve a sufrir una convulsión de difícil pronóstico. Las nuevas tecnologías están teniendo un papel determinante en la forma de afrontar esta coyuntura, especialmente en el trabajo no presencial. Los cambios que podrían tardar décadas en llegar, nos han alcanzado de repente. La pregunta es la de siempre: ¿cómo afrontar la competitividad de las empresas en escenarios tan cambiantes como los actuales?

Parece evidente que la metáfora darwinista de la evolución podría aplicarse, con todas las cautelas necesarias, al mundo empresarial. Solo sobrevivirán aquellas organizaciones capaces de adaptarse rápidamente al nuevo entorno. Y para ello no es suficiente la mejora continua de nuestros procesos y productos, sino que se requiere un cambio radical, rupturista, basado en la innovación, capaz de crear un «océano azul» donde la competencia sea irrelevante.

A continuación os paso una clase que tuve que impartir en línea sobre la gestión de la innovación en las empresas constructoras. Se trata de una clase impartida en la asignatura «Gestión de la innovación en el sector de la construcción» del Máster Universitario en Planificación y Gestión en Ingeniería Civil (MAPGIC) de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de la Universitat Politècnica de València. La dejo en abierto para que la pueda ver quien esté interesado.

Especialista en tecnologías sin zanja

Os anuncio a continuación la VI edición anual del Curso de Postgrado: ESPECIALISTA EN TECNOLOGÍAS SIN ZANJA, que se desarrolla del 26 de octubre al 11 de noviembre de 2020 en la modalidad online, a través de la plataforma Microsoft Teams. Se trata un curso de 46 horas organizado por la Asociación Ibérica de Tecnología SIN Zanja (IbSTT).

Os adjunto el programa actualizado y el enlace para que puedan cumplimentar el boletín de inscripción, y la reserva de plaza: https://forms.gle/FyYRn9D8XmuENyj4A. Por cierto, podéis solicitar un «código de descuento de empresa asociada» del 10% si sois alumno mío o bien contacto, por ser miembro colaborador (dáis mi nombre al inscribiros y os harán el descuento).

También os paso, gratuitamente, la ponencia que imparto dentro del curso, que he colgado en Youtube, por si os resulta de interés. Se trata del Módulo 7-1: Aspectos generales: Peforación Horizontal Dirigida PHD.

Pincha aquí para descargar

Correlación y modelo de regresión lineal. Problema resuelto en puentes losa

Figura 1. Modelo lineal simple de un tablero de puente losa postesado macizo (Yepes et al., 2009)

Uno de los temas básicos que se estudia en la asignatura de estadística de cualquier grado de ingeniería es la inferencia y los modelos de regresión lineal (Figura 1). A pesar de su sencillez, muchos estudiantes y profesionales aplican, sin más, este tipo de regresiones para interpolar valores en múltiples campos de la ingeniería, la economía, la salud, etc. El conocimiento de algunas nociones básicas nos permitiría evitar errores de bulto. Uno de ellos es intentar forzar las predicciones más allá de las observaciones realizadas. Otro error es confundir la correlación con la regresión. Buscar relaciones donde no las hay (relación espuria, Figura 2). Y por último, uno de los aspectos más descuidados es la no comprobación de las hipótesis básicas que se deben cumplir para que un modelo de regresión lineal sea válido.

Figura 2. Relaciones espuria entre el consumo de chocolate y el número de premios Nobel

Dicho de otra forma, valorar la calidad del ajuste mediante el coeficiente de determinación no equivale a valorar el cumplimiento de las hipótesis básicas del modelo. Si las hipótesis del modelo no se cumplen, se pueden estar cometiendo graves errores en las conclusiones de las inferencias. Así, las hipótesis básicas del modelo de regresión son las siguientes:

  • Linealidad: los parámetros y su interpretación no tienen sentido si los datos no proceden de un modelo lineal
  • Normalidad de los errores: se asume que la distribución de los errores es normal
  • Homocedasticidad: la varianza del error es constante
  • Independencia de los errores: las variables aleatorias que representan los errores son mutuamente independientes
  • Las variables explicativas son linealmente independientes

Para aclarar las ideas, he analizado un caso de regresión lineal simple con datos reales procedentes de 26 puentes losa postesados macizos (Yepes et al., 2009). Se trata de conocer la relación que existe entre la luz principal de este tipo de puentes y el canto del tablero. Utilizaremos los programas siguientes: MINITAB, SPSS, EXCEL y MATLAB. También os dejo un vídeo explicativo, muy básico, pero que espero sea de interés. Dejo los detalles matemáticos aparte. Los interesados pueden consultar cualquier manual básico de estadística al respecto.

Pincha aquí para descargar

Referencias:

YEPES, V.; DÍAZ, J.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2009). Statistical Characterization of Prestressed Concrete Road Bridge Decks. Revista de la Construcción, 8(2):95-109.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Los algoritmos genéticos

Charles Darwin en una fotografía tomada por J.M. Cameron en 1869.

Resulta fascinante comprobar cómo, aplicando los mecanismos básicos de la evolución ya descritos por Darwin en su obra fundamental, El origen de las especies por medio de la selección natural, o la preservación de las razas preferidas en la lucha por la vida, publicada en 1859, se pueden generar algoritmos capaces de optimizar problemas complejos. Este tipo de metaheurísticas inspiradas en la naturaleza ya se comentaron en artículos anteriores cuando hablamos de la optimización por colonias de hormigas o de la cristalización simulada. Aunque es un algoritmo ampliamente conocido en la comunidad científica, voy a intentar dar un par de pinceladas con el único afán de divulgar esta técnica. La verdad es que las implicaciones filosóficas que subyacen a la teoría de Darwin son de una profundidad difícil de comprender cuando se llevan a sus últimas consecuencias. Pero el caso es que estos algoritmos funcionan perfectamente en la optimización de estructuras de hormigón, problemas de transporte y otros problemas difíciles de optimización combinatoria.

Para quienes estén interesados, os paso en las referencias un par de artículos en los que hemos aplicado los algoritmos genéticos para optimizar rutas de transporte aéreo o pilas de puente huecas de hormigón armado.

Sin embargo, para aquellos que queráis un buen libro para pensar, os recomiendo «La peligrosa idea de Darwin», de Daniel C. Dennett. A más de uno le hará quitar los cimientos más profundos de sus creencias. Os paso la referencia al final.

Básicamente, los algoritmos genéticos, o “Genetic Algorithms” (GA), simulan el proceso de evolución de las especies que se reproducen sexualmente. De manera muy general, se puede decir que en la evolución de los seres vivos, el problema al que cada individuo se enfrenta diariamente es el de la supervivencia. Para ello, cuenta, entre otras, con las habilidades innatas provistas por su material genético. A nivel de los genes, el problema consiste en buscar adaptaciones beneficiosas en un medio hostil y cambiante. Debido, en parte, a la selección natural, cada especie gana cierta “información” que se incorpora a sus cromosomas.

Durante la reproducción sexual, un nuevo individuo, diferente de sus padres, se genera mediante dos mecanismos fundamentales: el primero es el cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo; el segundo es la mutación, que supone una modificación espontánea de esta información genética. La descendencia será diferente de los progenitores, pero conservará parte de sus características. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor que la de aquellos que no los tengan. De este modo, los mejores tendrán altas probabilidades de reproducirse y de transmitir su información genética a sus descendientes.

Holland (1975) estableció por primera vez una metaheurística basada en la analogía genética. Un individuo puede asociarse a una solución factible del problema, de modo que pueda codificarse como un vector binario “string”. Entonces, un operador de cruzamiento intercambia las cadenas de los padres para producir un hijo. La mutación se configura como un operador secundario que cambia, con una probabilidad pequeña, algunos elementos del vector hijo. La aptitud del nuevo vector creado se evalúa según una función objetivo.

Los pasos a seguir con esta metaheurística serían los siguientes:

  1. Generar una población de vectores (individuos).
  2. Mientras no se encuentre un criterio de parada:
    1. Seleccionar un conjunto de vectores padres que serán reemplazados por la población.
    2. Emparejar aleatoriamente a los progenitores y cruzarlos para obtener unos vectores hijos.
    3. Aplicar una mutación a cada descendiente.
    4. Evaluar a los hijos.
    5. Introducir a los hijos en la población.
    6. Eliminar a los individuos menos eficaces.

Normalmente este proceso finaliza después de un número determinado de generaciones o cuando la población ya no puede mejorar. La selección de los padres se realiza de forma probabilística hacia los individuos más aptos. Al igual que ocurre en la naturaleza, los sujetos con mayor aptitud difunden sus características a lo largo de toda la población.

Esta descripción de los GA se adapta a cada situación concreta, siendo habitual la codificación en números enteros en lugar de binaria. Del mismo modo, se han sofisticado los distintos operadores de cruzamiento y de mutación.

Os dejo a continuación un vídeo explicativo que he elaborado para mis clases de «Modelos predictivos y de optimización heurística de estructuras de hormigón«, del Máster Universitario en Ingeniería del Hormigón, de la Universitat Politècnica de València.

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.