¿Qué es la curva S en la estimación de costes en proyectos?

Curvas S. Vía Diego Navarro http://direccion-proyectos.blogspot.com.es/

La curva de avance, o curva “S”, es una herramienta muy utilizada en la gestión de proyectos para representar gráficamente la evolución del trabajo a lo largo del tiempo. En este tipo de gráfico, el eje horizontal representa el tiempo del proyecto, mientras que el eje vertical muestra una magnitud acumulada, como el coste, las horas de trabajo o el porcentaje de avance. Su principal utilidad es comparar el progreso real del proyecto con el progreso planificado, permitiendo detectar desviaciones y tomar decisiones correctivas si es necesario.

La curva recibe el nombre de “S” por su forma característica. En la fase inicial del proyecto, el crecimiento del coste acumulado o del avance suele ser lento. Esto se debe a que en esta etapa predominan actividades de preparación, planificación, diseño o coordinación inicial, que generalmente requieren menos recursos productivos directos. A medida que el proyecto entra en su fase principal de ejecución, la actividad se intensifica y el ritmo de consumo de recursos aumenta de forma considerable, lo que provoca un crecimiento más rápido del coste acumulado. Finalmente, en la fase final del proyecto, el crecimiento vuelve a ralentizarse porque predominan actividades de cierre, pruebas, revisión de resultados o entrega del producto final.

La primera versión de la curva S se construye a partir del cronograma del proyecto y del presupuesto inicial aprobado. Estos elementos permiten establecer una línea base que refleja cómo debería evolucionar el proyecto si todo se desarrolla según lo previsto. A partir de esta planificación, se calculan los costes o el avance acumulado en cada periodo de tiempo y se representa gráficamente la evolución esperada. Conforme el proyecto avanza, se van incorporando los datos reales de ejecución, lo que permite generar una segunda curva con los valores observados y compararla con la curva planificada.

Esta comparación entre planificación y realidad es uno de los principales beneficios de la curva S. Si la curva real se sitúa por debajo de la curva planificada, puede indicar que el proyecto avanza más lentamente de lo previsto o que aún no se han ejecutado determinados trabajos. Por el contrario, si la curva real se sitúa por encima de la planificada, puede significar que el proyecto está adelantado o que se están produciendo sobrecostes. En ambos casos, el análisis de estas desviaciones permite al director del proyecto adoptar medidas correctivas, como reorganizar recursos, ajustar el calendario o revisar el presupuesto.

La curva S también está estrechamente relacionada con técnicas más avanzadas de control de proyectos, como la metodología del valor ganado. Este enfoque compara el valor planificado del trabajo, el valor del trabajo realmente realizado y el coste real incurrido. Representar estas magnitudes mediante curvas acumuladas facilita evaluar el rendimiento del proyecto y prever si se cumplirá el plazo y el presupuesto establecidos.

Un aspecto interesante que refleja la curva S es que el porcentaje de avance físico del trabajo suele ser más bajo al inicio y al final del proyecto. Al comienzo es necesario dedicar tiempo a comprender la documentación técnica, definir los requisitos del cliente, coordinar al equipo de trabajo y preparar los recursos necesarios. Además, el equipo suele experimentar una fase inicial de aprendizaje hasta alcanzar su máximo rendimiento. Por su parte, en la etapa final del proyecto las actividades suelen centrarse en pruebas, ajustes, integración de sistemas o resolución de incidencias, tareas que requieren más coordinación y menos producción directa, lo que reduce el ritmo de avance.

En definitiva, la curva S es una herramienta sencilla pero muy eficaz para visualizar el comportamiento de un proyecto a lo largo del tiempo. Su uso permite integrar la planificación con el seguimiento real de la ejecución, facilitando la detección temprana de problemas y mejorando la toma de decisiones. Por esta razón, se utiliza con frecuencia en ámbitos como la ingeniería, la construcción, la gestión de infraestructuras y, en general, en cualquier entorno donde sea necesario controlar de forma rigurosa el avance y los costes de un proyecto.

 

Para aclarar estos conceptos, os dejo un vídeo explicativo que espero os guste.

Referencias:

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

¿Qué es la optimización combinatoria?

Los problemas de optimización en los que las variables de decisión son enteras, es decir, donde el espacio de soluciones está formado por ordenaciones o subconjuntos de números naturales, se denominan problemas de optimización combinatoria. En este caso, se trata de hallar el mejor valor entre un número finito o numerable de soluciones viables. Sin embargo, la enumeración de este conjunto resulta prácticamente imposible, aun para problemas de tamaño moderado.

Las raíces históricas de la optimización combinatoria subyacen en ciertos problemas económicos: la planificación y la gestión de operaciones, así como el uso eficiente de los recursos. Pronto comenzaron a modelizarse de esta manera aplicaciones más técnicas, y hoy vemos problemas de optimización discreta en diversas áreas: informática, gestión logística (rutas, almacenaje), telecomunicaciones, ingeniería, etc., así como para tareas variadas como el diseño de campañas de marketing, la planificación de inversiones, la división de áreas en distritos políticos, la secuenciación de genes, la clasificación de plantas y animales, el diseño de nuevas moléculas, el trazado de redes de comunicaciones, el posicionamiento de satélites, la determinación del tamaño de vehículos y las rutas de medios de transporte, la asignación de trabajadores a tareas, la construcción de códigos seguros, el diseño de circuitos electrónicos, etc. (Yepes, 2002). La trascendencia de estos modelos, además del elevado número de aplicaciones, estriba en el hecho de que “contiene los dos elementos que hacen atractivo un problema a los matemáticos: planteamiento sencillo y dificultad de resolución” (Garfinkel, 1985). En Grötschel y Lobas (1993) se enumeran otros campos en los cuales pueden utilizarse las técnicas de optimización combinatoria.

REFERENCIAS

GARFINKEL, R.S. (1985). Motivation and Modeling, in LAWLER, E.L.; LENSTRA, J.K.; RINNOOY KAN, A.H.G.; SHMOYS, D.B. (eds.) The Traveling Salesman Problem: A Guide Tour of Combinatorial Optimization. Wiley. Chichester.

GRÖTSCHEL, M.; LÓVASZ, L. (1993). Combinatorial Optimization: A Survey. Technical Report 93-29. DIMACS, May.

YEPES, V. (2002). Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW. Tesis Doctoral. Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos. Universitat Politècnica de València. 352 pp. ISBN: 0-493-91360-2. (pdf)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

HORSOST: Un proyecto de investigación sobre sostenibilidad y estructuras

2013-05-03 09.20.32
Instituto de Ciencia y Tecnología del Hormigón (ICITECH)

Creo que es interesante comentar en este post los resultados que estamos obteniendo de un proyecto de investigación financiado por el Ministerio de Ciencia e Innovación, que nuestro grupo de investigación llama HORSOST. Su nombre completo describe el contenido del trabajo que estamos desarrollando: «Diseño eficiente de estructuras con hormigones no convencionales basados en criterios sostenibles multiobjetivo mediante el empleo de técnicas de minería de datos«.

Se trata de un proyecto que iniciamos en 2012 y cuya finalización está prevista para finales de 2014. Nuestro grupo de investigación está formado por seis profesores y varios becarios de investigación del Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de  la Universidad Politécnica de Valencia. En dicho grupo me corresponde el papel de investigador principal. Espero que esta breve descripción os oriente sobre lo que estamos haciendo.

Este proyecto de investigación se encuentra relacionado con otros ya finalizados y otros en marcha, tanto de convocatorias competitivas como de convenios de transferencia tecnológica con empresas (constructoras, empresas de prefabricados, consultoras, etc.).

El objetivo fundamental del proyecto de investigación HORSOST consiste en establecer pautas de diseño eficiente de estructuras de hormigón no convencional, optimizadas heurísticamente mediante funciones multiobjetivo relacionadas con la sostenibilidad. Se pretende avanzar en el establecimiento de nuevos diseños que permitan extraer las ventajas que aportan los hormigones especiales, en particular hormigones de alta resistencia, hormigones con fibras, hormigones autocompactantes. Para ello, se utiliza el análisis del ciclo de vida de dichas estructuras (elaboración, transporte, procedimientos constructivos, mantenimiento, etc.), considerando aspectos energéticos, medioambientales, sociales y económicos. La optimización heurística permite evaluar los diseños más eficientes, comparar soluciones y generar bases de datos sobre las cuales aplicar herramientas procedentes de la minería de datos y del aprendizaje automático para extraer información no trivial que permita fórmulas de predimensionamiento. La posibilidad de análisis se debe a que las herramientas matemáticas empleadas son de carácter general. Se aplican técnicas como las redes neuronales o la teoría del valor extremo, además de otras herramientas más habituales, como la regresión lineal múltiple o el análisis por componentes principales.

INTRODUCCIÓN

Las evidencias del cambio climático actual, entre otras, han provocado una creciente preocupación por la sostenibilidad [1]. Ello ha impulsado la investigación en aspectos de sostenibilidad en el ámbito de la construcción. Así, se han desarrollado indicadores [2] y se han elaborado bases de datos que miden el impacto ambiental de los materiales [3,4], las cuales han servido en algunas investigaciones para reducir las emisiones de CO2 en estructuras [5,6]. Sin embargo, la sostenibilidad requiere considerar aspectos energéticos, medioambientales, sociales y económicos que deben abarcar todo el ciclo de vida de la estructura [7]. Un antecedente fue el Modelo Integrado de Cuantificación de Valor de un Proyecto Constructivo Sostenible: Aplicación a la Edificación Industrial y de Servicios (MIVES) y MIVES II, que abordaron la sostenibilidad mediante el análisis de valor aplicado a diversos ámbitos [8], y que fueron el punto de partida para el Anejo 13 de la actual EHE.

La disponibilidad de ordenadores de elevada potencia de cálculo, junto con el desarrollo de técnicas de análisis inteligente, ha permitido el avance en el diseño de estructuras óptimas [9-11]. Se ha insistido en la necesidad de optimizar estructuras reales, constatándose la escasez de optimización del hormigón estructural frente a las estructuras metálicas. La optimización [12] puede realizarse desde numerosos puntos de vista (geométricos, topológicos, seccionales, etc.). Además de los métodos basados en la programación matemática [13], el problema de optimización puede abordarse mediante técnicas metaheurísticas y bioinspiradas, tales como los algoritmos genéticos, el recocido simulado, las colonias de hormigas o las redes neuronales, entre otras [14,15]. Recientemente, el trabajo desarrollado por nuestro grupo ha reducido el coste de estructuras reales [16-28].

Sin embargo, la optimización ha requerido un intenso trabajo de investigación para extraer conclusiones aplicables a la realidad de las obras. Una forma que tiene el ingeniero para avanzar en el diseño de estructuras óptimas es difundir fórmulas de predimensionamiento [26,28]. Pues bien, para mejorar los diseños de las estructuras, es posible extraer información no trivial de bases de datos de estructuras óptimas mediante la inteligencia artificial.

IMG_0020

El descubrimiento de conocimiento en bases de datos (“Knowledge Discovery from Databases”, KDD) constituye un área en la que se realizan muchos esfuerzos, tanto en metodología como en investigación. En este contexto, la minería de datos constituye un conjunto de herramientas empleadas para extraer información no trivial que reside implícitamente en los datos [29]. Mediante este tipo de técnicas se pueden solucionar problemas de predicción, clasificación y segmentación [30]. Algunas de sus herramientas más representativas son las redes neuronales, las máquinas de soporte vectorial, los árboles de decisión, los modelos estadísticos avanzados multivariantes y los diseños de experimentos y el agrupamiento o “clustering”. Estas herramientas construyen modelos abstractos a partir de datos basándose en métodos de aprendizaje automático “machine learning”.

Por otra parte, la investigación sobre hormigones no convencionales constituye una de las líneas de investigación relevantes relacionadas con los nuevos materiales de construcción. Sus propiedades permiten mejorar las prestaciones y la durabilidad, lo cual se relaciona con la sostenibilidad de su uso. Así, el refuerzo con fibras (HRF) reduce la fisuración y mejora la durabilidad al impedir el acceso de agua y de contaminantes [31]. Sin embargo, razones económicas han llevado al empleo de fibras sólo en casos puntuales, cuando existen beneficios adicionales relativos a la mano de obra, la durabilidad o la congestión del refuerzo [32]. El hormigón autocompactante (HAC) ha mejorado significativamente la tecnología del hormigón al conseguir estructuras más duraderas, mejorar la producción y los procesos constructivos, y facilitar el diseño de elementos complejos y los acabados. Ello se consigue mediante dosificaciones que modifican las propiedades mecánicas respecto al hormigón convencional [33]. Todo ello abre horizontes inexplorados, donde una simple optimización económica de las estructuras haría inviable el empleo de muchos hormigones especiales, pero donde una visión más amplia que contemple criterios de sostenibilidad y análisis del ciclo de vida puede cambiar la perspectiva respecto de su empleo.

Hipótesis de partida y objetivos del proyecto

El objetivo fundamental de HORSOST consiste en establecer criterios de diseño eficientes basados en el análisis del ciclo de vida de estructuras de hormigón no convencional, aplicando, para ello, técnicas procedentes de la inteligencia artificial y la minería de datos a amplios conjuntos de estructuras optimizadas heurísticamente bajo objetivos múltiples de sostenibilidad (ahorro energético y de recursos naturales, aspectos ambientales, sociales y económicos).

Hipótesis de partida

a) Es posible mejorar los diseños de las estructuras de hormigón mediante pautas de predimensionamiento solo disponibles para algunos proyectistas de gran experiencia.

b) Existen criterios de diseño que permiten compatibilizar las exigencias derivadas de la sostenibilidad con reducciones de coste, con aumentos en seguridad y constructibilidad. Sin embargo, estos criterios no son triviales.

c) Los hormigones no convencionales presentan propiedades que contribuyen a la sostenibilidad de las estructuras al analizar el ciclo de vida.

d) La inteligencia artificial y la minería de datos permiten aflorar relaciones no triviales cuando existen bases de datos lo suficientemente amplias.

e) La optimización heurística permite elaborar bases masivas de datos de estructuras optimizadas con múltiples objetivos basados en la sostenibilidad (huella ecológica, reducción de CO2, etc.).

Objetivos del proyecto

1. Desarrollar una metodología capaz de extraer información no trivial de bases de datos masivas de estructuras de hormigón no convencionales optimizadas con múltiples objetivos basados en la sostenibilidad.

2. Obtener reglas de predimensionamiento optimizadas para cada tipología estructural. La novedad y la relevancia radican en el uso de herramientas procedentes del “data mining” y del “machine learning”.

3. Comparar las reglas de diseño obtenidas para hormigones convencionales y no convencionales, así como con los criterios obtenidos de la práctica habitual de diseño y de la bibliografía existente.

4. Divulgar el conocimiento adquirido para que los proyectistas puedan utilizar estos criterios de predimensionamiento, de forma que se obtengan mejoras en la sostenibilidad a lo largo del ciclo de vida de las estructuras de hormigón no convencional.

Descripción de la metodología empleada en el proyecto

La metodología empleada consta de una secuencia iterativa de fases (Figura 1):

  1. Integración y recopilación de datos, en la que se determinan las fuentes de información que pueden ser útiles y dónde conseguirlas.
  2. Selección, limpieza y transformación de datos, en las que se eliminan o corrigen los datos incorrectos y se decide la estrategia a seguir para los datos incompletos.
  3. Minería de datos, en la que se decide la tarea a realizar, ya sea la clasificación, la regresión, el agrupamiento o las reglas de asociación.
  4. Evaluación e interpretación, en la que se evalúan los patrones y se analizan por el equipo de investigación, volviéndose a fases anteriores para nuevas iteraciones si fuera necesario.
  5. Difusión, donde se hace uso del nuevo conocimiento adquirido y se hace partícipes de él a todos los posibles usuarios.

Figura 1 horsost

Figura 1 Extracción y difusión del conocimiento por contraste de criterios de diseño sostenible

Uno de los aspectos clave es la disponibilidad de datos utilizables, en cantidad y calidad suficientes, para aplicar las técnicas de “data mining”. Se trata de aplicar un procedimiento convergente para la generación de bases de datos (CGD, por sus siglas en inglés). A continuación se describe el fundamento y la forma de proceder de CGD.

Una estructura de hormigón puede representarse mediante una serie de variables y parámetros. Pues bien, la complejidad de un problema aumenta drásticamente con el número variables involucradas [34], efecto denominado como la “maldición de la dimensión” [35]. Para extraer información, como regla práctica [36], se necesita una muestra cuyo tamaño sea, al menos, 10 veces el número de variables independientes, siendo deseable que ese ratio sea mayor a 20. En el caso de un puente pretensado [37], el número de factores que son combinación lineal de las variables originales y que, además, sean independientes entre sí es de 4, por lo que se precisarían en torno a 40-80 casos para poder realizar inferencias lineales, lo cual no contemplaría relaciones cruzadas entre variables (ello implicaría una muestra mayor). Otras técnicas como las redes neuronales o las máquinas de soporte vectorial, que son capaces de inferir modelos no lineales e incluso discontinuos o discretos, requieren un número mayor de individuos. Además, se aconseja la reserva de un grupo de validación, que puede oscilar entre 1/3 y 1/4 de la muestra necesaria, para comprobar que las inferencias presentan una calidad adecuada.

Metaheurísticas empleadas en el desarrollo del proyecto

Desde los primeros años de la década de los 80, la investigación sobre los problemas de optimización se centra en el diseño de métodos aproximados basados en conceptos derivados de la inteligencia artificial, la evolución biológica y la mecánica estadística. En la Figura 2 se recoge una clasificación propuesta por Yepes [39] que debería complementarse con metaheurísticas híbridas que emplean, en mayor o menor medida, estrategias de unos grupos y otros. A continuación se describen algunas técnicas empleadas en HORSOST.

Figura 2 horsost

Figura 2 Taxonomía de estrategias empleadas en la resolución aproximada de problemas de optimización combinatoria [39]

Recocido simulado

El recocido simulado “Simulated Annealing” (SA) [40,41] se basa en la analogía entre la energía de un sistema termodinámico y la función de coste de un problema de optimización. Conceptualmente, es un algoritmo de búsqueda por entornos, donde una solución sustituye a la anterior si mejora a la anterior (D<0); en caso contrario, será aceptada con una probabilidad (e(-D/T), donde T es un parámetro denominado temperatura) decreciente con el aumento de D, la diferencia entre los costes de la solución candidata y la actual. La selección aleatoria de soluciones degradadas permite eludir los óptimos locales.

Aceptación por umbrales

La aceptación por umbrales “Threshold Accepting” (TA) [42] emplea un enfoque similar al de SA para eludir los óptimos locales, pero con una toma de decisiones más sencilla. Se autoriza el menoscabo de la calidad de las soluciones, siempre y cuando no se exceda, en cierta magnitud, la aptitud de la solución actual.

Sistema de colonia de hormigas

El sistema de colonia de hormigas “Ant System Optimization” (ACO) [43] se basa en la analogía con el comportamiento de estos insectos al encontrar el camino más corto entre la comida y su hormiguero. Tan pronto como un individuo encuentra una fuente de comida, evalúa su cantidad y calidad y transporta un poco al hormiguero. Durante el regreso, la hormiga deja por el camino feromonas para que las demás hormigas puedan seguirla. Después de un tiempo, el camino hacia el alimento se indicará por un rastro oloroso que crece con el número de hormigas que pasan por él y desaparece en caso contrario. El resultado final es la optimización del trabajo de todo el hormiguero en su búsqueda de comida.

Búsqueda local iterada

La idea de la búsqueda local iterada “Iterated Local Search” (ILS) [44] consiste en rastrear la solución entre los óptimos locales del subespacio definido por ellos. Dado que un algoritmo de búsqueda es capaz de transformar una solución s en otra s* que es un óptimo local, para pasar a otro óptimo local cercano, s’, se aplica una pequeña perturbación. Aplicando el algoritmo de búsqueda a s’ se encuentra otra solución s*’. La metaheurística acepta el paso de s* a s*’ según algún criterio, como el de máximo gradiente (si s*’ es mejor que s*, se acepta) o no (se puede pensar en un mecanismo TA o SA para evitar estancamientos dentro del subespacio de los óptimos locales s*).

Búsqueda en entornos variables

La búsqueda en entornos variables, “Variable Neighborhood Search” (VNS) [45], consiste en cambiar de operador de búsqueda cuando el anterior ha alcanzado un óptimo local. De este modo, VNS oscilará entre dos o más operadores con la esperanza de que los cambios en la estructura del entorno permitan escapar de muchos óptimos locales. Para que este principio funcione bien, los operadores empleados deberán ser lo suficientemente distintos respecto de la estructura del vecindario que generan.

Algoritmos genéticos

Los algoritmos genéticos, “Genetic Algorithms” (GA) [46], simulan el proceso de evolución de las especies que se reproducen sexualmente. Un nuevo individuo se genera a través del cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo, y de la mutación, que supone una modificación espontánea de esta información genética. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor, reproduciéndose con mayor probabilidad.

Algoritmos meméticos

Los algoritmos meméticos “Memetic Algorithms” (MA) [47] derivan de GA, donde el uso de una población de soluciones se combina con heurísticas de búsqueda local. La idea consiste en recombinar la información de las soluciones provenientes del subespacio de óptimos locales. El éxito de estos métodos puede atribuirse a su equilibrio entre la búsqueda rápida y el mantenimiento de la diversidad, para evitar la convergencia prematura.

Otras técnicas empleadas en el proyecto

Regresión lineal múltiple

Los modelos de regresión lineal múltiple (RLM) se ajustan mediante mínimos cuadrados, de modo que la variable de respuesta esté explicada al máximo posible por las variables independientes. El proceso se inicia intentando explicar la respuesta en función de la variable con la que presenta la mayor correlación. El objetivo es aumentar el coeficiente de regresión agregando variables independientes explicativas, utilizando el método stepwise de pasos sucesivos [48].

Análisis por componentes principales

El análisis de componentes principales (ACP) examina la interdependencia entre variables para reducir su dimensión a un nuevo subconjunto de variables no observables. En síntesis, calcula unos factores que sean una combinación lineal de las variables originales y que, además, sean independientes entre sí. La primera componente principal se elige de modo que explique la mayor parte de la varianza posible, y así sucesivamente. Para facilitar la interpretación, se emplea una rotación ortogonal que minimiza el número de variables con saturaciones altas en cada factor [49].

Redes neuronales artificiales

Las redes neuronales artificiales “Artificial Neural Networks” (ANN) simulan un sistema de procesamiento de la información altamente complejo, no lineal y en paralelo parecido al cerebro humano. McCulloch y Pitts [50] presentaron el primer modelo de neurona como un dispositivo no lineal multientrada con interconexiones “con peso”. La neurona suma las entradas ya ponderadas, les aplica una función no lineal y transmite una salida. La red puede ser preparada, utilizando ejemplos, para reconocer ciertas estructuras, como puede ser la clasificación de objetos por sus características o la inferencia a partir de los datos de entrada.

Teoría del valor extremo

Si se acepta que el óptimo local encontrado por un algoritmo de búsqueda estocástica puede considerarse una solución extrema de una muestra aleatoria simple formada por las soluciones visitadas, entonces se podría aplicar la teoría del valor extremo “Extreme Value Theory” (EVT) [51,52] para estimar el óptimo global del problema. Para ello se ha comprobado que los óptimos locales encontrados constituyen valores extremos que ajustan a una función Weibull de tres parámetros, siendo el de posición, γ, una estimación del óptimo global.

Tabla 1 Referencias del empleo de técnicas respecto a tipologías estructurales

 

SA

TA

ACO

ILS

VNS

GA

MA

EVT

ANN

ACP

RLM

Muros

[28]

[6]

 

 

[6]

 

 

 

 

 

 

Pórticos de edificación

[5,24]

 

 

 

 

 

 

[24]

 

 

 

Vigas de hormigón armado

 

[27]

 

 

[27]

 

 

[27]

 

 

 

Vigas pretensadas

 

 

 

 

 

 

 

 

[23]

 

 

Bóvedas de paso inferior

[16]

[16]

 

[17]

 

 

 

[17]

 

 

 

Marcos de paso inferior

[25]

[25,26]

 

 

 

 

 

 

 

 

 

Pilas de puente

[21]

 

[20,22]

 

 

[20]

 

 

 

 

 

Puentes de vigas artesa

[18]

 

 

 

 

 

[19]

 

 

 

 

Puentes losa postesados

 

 

 

 

 

 

 

 

 

[37]

[37]

 

Conclusiones

Como conclusiones generales del planteamiento del proyecto HORSOST se pueden citar las siguientes:

1)      Existe una importante área de mejora en los diseños de estructuras de hormigón no convencional de forma que se obtenga un importante beneficio social si estos diseños maximizan la sostenibilidad en la construcción de estas estructuras considerando todo el ciclo de vida del producto.

2) Es posible emplear técnicas procedentes del descubrimiento de conocimiento en bases de datos (KDD) para extraer información no trivial de bases de datos de estructuras de hormigón generadas mediante optimización heurística multiobjetivo orientada a la sostenibilidad.

3)      Los hormigones no convencionales  presentan prestaciones que favorecen su durabilidad y, por ello, pueden contribuir a la sostenibilidad si se consideran aspectos medioambientales, sociales y económicos a lo largo de toda su vida útil. Por tanto, deben analizarse en detalle para comprobar su validez frente a los hormigones convencionales y ofrecer criterios de diseño aplicables para los proyectistas.

Agradecimientos

Los autores agradecen el aporte financiero realizado para este trabajo por el Ministerio de Ciencia e Innovación (Proyecto de Investigación BIA2011-23602) y por la Universitat Politècnica de València (Proyecto de Investigación PAID-06-12).

Referencias

[1]        Baldasano, J.M. (2007). Evidencias del actual cambio climático, en Cambio climático y sus consecuencias. Generalitat Valenciana, pp. 43-56.

[2]        Rodríguez, F.; Fernández, G. (2010). Ingeniería sostenible: nuevos objetivos en los proyectos de construcción. Revista Ingeniería de Construcción, 25(2), 147-160. [doi:10.4067/S0718-50732010000200001]

[3]        Goedkoop, M.; Spriensma, R. (2001). The Ecoindicator 99: A damage oriented method for life cycle impact assessment. Methodology Report. Product Ecology Consultants, Amersfoort, Netherlands.

[4]        Institut de Tecnologia de la Construcció de Catalunya (2009). BEDEC PR/PCT ITEC materials database. Available online at:http://www.itec.es/nouBedec.e/presentaciobedec.aspx

[5]        Payá-Zaforteza I.; Yepes, V.; Hospitaler, A.; González-Vidosa, F. (2009). CO2-Efficient Design of Reinforced Concrete Building Frames. Engineering Structures, 31, 1501-1508. [doi.org/10.1016/j.engstruct.2009.02.034]

[6]        Yepes, V.; González-Vidosa, F.; Alcalá, J.; Villalba, P. (2012). CO2-Optimization Design of Reinforced Concrete Retaining Walls based on a VNS-Threshold Acceptance Strategy. Journal of Computing in Civil Engineering ASCE, 26 (3), 378-386. [doi:10.1061/(ASCE)CP.1943-5487.0000140]

[7]        Burón, M. (2007). La sostenibilidad de las construcciones de hormigón. Revista Técnica Cemento Hormigón, 897, 58-65.

[8]        Aguado, A.; Alarcón, D.B.; Manga, R. (2008). Razón de ser del anejo ICES de la EHA y características del mismo. Revista Técnica Cemento Hormigón, 913, 16-23.

[9]        Sriram, R.D. (2006). Artificial intelligence in engineering: personal reflections. Advanced Engineering Informatics, 20, 3-5. [doi:10.1016/j.aei.2005.12.002]

[10]    Sarma, K.C.; Adeli, H. (1998). Cost optimization of concrete structures. ASCE Journal of Structural Engineering, 124(5), 570-578. [doi:10.1061/(ASCE)0733-9445(1998)124:5(570)]

[11]    Cohn, M.Z.; Dinovitzer, A.S. (1994). Application of structural optimization. ASCE Journal of Structural Engineering, 120(2), 617-649. [doi:10.1061/(ASCE)0733-9445(1994)120:2(617)]

[12]    Martínez, P.; Martí, P.; Querín, O.M. (2007). Growth method for size, topology, and geometry optimization of truss structures. Structural and Multidisciplinary Optimization, 33, 13-26. [doi:10.1007/s00158-006-0043-9]

[13]    Hernández, S.; Fontan, A. (2002). Practical Applications of Design Optimization. WIT Press, Southampton.

[14]    Adeli, H.; Sarma, K.C. (2006). “Cost optimization of structures. Fuzzy logic, genetic algorithms and parallel computing”, Wiley, Chichester.

[15]    Dreo, J.; Petrowsky, A.; Siarry, P.; Taillard, E. (2006). Metaheuristics for hard optimization. Methods and case studies. Springer, Berlin Heidelberg.

[16]    Carbonell, A.; González-Vidosa, F.; Yepes, V. (2011). Heuristic optimization of reinforced concrete road vault underpasses. Advances in Engineering Software, 42(4), 151-159. [doi:10.1016/j.advengsoft.2011.01.002]

[17]    Carbonell, A.; Yepes, V.; González-Vidosa, F. (2012). Automatic design of concrete vaults using iterated local search and extreme value estimation. Latin American Journal of Solids and Structures, 9(6), 675-689.

[18]    Martí, J.V.; González-Vidosa, F.; Yepes, V.; Alcalá, J. (2013). Design of prestressed concrete precast road bridges with hybrid simulated annealing. Engineering Structures, 48, 342-352. [doi:10.1016/j.engstruct.2012.09.014]

[19]    Martí, J.V.; Yepes, V.; González-Vidosa, F.; Luz, A. (2013). Diseño automático de tableros óptimos de puentes de carretera de vigas artesa prefabricadas mediante algoritmos meméticos híbridos. Revista Internacional de Métodos Numéricos para Cálculo y Diseño en Ingeniería, (en prensa).

[20]    Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88(5-6), 375-386. [doi:10.1016/j.compstruc.2009.11.009]

[21]    Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2012). Multi-objective optimization design of bridge piers with hybrid heuristic algorithms. Journal of Zhejiang University-SCIENCE A (Applied Physics & Engineering, 13(6), 420-432. [doi:10.1631/jzus.A1100304]

[22]    Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2013). A parametric study of optimum tall piers for railway bridge viaducts. Structural Engineering and Mechanics, 45(6), 723-740.

[23]    Martí-Vargas, J.R.; Ferri, F.J.; Yepes, V. (2013). Prediction of the transfer length of prestressing strands with neural networks. Computers and Concrete, (in press).

[24]    Payá-Zaforteza, I.; Yepes, V.; González-Vidosa, F.; Hospitaler, A. (2010). On the Weibull cost estimation of building frames designed by simulated annealing. Meccanica, 45(5), 693-704. [doi:10.1007/s11012-010-9285-0]

[25]    Perea, C.; Alcalá, J.; Yepes, V.; González-Vidosa, F.; Hospitaler, A. (2008). Design of Reinforced Concrete Bridge Frames by Heuristic Optimization. Advances in Engineering Software, 39(8), 676-688. [doi:10.1016/j.advengsoft.2007.07.007]

[26]    Perea, C.; Yepes, V.; Alcalá, J.; Hospitaler, A.; González-Vidosa, F. (2010). A parametric study of optimum road frame bridges by threshold acceptance. Indian Journal of Engineering & Materials Sciences, 17(6), 427-437.

[27]    Torres-Machí, C.; Yepes, V.; Alcalá, J.; Pellicer, E. (2013). Optimization of high-performance concrete structures by variable neighborhood search. International Journal of Civil Engineering, Transaction A: Civil Engineering, 11(2), 90-99.

[28]    Yepes, V.; Alcalá, J.; Perea, C.; González-Vidosa, F. (2008). A Parametric Study of Optimum Earth Retaining Walls by Simulated Annealing. Engineering Structures, 30(3), 821-830. [doi:10.1016/j.engstruct.2007.05.023]

[29]    Fayyad, U.M. (1996). Data Mining and Knowlegde Discovery: Making Sense Out of Data. IEEE Expert, 11(5), 20-25. [doi:10.1109/64.539013]

[30]    Hernández, J.; Ramírez, M.J.; Ferri, C. (2004). Introducción a la minería de datos. Pearson, Madrid.

[31]    Rossi, P.; Chanvillard, G. (eds.) (2000). “Fibre-Reinforced Concretes (FRC)”. Proceedings of the 5th International RILEM Symposium (BEFIB 2000). RILEM Publications S.A.R.L., Cachan, France.

[32]    Massicitte, B. (2000). Fiber Reinforce Concrete: a Structural Perspective, RILEM Proceedings 15, BEFIB 2000.

[33]    Martí-Vargas, J.R.; Serna-Ros, P.; Arbeláez, C.A.; Rigueira-Víctor, J.W. (2006). Comportamiento adherente del hormigón autocompactante en transmisión y anclaje. Materiales de Construcción, 56(284), 27-42.

[34]    Pettis, K.W.; Bailey, T.A.; Jain, A.K.; Dubes, R.C. (1979). An intrinsic dimensionality estimator from near-neighbor information. IEEE Transactions on pattern analysis and machine intelligence, 1, 25-37. [doi:10.1109/TPAMI.1979.4766873]

[35]    Bellman, R.E. (1961). Adaptive Control Processes. Princeton University Press, Princeton, N.J.

[36]    Fukunaga, M. (1990). Introduction to Statistical Pattern Recognition. 2nd Edition. Academic Press, San Diego, USA.

[37]    Yepes, V.; Díaz, J.; González-Vidosa, F.; Alcalá, J. (2009). Caracterización estadística de tableros pretensados para carreteras. Revista de la Construcción, 8(2), 95-109.

[38]    Ferri, J.; Diaz-Chito, K.; Diaz-Villanueva, W. (2010). Efficient dimensionality reduction on undersampled problems through incremental discriminative common vectors, ICDM’10 (OEDM Workshop), pp. 1159-1166.

[39]    Yepes, V. (2002). Optimización heurística económica de redes de transporte del tipo VRPTW. Tesis doctoral, Universitat Politècnica de València.

[40]    Kirkpatrick, S.; Gelatt, C.D.; Vecchi, M.P. (1983). Optimization by simulated annealing. Science, 220(4598), 671-680. [doi:10.1126/science.220.4598.671]

[41]    Cerny, V. (1985). Thermodynamical approach to the traveling salesman problem: An efficient simulation algorithm. Optimization Theory and Applications, 45, 41-51. [doi:10.1007/BF00940812]

[42]    Dueck G, Scheuer T. (1990). Threshold accepting: a general purpose optimization algorithm superior to simulated annealing. Journal of Computational Physics, 90(1), 161–75. [doi:10.1016/0021-9991(90)90201-B]

[43]    Dorigo, M.; Maniezzo, V.; Colorni, A. (1996). The ant system: optimization by a colony of cooperating agents. IEEE Transactions on Systems, Man, and Cybernetics-Part B, 26(1), 29-41. [doi:10.1109/3477.484436]

[44]    Lourenço, H.R.; Martin, O.C.; Stülze, T. (2003). Iterated local search. In F.W. Glover and G.A. Kochenberger, edi-tors, Handbook of metaheuristics, pages 321-353, Boston, Dordrecht, London. Kluwer Academic Publishers.

[45]    Mladenovic, N.; Hansen, P. (1997). Variable neighborhood search. Computers and Operations Research, 24(11), 1097-1100. [doi:10.1016/S0305-0548(97)00031-2]

[46]    Holland, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

[47]    Moscato, P. On evolution, search, optimization, genetic algorithms and martial arts: Towards memetic algorithms. Technical Report Caltech Concurrent Computation Program Report 826, Caltech, Pasadena, California, USA.

[48]    Hocking, R. (1976). The Analysis and Selection of Variables in Linear Regression. Biometrics, 32, 1-49.

[49]    Kaiser H.F. (1958). The Varimax criterion for analytic rotation in factor analysis. Psychometrika, 23(3), 187-200. [doi:10.1007/BF02289233]

[50]    McCulloch, W.; Pitts, W. (1943). A logical calculus of ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5, 115-133. [doi:10.1016/S0092-8240(05)80006-0]

[51]    McRoberts, K. (1971). A search model for evaluating combinatorially explosive problems. Operations Research, 19(6), 1331-1349. [doi:10.1287/opre.19.6.1331]

[52]    Golden, B.L.; Alt, F.B. (1979). Interval estimation of a global optimum for large combinatorial problems. Naval Research Logistics Quarterly, 26(1), 69-77. [doi: 10.1002/nav.3800260108]

 

 

Optimización y programación matemática

George Bernard Dantzig
George Bernard Dantzig (1914-2005), «padre de la programación lineal»

Optimizar significa buscar la mejor manera de realizar una actividad, y en términos matemáticos, hallar el máximo o mínimo de una cierta función, definida en algún dominio. La optimización constituye un proceso para encontrar la mejor solución de un problema donde “lo mejor” se concilia con criterios establecidos previamente.

La programación matemática constituye un campo amplio de estudio que se ocupa de la teoría, aplicaciones y métodos computacionales para resolver los problemas de optimización condicionada. En estos modelos se busca el extremo de una función objetivo sometida a un conjunto de restricciones que deben cumplirse necesariamente. Las situaciones que pueden afrontarse con la programación matemática se suelen presentar en ingeniería, empresas comerciales y en ciencias sociales y físicas.

Con carácter general, un programa matemático (ver Minoux, 1986) consiste en un problema de optimización sujeto a restricciones en  de la forma:

 

Continue reading «Optimización y programación matemática»

¿Qué recursos necesitamos para ejecutar una tarea?

Toda actividad necesita recursos para ejecutarse. La programación de los recursos disponibles constituye un tema crucial para lograr que la obra esté finalizada en los plazos y costes establecidos. Consiste en asociar los recursos a sus tareas respectivas y ver cómo se ensamblan en el conjunto de la obra.

La limitación de recursos en la realización de una obra provoca conflictos que pueden resolverse mediante métodos de nivelación y de asignación. Los primeros laminan el diagrama de cargas sin producir retrasos en el plazo programado. Los métodos de asignación, por otra parte, pretenden que los recursos necesarios no superen los disponibles, pero con la condición de que el retraso provocado sea el mínimo posible. Con ayuda de las diversas técnicas de redes, se habrá establecido un camino crítico y unas holguras para cada una de las actividades. La prioridad en la asignación de los recursos será mayor cuanto menor sea la holgura disponible para cada una de las actividades.

Para aclarar este tema, os dejo un Polimedia de Alberto Palomares. Espero que os guste.

Referencias:

PELLICER, E.; YEPES, V. (2007). Gestión de recursos, en Martínez, G.; Pellicer, E. (ed.): Organización y gestión de proyectos y obras. Ed. McGraw-Hill. Madrid, pp. 13-44. ISBN: 978-84-481-5641-1. (link)

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

YEPES, V.; PELLICER, E. (2008). Resources Management, in Pellicer, E. et al.: Construction Management. Construction Managers’ Library Leonardo da Vinci: PL/06/B/F/PP/174014. Ed. Warsaw University of Technology, pp. 165-188. ISBN: 83-89780-48-8.

YEPES, V.; MARTÍ, J.V.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2012). Técnicas de planificación y control de obras. Editorial de la Universitat Politècnica de València. Ref. 189. Valencia, 94 pp. Depósito Legal: V-423-2012.

¿Cómo se puede estimar la duración de una actividad?

La duración representa el tiempo necesario para completar la actividad, medido en periodos de trabajo. Por muy analítico y riguroso que sea el planificador, la duración siempre será una estimación, con un margen de error. Este margen tiende a ser menor en actividades repetitivas, habituales y bien conocidas, pero puede aumentar significativamente en obras nuevas, donde no se dispone de datos históricos de referencia.

El tiempo disponible para realizar cada tarea lo determinan las fechas de inicio y finalización. La duración de una actividad puede reducirse añadiendo recursos adicionales, aunque esto incrementa su coste. Existe la posibilidad de modificar los recursos asignados a cada tarea para ajustarse a las condiciones más convenientes según las contingencias que se presenten durante la ejecución de la obra. Estos cambios producen una aceleración o deceleración en la realización de ciertas actividades, lo que conlleva un aumento o disminución de su coste directo. Se produce, por tanto, una correspondencia entre el coste directo de cada actividad y el tiempo invertido en su ejecución que proporciona la posibilidad de un ajuste costes-tiempos, adaptable a las necesidades de plazo o a la inversión económica del momento.

La duración «normal» de una tarea es aquella que minimiza su coste. En ocasiones, una programación basada únicamente en la duración normal puede prolongar excesivamente el trabajo e incrementar la repercusión de los gastos generales de la empresa en la obra. Del mismo modo, es probable exceder el plazo contractual si la programación se basa exclusivamente en duraciones normales. En ambos casos, el jefe de obra puede reducir la duración de algunas o todas las actividades para disminuir el plazo total.

Otra aproximación a la estimación de la duración de las tareas es la que propugna el método PERT, y que ya tuvimos la ocasión de explicar en un artículo anterior. No obstante, para evitar una estimación «ad hoc» de las duraciones (es decir, la que más convenga), deberíamos fijar la duración de cada tarea en función de los recursos reales de los que dispongamos para llevarlas a cabo. Esta práctica nos llevará a estimaciones realistas y deberíamos hacerla en el momento de la confección de la Estructura de Desglose de Trabajos.

Una pequeña introducción a estos conceptos la vamos a ver en el siguiente Polimedia de Alberto Palomares. Espero que os guste.

Referencias:

PELLICER, E.; YEPES, V. (2007). Gestión de recursos, en Martínez, G.; Pellicer, E. (ed.): Organización y gestión de proyectos y obras. Ed. McGraw-Hill. Madrid, pp. 13-44. ISBN: 978-84-481-5641-1. (link)

YEPES, V.; PELLICER, E. (2008). Resources Management, in Pellicer, E. et al.: Construction Management. Construction Managers’ Library Leonardo da Vinci: PL/06/B/F/PP/174014. Ed. Warsaw University of Technology, pp. 165-188. ISBN: 83-89780-48-8.

YEPES, V.; MARTÍ, J.V.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2012). Técnicas de planificación y control de obras. Editorial de la Universitat Politècnica de València. Ref. 189. Valencia, 94 pp. Depósito Legal: V-423-2012.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Estructura del desglose del trabajo (WBS)

Usualmente, como primer paso de la planificación, se utiliza la técnica denominada “Estructura de Descomposición del Trabajo” (EDT) que permite dividir sucesivamente una obra en actividades con el fin de gestionarla adecuadamente. La EDT consiste en la identificación y la subdivisión jerárquica en tareas. El fraccionamiento sucesivo de la EDT se lleva a cabo en etapas que presentan un nivel de detalle cada vez mayor. El escalonamiento se visualiza en forma de diagrama de árbol; de este modo se reduce la complejidad de la obra al descomponerlo en conjuntos de actividades. Puede llegarse al nivel de descomposición que se estime más adecuado. El nivel más bajo de descomposición que define una actividad depende de factores tales como la tipología, la magnitud y la duración de la obra, la finalidad de la programación y los requisitos de control exigidos.


El propósito de una EDT es organizar y definir el alcance total aprobado del proyecto según lo declarado en la documentación vigente. Su forma jerárquica permite una fácil identificación de los elementos finales, llamados «Paquetes de Trabajo». Se trata de un elemento exhaustivo en cuanto al alcance del proyecto, la EDT sirve como la base para la planificación del proyecto. Todo trabajo a ser hecho en el proyecto debe poder rastrear su origen en una o más entradas de la EDT.

Pero para que el concepto quede más claro, os dejo un Polimedia del profesor Alberto Palomares. Espero que os guste.

Os dejo algunos vídeos explicativos adicionales:

Referencias:

PELLICER, E.; YEPES, V. (2007). Gestión de recursos, en Martínez, G.; Pellicer, E. (ed.): Organización y gestión de proyectos y obras. Ed. McGraw-Hill. Madrid, pp. 13-44. ISBN: 978-84-481-5641-1. (link)

YEPES, V.; PELLICER, E. (2008). Resources Management, in Pellicer, E. et al.: Construction Management. Construction Managers’ Library Leonardo da Vinci: PL/06/B/F/PP/174014. Ed. Warsaw University of Technology, pp. 165-188. ISBN: 83-89780-48-8.

YEPES, V.; MARTÍ, J.V.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2012). Técnicas de planificación y control de obras. Editorial de la Universitat Politècnica de València. Ref. 189. Valencia, 94 pp. Depósito Legal: V-423-2012.

¿Qué son las metaheurísticas?

 ¿Cómo se podrían optimizar en tiempos de cálculo razonable problemas complejos de redes de transporte, estructuras de hormigón (puentes, pórticos de edificación, túneles, etc.) y otro tipo de problemas de decisión empresarial cuando la dimensión del problema es de tal calibre que es imposible hacerlo con métodos matemáticos exactos? La respuesta son los métodos aproximados, también denominados heurísticas. Este artículo divulgativo trata de ampliar otros anteriores  donde ya hablamos de los algoritmos, de la optimización combinatoria, de los modelos matemáticos y otros temas similares. Para más adelante explicaremos otros temas relacionados específicamente con aplicaciones a problemas reales. Aunque para los más curiosos, os paso en abierto, una publicación donde se han optimizado con éxito algunas estructuras de hormigón como muros, pórticos o marcos de carretera: (González et al, 2008).

Desde los primeros años de la década de los 80, la investigación de los problemas de optimización combinatoria se centra en el diseño de estrategias generales que sirvan para guiar a las heurísticas. Se les ha llamado metaheurísticas. Se trata de combinar inteligentemente diversas técnicas para explorar el espacio de soluciones. Osman y Kelly (1996) nos aportan la siguiente definición: “Los procedimientos metaheurísticos son una clase de métodos aproximados que están diseñados para resolver problemas difíciles de optimización combinatoria, en los que los heurísticos clásicos no son ni efectivos ni eficientes. Los metaheurísticos proporcionan un marco general para crear nuevos algoritmos híbridos combinando diferentes conceptos derivados de la inteligencia artificial, la evolución biológica y la mecánica estadística”.

Aunque existen diferencias apreciables entre los distintos métodos desarrollados hasta el momento, todos ellos tratan de conjugar en mayor o menor medida la intensificación en la búsqueda –seleccionando movimientos que mejoren la valoración de la función objetivo-, y la diversificación –aceptando aquellas otras soluciones que, aun siendo peores, permiten la evasión de los óptimos locales-.

Las metaheurísticas son susceptibles de agruparse de varias formas. Algunas clasificaciones recurren a cambios sucesivos de una solución a otra en la búsqueda del óptimo, mientras otras se sirven de los movimientos aplicados a toda una población de soluciones. El empleo, en su caso, de memoria que guíe de la exploración del espacio de elecciones posibles permite otro tipo de agrupamiento. En otras circunstancias se emplean perturbaciones de las opciones, de la topología del espacio de soluciones, o de la función objetivo. En la Figura se recoge una propuesta de clasificación de las heurísticas y metaheurísticas empleadas en la optimización combinatoria (Yepes, 2002), teniendo en común todas ellas la necesidad de contar con soluciones iniciales que permitan cambios para alcanzar otras mejores. Es evidente que existen en este momento muchas más técnicas de optimización, pero puede ser dicha clasificación un punto de partida para una mejor taxonomía de las mismas.

 

Taxonomía de estrategias empleadas en la resolución aproximada de problemas de optimización combinatoria sobre la base de soluciones iniciales.
Figura. Taxonomía de estrategias empleadas en la resolución aproximada de problemas de optimización combinatoria sobre la base de soluciones iniciales (Yepes, 2002)

Las  metaheurísticas empleadas en la optimización combinatoria en podrían clasificarse en tres grandes conjuntos. Las primeras generalizan la búsqueda secuencial por entornos de modo que, una vez se ha emprendido el proceso, se recorre una trayectoria de una solución a otra vecina hasta que éste concluye. En el segundo grupo se incluyen los procedimientos que actúan sobre poblaciones de soluciones, evolucionando hacia generaciones de mayor calidad. El tercero lo constituyen las redes neuronales artificiales. Esta clasificación sería insuficiente para aquellas metaheurísticas híbridas que emplean, en mayor o menor medida, estrategias de unos grupos y otros. Esta eventualidad genera un enriquecimiento deseable de posibilidades adaptables, en su caso, a los diferentes problemas de optimización combinatoria.

Referencias

GONZÁLEZ-VIDOSA-VIDOSA, F.; YEPES, V.; ALCALÁ, J.; CARRERA, M.; PEREA, C.; PAYÁ-ZAFORTEZA, I. (2008) Optimization of Reinforced Concrete Structures by Simulated Annealing. TAN, C.M. (ed): Simulated Annealing. I-Tech Education and Publishing, Vienna, pp. 307-320. (link)

OSMAN, I.H.; KELLY, J.P. (Eds.) (1996). Meta-Heuristics: Theory & Applications. Kluwer Academic Publishers.

YEPES, V. (2002). Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW. Tesis Doctoral. Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos. Universitat Politècnica de València. 352 pp. ISBN: 0-493-91360-2. (pdf)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La secuenciación de las tareas de un proyecto

Un cronograma no puede planificarse si antes no se han secuenciado las tareas de un proyecto. Se trata de establecer el orden en que cada tarea debe ejecutarse y qué dependencia existe entre esta y el resto.

Para aclarar este tema, os dejo un Polimedia del profesor Alberto Palomares en el que se explica la secuenciación. Espero que os guste.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.