La inteligencia artificial en la ingeniería civil

https://www.chilecubica.com/revistas-de-construcci%C3%B3n/inteligencia-artificial/

La inteligencia artificial (IA) – tecnologías capaces de realizar tareas que normalmente requieren inteligencia humana – constituye un enfoque alternativo a las técnicas de modelización clásicas. La IA es la rama de la ciencia de la computación que desarrolla máquinas y software con una inteligencia que trata de imitar las funciones cognitivas humanas. En comparación con los métodos tradicionales, la IA ofrece ventajas para abordar los problemas asociados con las incertidumbres y es una ayuda efectiva para resolver problemas de elevada complejidad, como son la mayoría de problemas reales en ingeniería. Además, las soluciones aportadas por la IA constituyen buenas alternativas para determinar los parámetros de diseño cuando no es posible efectuar ensayos, lo que supone un ahorro importante en tiempo y esfuerzo dedicado a los experimentos. La IA también es capaz de acelerar el proceso de toma de decisiones, disminuye las tasas de error y aumenta la eficiencia de los cálculos. Entre las diferentes técnicas de IA destacan el aprendizaje automático (machine learning), el reconocimiento de patrones (pattern recognition) y el aprendizaje profundo (deep learning), técnicas que han adquirido recientemente una atención considerable y que se están estableciendo como una nueva clase de métodos inteligentes para su uso en la ingeniería civil.

Todos conocemos problemas de ingeniería civil cuya solución pone al límite las técnicas computacionales tradicionales. Muchas veces se solucionan porque existen expertos con la formación adecuada capaces de intuir la solución más adecuada, para luego comprobarla con los métodos convencionales de cálculo. En este contexto, la inteligencia artificial está tratando de capturar la esencia de la cognición humana para acelerar la resolución de estos problemas complejos. La IA se ha desarrollado basándose en la interacción de varias disciplinas, como son la informática, la teoría de la información, la cibernética, la lingüística y la neurofisiología.

Figura 1. Interrelación entre diferentes técnicas computacionales inteligentes. Elaboración propia basada en Salehi y Burgueño (2018)

A veces el concepto de “inteligencia artificial (IA)” se confunde con el de “inteligencia de máquina (IM)” (machine intelligence). En general, la IM se refiere a máquinas con un comportamiento y un razonamiento inteligente similar al de los humanos, mientras que la IA se refiere a la capacidad de una máquina de imitar las funciones cognitivas de los humanos para realizar tareas de forma inteligente. Otro término importante es la “computación cognitiva (CC)” (cognitive computing), que se inspira en las capacidades de la mente humana. Los sistemas cognitivos son capaces de resolver problemas imitando el pensamiento y el razonamiento humano. Tales sistemas se basan en la capacidad de las máquinas para medir, razonar y adaptarse utilizando la experiencia adquirida.

Las principales características de los sistemas de CC son su capacidad para interpretar grandes datos, el entrenamiento dinámico y el aprendizaje adaptativo, el descubrimiento probabilístico de patrones relevantes. Técnicamente, la IA se refiere a ordenadores y máquinas que pueden comportarse de forma inteligente, mientras que el CC se concentra en la resolución de los problemas empleando el pensamiento humano. La diferencia más significativa entre la IA y la CC puede definirse en función de su interactuación con los humanos. Para cualquier sistema de IA, hay un agente que decide qué acciones deben tomarse. Sin embargo, los sistemas de CC aprenden, razonan e interactúan como los humanos.

Por otra parte, los “sistemas expertos” son una rama de la IA. Un sistema experto se definiría como un programa de ordenador que intenta imitar a los expertos humanos para resolver problemas que exigen conocimientos humanos y experiencia. Por tanto, la IA incluye diferentes ramas como los sistemas expertos, el aprendizaje automático, el reconocimiento de patrones y la lógica difusa.

La IA se ha usado en estas últimas décadas de forma intensiva en las investigaciones relacionadas con la ingeniería civil. Son notables las aplicaciones de las redes neuronales, los algoritmos genéticos, la lógica difusa y la programación paralela. Además, la optimización heurística ha tenido una especial relevancia en muchos campos de la ingeniería civil, especialmente en el ámbito de las estructuras y las infraestructuras. Sin embargo, los métodos más recientes como el reconocimiento de patrones, el aprendizaje automático y el aprendizaje profundo son métodos totalmente emergentes en este ámbito de la ingeniería. Estas técnicas emergentes tienen la capacidad de aprender complicadas interrelaciones entre los parámetros y las variables, y así permiten resolver una diversidad de problemas que son difíciles, o no son posibles, de resolver con los métodos tradicionales.

El aprendizaje automático es capaz de descubrir información oculta sobre el rendimiento de una estructura al aprender la influencia de diversos mecanismos de daño o degradación y los datos recogidos de los sensores. Además, el aprendizaje automático y el aprendizaje profundo tienen una elevada potencialidad en el dominio de la mecánica computacional, como por ejemplo, para optimizar los procesos en el método de elementos finitos para mejorar la eficiencia de los cálculos. Estos métodos también se pueden utilizar para resolver problemas complejos a través del novedoso concepto de la Internet de las Cosas. En este contexto del Internet de las Cosas, se pueden emplear estas técnicas emergentes para analizar e interpretar grandes bases de datos. Esto abre las puertas al desarrollo de infraestructuras, ciudades o estructuras inteligentes.

Sin embargo, aún nos encontramos con limitaciones en el uso de estos métodos emergentes. Entre esas limitaciones figura la falta de selección racional del método de IA, que no se tenga en cuenta el efecto de los datos incompletos o con ruido, que no se considere la eficiencia de la computación, el hecho de que se informe sobre la exactitud de la clasificación sin explorar soluciones alternativas para aumentar el rendimiento, y la insuficiencia de la presentación del proceso para seleccionar los parámetros óptimos para la técnica de IA. Con todo, a pesar de estas limitaciones, el aprendizaje automático, el reconocimiento de patrones y el aprendizaje profundo se postulan como métodos pioneros para aumentar la eficiencia de muchas aplicaciones actuales de la ingeniería civil, así como para la creación de usos innovadores.

Referencias:

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150.

NAVARRO, I.J.; YEPES, V.; MARTÍ, J.V. (2019). A review of multi-criteria assessment techniques applied to sustainable infrastructures design. Advances in Civil Engineering, 2019: 6134803.

SALEHI, H.; BURGUEÑO, R. (2018). Emerging artificial intelligence methods in structural engineering. Engineering Structures, 171:170-189.

SIERRA, L.A.; YEPES, V.; PELLICER, E. (2018). A review of multi-criteria assessment of the social sustainability of infrastructures. Journal of Cleaner Production, 187:496-513.

YEPES, V. (2013). Métodos no convencionales de investigación basados en la inteligencia artificial. https://victoryepes.blogs.upv.es/2013/11/12/metodos-no-convencionales-de-investigacion-basado-en-la-inteligencia-artificial/

YEPES, V. (2020). Computación cuántica y gemelos híbridos digitales en ingeniería civil y edificación. https://victoryepes.blogs.upv.es/2019/10/30/computacion-cuantica-gemelos-digitales/

YEPES, V.; GARCÍA-SEGURA, T.; MORENO-JIMÉNEZ, J.M. (2015). A cognitive approach for the multi-objective optimization of RC structural problems. Archives of Civil and Mechanical Engineering, 15(4):1024-1036

Os dejo a continuación un informe sobre cómo la inteligencia de máquina permite crear valor y se postula como una herramienta de primer nivel en todos los ámbitos.

Descargar (PDF, 1.05MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

18 años de la lectura de mi tesis doctoral: Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW

Hoy 4 de septiembre, pero del año 2002, tuve la ocasión de defender mi tesis doctoral titulada “Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW“. La tesis fue dirigida por el profesor Josep Ramon Medina Folgado y el tribunal estuvo presidido por José Aguilar, acompañado por José Vicente Colomer, Francesc Robusté, Francisco García Benítez y Jesús Cuartero. La calificación fue de sobresaliente «cum laude» por unanimidad.

Por tanto, mi tesis ya ha cumplido la mayoría de edad. Es un buen momento para reflexionar sobre lo que este trabajo supuso para mí. La realicé a los 38 años, tras haber adquirido una buena trayectoria profesional en la empresa privada (Dragados y Construcciones) y en la administración pública (Generalitat Valenciana). De alguna forma, ya tenía la vida más o menos solucionada, con experiencia acumulada, pero con muchas inquietudes. En aquel momento era profesor asociado a tiempo parcial y, en mis ratos libres, me dediqué a hacer la tesis doctoral. Es innecesario decir las dificultades que supone para cualquiera sacar tiempo de donde no lo hay para hacer algo que, en aquel momento, era simplemente vocacional. No hubo financiación de ningún tipo, ni reducción de la jornada laboral, ni nada por el estilo. En aquel momento ni se me pasó por la cabeza que años después acabaría como catedrático de universidad. Entre 2002 y 2008 seguí trabajando como profesor asociado en la administración pública. Por último, gracias al sistema de habilitación nacional, accedí directamente a la universidad como profesor titular desde la categoría de profesor asociado, algo bastante inusual en aquel momento. Gracias a que era una verdadera oposición con el resto de candidatos, tuve la oportunidad de demostrar mi valía ante un tribunal. Luego la cátedra vino por el sistema de acreditación y la plaza, tras una larga espera a causa de la crisis y de las cuotas de reposición. Pasé en seis años de ser profesor asociado a tiempo parcial a estar habilitado como catedrático de universidad (12 de mayo de 2014). Todo eso se lo debo, entre otras cosas, a la gran producción científica que pude llevar a cabo y que tuvo su origen en esta tesis doctoral.

Por cierto, en aquella época la tesis doctoral tenía que ser inédita, es decir, ningún artículo de la tesis tenía que haberse publicado. Hoy en día es todo lo contrario: conviene tener de 3 a 4 artículos buenos antes de pasar por la defensa. Luego publiqué algunos artículos sobre este tema en revistas nacionales e internacionales, pero sobre todo en actas de congresos.

La tesis supuso, en su momento, aprender en profundidad lo que eran la algoritmia, el cálculo computacional y, sobre todo, la optimización heurística. En aquel momento, al menos en el ámbito de la ingeniería civil, no se sabía nada o muy poco al respecto, aunque era un campo muy activo a nivel internacional. Luego comprobé que todo lo aprendido se pudo aplicar al ámbito de las estructuras, especialmente a los puentes, pero esa es otra historia.

Os dejo las primeras páginas de la tesis y la presentación de PowerPoint que utilicé. Para que os hagáis una idea del momento, la presentación también la imprimí en acetato, ya que aún se empleaba la proyección de transparencias en las clases.

Referencia:

YEPES, V. (2002). Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW. Tesis Doctoral. Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos. Universitat Politècnica de València. 352 pp. ISBN: 0-493-91360-2.

Descargar (PDF, 340KB)

Descargar (PDF, 5.92MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué es la optimización por cristalización simulada?

La cristalización simulada (también llamado recocido simulado)  “Simulated Annealing, SA” constituye una de las estrategias a las que se recurre en la resolución de los problemas de optimización combinatoria. Kirkpatrick, Gelatt y Vecchi la propusieron por primera vez en 1983 y Cerny en 1985 de forma independiente. Estos autores se inspiraron en los trabajos sobre Mecánica Estadística de Metrópolis et al. (1953). La metaheurística despliega una estructura que se inserta cómodamente en la programación, mostrando además una considerable habilidad para escapar de los óptimos locales. Fue una técnica que experimentó un auge considerable en la década de los 80 para resolver los modelos matemáticos de optimización.

La energía de un sistema termodinámico se compara con la función de coste evaluada para una solución admisible de un problema de optimización combinatoria. En ambos casos se trata de evolucionar de un estado a otro de menor energía o coste. El acceso de un estado metaestable a otro se alcanza introduciendo “ruido” con un parámetro de control al que se denomina temperatura. Su reducción adecuada permite, con una elevada probabilidad, que un sistema termodinámico adquiera un mínimo global de energía. Conceptualmente es un algoritmo de búsqueda por entornos, que selecciona candidatos de forma aleatoria. La alternativa se aprueba si perfecciona la solución actual (D menor o igual que cero); en caso contrario, será aceptada con una probabilidad  (e(-D/T) si D>0, donde T es el parámetro temperatura) decreciente con el aumento de la diferencia entre los costes de la solución candidata y la actual. El proceso se repite cuando la propuesta no es admitida. La selección aleatoria de soluciones degradadas permite eludir los mínimos locales. La cristalización simulada se codifica fácilmente, incluso en problemas complejos y con funciones objetivo arbitrarias. Además, con independencia de la solución inicial, el algoritmo converge estadísticamente a la solución óptima (Lundy y Mees, 1986). En cualquier caso, SA proporciona generalmente soluciones valiosas, aunque no informa si ha llegado al óptimo absoluto. Por contra, al ser un procedimiento general, en ocasiones no resulta competitivo, aunque sí comparable, ante otros específicos que aprovechan información adicional del problema. El algoritmo es lento, especialmente si la función objetivo es costosa en su tiempo de computación. Además, la cristalización simulada pierde terreno frente a otros métodos más simples y rápidos como el descenso local cuando el espacio de las soluciones es poco abrupto o escasean los mínimos locales.

Os dejo un vídeo explicativo:

Referencias

CERNY, V. (1985). Thermodynamical approach to the traveling salesman problem: an efficient simulated algorithm. Journal of Optimization Theory and Applications, 45: 41-51.

KIRKPATRICHK, S.; GELATT, C.D.; VECCHI, M.P. (1983). Optimization by simulated annealing. Science, 220(4598): 671-680.

LUNDY, M.; MEES, A. (1986). Convergence of an Annealing Algorithm. Mathematical programming, 34:111-124.

METROPOLIS, N.; ROSENBLUTH, A.W.; ROSENBLUTH, M.N.; TELLER, A.H.; TELER, E. (1953). Equation of State Calculation by Fast Computing Machines. Journal of Chemical Physics, 21:1087-1092.

GONZÁLEZ-VIDOSA-VIDOSA, F.; YEPES, V.; ALCALÁ, J.; CARRERA, M.; PEREA, C.; PAYÁ-ZAFORTEZA, I. (2008) Optimization of Reinforced Concrete Structures by Simulated Annealing. TAN, C.M. (ed): Simulated Annealing. I-Tech Education and Publishing, Vienna, pp. 307-320. (link)

Redes neuronales aplicadas al diseño multiobjetivo de puentes postesados

Nos acaban de publicar en línea en la revista Structural and Multidisciplinary Optimization (revista indexada en JCR en el primer cuartil) un trabajo de investigación en el que utilizamos las redes neuronales artificiales junto para el diseño multiobjetivo de puentes postesados de carreteras. Os paso a continuación el resumen y el enlace al artículo por si os resulta de interés. El enlace del artículo es el siguiente: http://link.springer.com/article/10.1007%2Fs00158-017-1653-0

Referencia:

García-Segura, T.; Yepes, V.; Frangopol, D.M. (2017). Multi-objective design of post-tensioned concrete road bridges using artificial neural networks. Structural and Multidisciplinary Optimization, doi:10.1007/s00158-017-1653-0

Abstract:

In order to minimize the total expected cost, bridges have to be designed for safety and durability. This paper considers the cost, the safety, and the corrosion initiation time to design post-tensioned concrete box-girder road bridges. The deck is modeled by finite elements based on problem variables such as the cross-section geometry, the concrete grade, and the reinforcing and post-tensioning steel. An integrated multi-objective harmony search with artificial neural networks (ANNs) is proposed to reduce the high computing time required for the finite-element analysis and the increment in conflicting objectives. ANNs are trained through the results of previous bridge performance evaluations. Then, ANNs are used to evaluate the constraints and provide a direction towards the Pareto front. Finally, exact methods actualize and improve the Pareto set. The results show that the harmony search parameters should be progressively changed in a diversification-intensification strategy. This methodology provides trade-off solutions that are the cheapest ones for the safety and durability levels considered. Therefore, it is possible to choose an alternative that can be easily adjusted to each need.

Keywords:

Multi-objective harmony search; Artificial neural networks; Post-tensioned concrete bridges; Durability; Safety.

Os dejo a continuación la versión autor del artículo.

Descargar (PDF, 1.14MB)

La programación lineal y el método Simplex en el ámbito del hormigón

La programación lineal es un procedimiento o algoritmo matemático mediante el cual se resuelve un problema indeterminado, formulado a través de un sistema de inecuaciones lineales, optimizando la función objetivo, también lineal. Consiste en optimizar (minimizar o maximizar) una función lineal, denominada función objetivo, de tal forma que las variables de dicha función estén sujetas a una serie de restricciones que expresamos mediante un sistema de inecuaciones lineales.

Os dejo un vídeo tutorial donde se explica la programación lineal y se avanzan las ideas básicas del método Simplex.

 

 

 

 

 

Existen páginas web, como PHPSimplex, donde puedes solucionar on-line problemas sencillos. También puede resolverse este tipo de problemas con las herramientas de MATLAB: Optimization Toolbox.

A continuación os dejo un vídeo donde se explica cómo resolver un problema de Programación Lineal mediante MS Excel 2007. Es importante que aprendáis a utilizar el Solver. Espero que os guste el vídeo.

También os dejo el siguiente enlace del canal FdeT donde podéis aprender más sobre programación lineal: https://www.youtube.com/playlist?list=PL0_FimzlChzLfAeFbjv0S2nnj8fAi82wB

¿Seríais capaces de resolver los siguientes problemas, donde el objetivo es maximizar el beneficio?:

  1. Una empresa produce hormigón usando los ingredientes A y B. Cada kilo de ingrediente A cuesta 60 unidades monetarias y contiene 4 unidades de arena fina, 3 unidades de arena gruesa y 5 unidades de grava. Cada kilo de ingrediente B cuesta 100 unidades monetarias y contiene 3 unidades de arena fina, 6 unidades de arena gruesa y 2 unidades de grava. Cada amasada debe contener, por lo menos, 12 unidades de arena fina, 12 unidades de arena gruesa y 10 unidades de grava. Formule un modelo de programación lineal y resuélvalo gráficamente.
  2. Una empresa especializada en la construcción de estructuras de edificios tiene patentes de tres tipos de forjados F1, F2 y F3. Los beneficios que consigue por metro cuadrado de forjado construido son 100, 90 y 120 unidades monetarias respectivamente. Por razones de almacenamiento y financiación, diariamente sólo se dispone de dos toneladas de acero, 200 m3 de hormigón y 8 m3 de madera para encofrados. Maximizar el beneficio a obtener. Las cantidades de acero, hormigón y madera que se necesitan por m2 en cada uno de los forjados son:

 

 

Tipo de forjado

Materia prima

Cantidad

F1

Acero

0,2 kg/m2

Hormigón

80 dm3/m2

Madera

0,001 m3/m2

F2

Acero

0,25 kg/m2

Hormigón

37,5 dm3/m2

Madera

0,00125 m3/m2

F3

Acero

0,225 kg/m2

Hormigón

35 dm3/m2

Madera

0,0015 m3/m2

Los orígenes del PERT y del CPM

Henry Laurence Gantt (1861-1919)

Si tuviésemos que hablar de la historia de la planificación y control de las obras, deberíamos referirnos a la primera de las construcciones realizadas por el hombre y perdida en el origen de nuestra especie. Construcciones como las pirámides de Egipto no pudieron construirse sin un plan previo y una compleja organización de recursos. No obstante, al emplear las técnicas de planificación actuales, podemos acortar nuestra retrospectiva a aproximadamente medio siglo atrás en Estados Unidos. Tanto en el ámbito militar como en el civil, de manera independiente, se establecieron los fundamentos de las técnicas basadas en el método del camino crítico (Critical Path Method, CPM) y en el método PERT (Program Evaluation and Review Technique). La planificación y programación de proyectos complejos, sobre todo grandes proyectos unitarios no repetitivos, comenzó a ser motivo de especial atención al final de la Segunda Guerra Mundial, donde el diagrama de barras de Henry Gantt era la única herramienta de planificación de la que se disponía, que fue un método innovador en su momento, pero muy limitado. Gannt publicó en 1916 “Work, Wages, and Profits”, un texto donde discutía estos aspectos de planificación y otros relacionados con la productividad. De todos modos, para ser más exactos, Gantt no fue el pionero en el uso de esta herramienta. Otros autores como Joseph Priestley en 1765 o William Playfair en 1786, ya había sugerido ideas precursoras, que el ingeniero Karol Adamiecki desarrolló en 1896 en lo que él llamó como “Harmonograma”. También deberíamos destacar aquí los primeros intentos desarrollados, entre 1955 y 1957, por la “Imperial Chemical Industries” y el “Central Electricity Generating Board”, en el Reino Unido, donde se desarrolló una técnica capaz de identificar la secuencia de estados más larga e irreductible para la ejecución de un trabajo, en línea con lo que después se llamaría CPM (Crítical Path Method). Estas empresas consiguieron ahorros de tiempo en torno al 40%, pero debido a que no se publicaron estas innovaciones, cayeron en la oscuridad, de la cual se despertó con los avances que se desarrollaron al otro lado del océano.

Si bien al principio PERT y CPM tenían algunas diferencias importantes, con el tiempo, ambas técnicas se han fusionado, de modo que hoy día se habla de estos procedimientos como PERT/CPM. El PERT supone que el tiempo para realizar cada una de las actividades es una variable aleatoria descrita por una distribución de probabilidad. El CPM, por otra parte, infiere que los tiempos de las actividades se conocen en forma determinística y se pueden variar cambiando el nivel de recursos utilizados. Ambos métodos aportaron los elementos necesarios para conformar el método del camino crítico actual, empleando el control de los tiempos de ejecución y los costes de operación, para ejecutar un proyecto en el menor tiempo y coste posible. PERT/CPM se basan en diagramas de redes capaces de identificar las interrelaciones entre las tareas y establecen el momento adecuado para su realización. Además, permiten preparar el calendario del proyecto y determinar los caminos críticos. El camino crítico es, en esencia, la ruta que representa el cuello de botella de un proyecto. La reducción del plazo total de ejecución será solo posible si se encuentra la forma de abreviar las actividades situadas en dicho camino, pues el tiempo necesario para ejecutar las actividades no críticas no incide en la duración total del proyecto. La principal diferencia entre PERT y CPM es la manera en que se realizan los estimados de tiempo. En artículos anteriores hemos explicado mediante sendos vídeos las mecánicas de cálculo de los diagramas de flechas y del propio PERT.

El origen del CPM se sitúa entre diciembre de 1956 y febrero de 1959. En aquellos momentos, la compañía norteamericana E.I. du Pont (DuPont) estaba buscando cómo utilizar uno de los primeros ordenadores comerciales, el “UNIVAC1”. Los gestores de DuPont se dieron cuenta de que planificar, estimar y programar parecía ser el mejor uso que la empresa podría darle a este ordenador. Este trabajo se asignó a Morgan Walker, de la Engineering Services Division de Du Pont, que junto con el matemático James E. Kelley, Jr, que trabajaba en Remington Rand, consiguieron poner a punto el método, con el objetivo de controlar el mantenimiento de los proyectos de plantas químicas de DuPont. A mediados de 1957, esta empresa estaba interesada en ampliar cerca de 300 fábricas, lo cual implicaba un gran número de actividades (por lo menos unas 30000) lo cual no se podía abordar con los diagramas de Gantt. El objetivo era controlar y optimizar los costos de operación de las actividades de un proyecto. En este método, cada una de las tareas tenía una duración exacta, conocida de antemano.

Ordenador digital UNIVAC1. https://museo.inf.upv.es/univac2/
William Francis Raborn (1905-1990) Militar estadounidense.

El origen de los trabajos de la técnica PERT empezaron formalmente en enero de 1957, siendo paralelo al del CPM, pero su origen fue en el ámbito militar. Se desarrolló en la Oficina de Proyectos Especiales de la Armada de los EEUU, al reconocer el almirante William. F. Raborn que se necesitaba una planificación integrada y un sistema de control fiable para el programa de misiles balísticos Polaris. Con su apoyo se estableció un equipo de investigación para desarrollar el PERT o “Program Evaluation Research Task”. Así, la Oficina de Proyectos Especiales de la Marina de los Estados Unidos de América, en colaboración con la división de Sistemas de Misiles Lockheed (fabricantes de proyectiles balísticos) y la consultora Booz, Allen & Hamilton (ingenieros consultores), se plantean un nuevo método para solucionar el problema de planificación, programación y control del proyecto de construcción de submarinos atómicos armados con proyectiles «Polaris». Este proyecto involucra la coordinación y supervisión de 250 empresas, 9,000 subcontratistas y numerosas agencias gubernamentales a lo largo de cinco años. En julio de 1958 se publica el primer informe del programa al que denominan “Program Evaluation and Review Technique”, decidiendo su aplicación en octubre del mismo año y consiguiendo un adelanto de dos años sobre los cinco previstos. D. G. Malcolm, J. H. Roseboom, C. E. Clark y W. Fazar, todos del equipo de investigación patrocinado por la Armada, fueron los autores del primer documento publicado sobre el PERT (Malcolm et al., 1959). Este método se basa en la probabilidad de la duración de las actividades. Hoy día se sigue utilizando este método, si bien, tal y como apuntan algunos autores (ver Ahuja et al., 1995), la estimación calculada por PERT suele subestimar la duración real de los proyectos.

REFERENCIAS

AHUJA, H; DOZZI, S.P.; ABOURIZK, S.M. (1995). Project management techniques in planning and controlling construction projects. 2nd edition, Wiley, N.Y.

CLARK, C.E. (1962). The PERT model for the distribution of an activity time. Operations Research, 10(3):405-406.

MALCOLM, D.G.; ROSEBOOM, J.H.; CLARK, C.E.; FAZAR, W. (1959). Application of a technique for research and development program evaluation. Operations Research, 11(5):646-669.

WEAVER, P. (2006).  A brief story of scheduling -back to the future- http://www.mosaicprojects.com.au/PDF_Papers/P042_History%20of%20Scheduing.pdf

YEPES, V.; PELLICER, E. (2008). Resources Management, in Pellicer, E. et al.: Construction Management. Construction Managers’ Library Leonardo da Vinci: PL/06/B/F/PP/174014. Ed. Warsaw University of Technology, pp. 165-188. ISBN: 83-89780-48-8.

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué es la optimización combinatoria?

Los problemas de optimización en los que las variables de decisión son enteras, es decir, donde el espacio de soluciones está formado por ordenaciones o subconjuntos de números naturales, reciben el nombre de problemas de optimización combinatoria. En este caso, se trata de hallar el mejor valor de entre un número finito o numerable de soluciones viables. Sin embargo la enumeración de este conjunto resulta prácticamente imposible, aún para problemas de tamaño moderado.

Las raíces históricas de la optimización combinatoria subyacen en ciertos problemas económicos: la planificación y gestión de operaciones y el uso eficiente de los recursos. Pronto comenzaron a modelizarse de esta manera aplicaciones más técnicas, y hoy vemos problemas de optimización discreta en diversas áreas: informática, gestión logística (rutas, almacenaje), telecomunicaciones, ingeniería, etc., así como para tareas variadas como el diseño de campañas de marketing, la planificación de inversiones, la división de áreas en distritos políticos, la secuenciación de genes, la clasificación de plantas y animales, el diseño de nuevas moléculas, el trazado de redes de comunicaciones, el posicionamiento de satélites, la determinación del tamaño de vehículos y las rutas de medios de transporte, la asignación de trabajadores a tareas, la construcción de códigos seguros, el diseño de circuitos electrónicos, etc. (Yepes, 2002). La trascendencia de estos modelos, además del elevado número de aplicaciones, estriba en el hecho de que “contiene los dos elementos que hacen atractivo un problema a los matemáticos: planteamiento sencillo y dificultad de resolución” (Garfinkel, 1985). En Grötschel y Lobas (1993) se enumeran otros campos en los cuales pueden utilizarse las técnicas de optimización combinatoria.

REFERENCIAS

GARFINKEL, R.S. (1985). Motivation and Modeling, in LAWLER, E.L.; LENSTRA, J.K.; RINNOOY KAN, A.H.G.; SHMOYS, D.B. (eds.) The Traveling Salesman Problem: A Guide Tour of Combinatorial Optimization. Wiley. Chichester.

GRÖTSCHEL, M.; LÓVASZ, L. (1993). Combinatorial Optimization: A Survey. Technical Report 93-29. DIMACS, May.

YEPES, V. (2002). Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW. Tesis Doctoral. Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos. Universitat Politècnica de València. 352 pp. ISBN: 0-493-91360-2. (pdf)

Planificación de redes de transporte con baja demanda

La planificación y gestión de redes de distribución de baja demanda exige disponer de técnicas eficientes de optimización de rutas. El sistema de optimización de rutas disponible, no sólo afecta el desarrollo de operaciones sino, también las decisiones tácticas y estratégicas como el tamaño óptimo de flota, estimación de costes, políticas de publicidad y rotura de servicio, etc.  Por ejemplo, es habitual la venta de paquetes turísticos que incluyen el transporte; los precios se fijan mucho antes de que la demanda de transporte sea conocida, siendo frecuentes las cancelaciones de última hora y la llegada de nuevos clientes. Si  el número de pasajeros que debe ser transportado es pequeño, en comparación con la máxima capacidad de carga del vehículo óptimo a la distancia correspondiente, los beneficios o pérdidas generadas por el transporte dependen críticamente de la eficiencia del sistema de optimización de rutas. La Figura describe la influencia de la optimización de operaciones en la planificación y gestión de redes de distribución de baja demanda.

Redes de baja demanda
Planificación y Gestión de Redes de Distribución de Baja Demanda

Así pues, la planificación Continue reading “Planificación de redes de transporte con baja demanda”

Optimización y programación matemática

George Bernard Dantzig
George Bernard Dantzig (1914-2005), “padre de la programación lineal”

Optimizar significa buscar la mejor manera de realizar una actividad, y en términos matemáticos, hallar el máximo o mínimo de una cierta función, definida en algún dominio. La optimización constituye un proceso para encontrar la mejor solución de un problema donde “lo mejor” se concilia con criterios establecidos previamente.

La programación matemática constituye un campo amplio de estudio que se ocupa de la teoría, aplicaciones y métodos computacionales para resolver los problemas de optimización condicionada. En estos modelos se busca el extremo de una función objetivo sometida a un conjunto de restricciones que deben cumplirse necesariamente. Las situaciones que pueden afrontarse con la programación matemática se suelen presentar en ingeniería, empresas comerciales y en ciencias sociales y físicas.

Con carácter general, un programa matemático (ver Minoux, 1986) consiste en un problema de optimización sujeto a restricciones en  de la forma:

 

Continue reading “Optimización y programación matemática”

Algoritmo del solterón aplicado a la optimización de rutas con flotas heterogéneas VRPHESTW

Me ha parecido interesante rescatar una pequeña publicación, que ya tiene 10 años, donde se aplicaba un algoritmo de optimización heurística curioso: Old Bachelor Acceptance, o “algoritmo del solterón“. En este caso, aplicado a la optimización de redes de transporte con flotas heterogéneas. Resulta curioso ver cómo determinados comportamientos sociales (colonias de hormigas), principios naturales (teoría de la evolución) o recreaciones de nuestro cerebro (redes neuronales) son capaces de resolver problemas complejos de optimización.

Espero que os sea de interés.

GDE Error: Error retrieving file - if necessary turn off error checking (404:Not Found)