Teoría del valor extremo y optimización estructural

A continuación dejo una presentación que hicimos para el VII Congreso Español sobre Metaheurísticas, Algoritmos Evolutivos y Bioinspirados MAEB 2010, que se celebró en Valencia del 8 al 10 de septiembre de 2010.

El artículo, denominado “Teoría del valor extremo como criterio de parada en la optimización heurística de bóvedas de hormigón estructural” establece un criterio de parada para un algoritmo multiarranque de búsqueda exhaustiva de máximo gradiente basado en una codificación Gray aplicado a la optimización de bóvedas de hormigón. Para ello se ha comprobado que los óptimos locales encontrados constituyen valores extremos que ajustan a una función Weibull de tres parámetros, siendo el de  posición, γ, una estimación del óptimo global que puede alcanzar el algoritmo. Se puede estimar un intervalo de confianza para γ ajustando una distribución Weibull a muestras de  óptimos locales extraídas mediante una técnica bootstrap de los óptimos disponibles. El algoritmo multiarranque se detendrá cuando se acote el intervalo de confianza y la diferencia entre el menor coste encontrado y el teórico ajustado a dicha función Weibull.

Referencia:

YEPES, V.; CARBONELL, A.; GONZÁLEZ-VIDOSA, F. (2010). Teoría del valor extremo como criterio de parada en la optimización heurística de bóvedas de hormigón estructural. Actas del VII Congreso Español sobre Metaheurísticas, Algoritmos Evolutivos y Bioinspirados MAEB 2010, Valencia, 8-10 septiembre, pp. 553-560. Garceta Grupo Editorial. ISBN: 978-84-92812-58-5.

Métodos no convencionales de investigación basados en la inteligencia artificial

El pasado mes de octubre tuve la ocasión de impartir un seminario en la Universidad Católica de Chile denominado “Métodos de investigación no convencionales basados en la inteligencia artificial”. Os paso la presentación que hice. Espero que os guste.

Descargar (PDF, 2.26MB)

Los ingenieros, los ordenadores y mil un indios

Los ingenieros, los ordenadores y “mil un indios”. Un título algo ambiguo para algo tan sencillo como que, es posible, que nuestros ingenieros más jóvenes hayan perdido cierta habilidad en la resolución y cálculo de problemas debido al uso masivo de los ordenadores y las nuevas tecnologías. Primero veamos el chiste (que espero a nadie siente mal), y luego reflexionemos un poco.

- !Mi General!
- !Sí!
- !Nos atacan mil un indios!
- ... oiga, Toto? Y cómo sabe que son mil uno?
- Porque viene uno adelante... !y cómo mil atrás!

El 23 de febrero de 2012 tuvo lugar un panel-debate en el seno del VI Congreso Nacional de la Ingeniería Civil que se desarrolló en Valencia. Allí Gozard Humar, presidente del European Council of Civil Engineers (ECCE), en una de sus intervenciones respondiendo a un debate generado por el público asistente, vino a decir que se debería prohibir en los primeros cursos de ingeniería el uso de ordenadores, pues estas herramientas atrofian la capacidad intuitiva y de cálculo de los futuros profesionales. Algo de razón no le falta a este representante europeo de la ingeniería civil.

Al hombre instruido le caracteriza el buscar en los problemas aquella precisión que por su naturaleza admiten, por tanto tan necio es aceptar razonamientos imprecisos de un matemático como pedir demostraciones científicas a un retórico“. Aristóteles

El abandono de la regla de cálculo por la calculadora electrónica, luego por la programable y por último el uso masivo del ordenador por parte de los alumnos ha traído, por una parte las abrumadoras ventajas del uso de las tecnologías de la información y la comunicación en el ámbito de la ingeniería. Pero por otro lado, hoy resulta complicado encontrar alumnos capaces de hacer a mano una raíz cuadrada o cualquier cálculo simple sin el uso de una calculadora. No es difícil encontrar anécdotas de jóvenes ingenieros que, ante problemas más o menos complicados, se encierran con el ordenador para buscar una solución “con diez decimales” y luego un ingeniero senior o un catedrático avezado ha encontrado algún error de bulto en la solución haciendo un “cálculo de servilleta“, usando lo que vienen a ser “números gordos”. A veces un método sencillo, aunque algo impreciso, es suficiente para encuadrar el orden de magnitud de un problema.

Imaginemos que se le pide a uno de nuestros alumnos el cálculo del número de latidos del corazón de un hombre a lo largo de su vida. Si acaba de aprobar la asignatura de Estadística, lo que hará es buscar la esperanza de vida media, con una desviación típica determinada. Lo mismo deberá hacer con el número de latidos. Se pondrá nervioso porque no encuentra datos, pero al final, nos dará una cifra (probablemente con varios decimales).

Suponiendo que el año tiene 400 días, un día tiene 25 horas y cada hora 60 minutos, el número aproximado de minutos en un año es de 6×10^5 minutos.  El número aproximado de minutos en 70 años (suponiendo que es ésta la vida media) es de 4×10^7 minutos. Si las pulsaciones medias son de 70 al minuto, tendremos que el resultado es de 10^9.

¿Y si la vida promedio se estimase en 80 años en vez de 70? El número de minutos en 80 años sería de 5×10^8, lo cual implica que el resultado sigue estando en el orden de magnitud de 10^9.

Otra idea que ya no se suele utilizar por el abuso de las calculadoras: el concepto de cifras significativas. Esto está muy relacionado con los “mil un indios”.

Supongamos que pedimos a nuestros futuros ingenieros hallar la superficie de una habitación cuadrada de 10,46 m de lado. Tenemos dos decimales porque la precisión es de 1 cm. Es decir, que realmente, el lado podría medir 10,45 m o bien 10,46 m. El resultado más probable que nos darían sería el de 109,4116 m2, lo cual no es correcto. Deberíamos haber respondido 109,4 m2. Nos olvidamos del siguiente hecho: cuando se multiplican cantidades, el número de cifras significativas en la respuesta final es el mismo que el número de cifras significativas que tiene el número con menos cifras significativas. Dicha regla se aplica también a la división. Otro ejemplo, el área de un círculo de 6,0 cm de radio no debería expresarse como 113 cm2, puesto que esta respuesta tiene 3 cifras significativas, mientras que el radio tiene sólo 2. El resultado aceptable sería 1,1×10^2 cm2.

Lo mismo le pasa a la suma y a la resta, aunque aquí la regla es distinta: cuando los números se sumen o se resten, el número de lugares decimales en el resultado debe ser igual al número más pequeño de lugares decimales de cualquier término de la suma. Así, 150 +12,35  debería ser 162 y no 162,35.

¿Cómo reducimos el número de cifras significativas? Se puede usar el redondeo: si el último dígito eliminado es mayor que 5, entonces se aumenta en 1. Si es menor a 5, se disminuye en 1. En el caso de que el último dígito eliminado sea igual a 5, el dígito restante debe redondearse al número par más cercano. Esta regla ayuda a evitar la acumulación de errores en procesos aritméticos largos. Otra técnica para evitar la acumulación de error es demorar el redondeo en el cálculo hasta la respuesta final de la calculadora antes de redondear al número correcto de cifras significativas.

Como pasatiempo: ¿cuánto hormigón sería necesario para ejecutar un muro de hormigón armado? Dos formas de abordarlo, mediante el cálculo exhaustivo o bien con un número gordo. Os dejo la solución del número gordo para pasatiempo y un día de estos os lo cuento. Es muy fácil.

¿Qué es la investigación operativa?

La investigación de operaciones o investigación operativa es una rama de las matemáticas que consiste en el uso de modelos matemáticos, estadística y algoritmos con objeto de modelar y resolver problemas complejos  determinando la solución óptima y permitiendo, de este modo, tomar decisiones.  Frecuentemente trata del estudio de complejos sistemas reales, con la finalidad de mejorar (u optimizar) su funcionamiento. La investigación de operaciones permite el análisis de la toma de decisiones teniendo en cuenta la escasez de recursos, para determinar cómo se puede optimizar un objetivo definido, como la maximización de los beneficios o la minimización de costos.

Aunque su nacimiento como ciencia se establece durante la Segunda Guerra Mundial y debe su nombre a las operaciones militares, los verdaderos orígenes de la Investigación Operativa se remontan mucho más atrás en el tiempo, hasta el siglo XVII. Esta disciplina nació en Inglaterra durante la Segunda Guerra Mundial como estrategia para encontrar soluciones a problemas militares, para ello fue necesario crear un Grupo de Investigación de Operaciones Militares conformado por un grupo de científicos multidisciplinares. Al terminar la guerra este método fue empleado en darle solución a problemas generales como el control de inventarios, asignación de recursos, líneas de espera, entre otros. Esta técnica cumplió sus objetivos en la década de los cincuenta y sesenta, hasta su desarrollo total en la actualidad. Sin embargo su auge es debido, en su mayor parte, al gran desarrollo de la informática, gracias a la cual es posible resolver problemas en la práctica y obtener soluciones que de otra forma conllevarían un enorme tiempo de cálculo. Debido a este éxito, la Investigación Operativa  se extendió a otros campos tales como la industria, física, informática, economía, estadística y probabilidad, ecología, educación, servicio social, …, siendo hoy en día utilizada prácticamente en todas las áreas. Algunos de los promotores más importantes de la filosofía y aplicación de la investigación de operaciones son C.W. Churchman, R.L. Ackoff y R. Bellman. Actualmente la Investigación Operativa incluye gran cantidad de ramas como la Programación Lineal, Programación No Lineal, Programación Dinámica, Simulación, Teoría de Colas, Teoría de Inventarios, Teoría de Grafos, etc.

Os presento ahora un vídeo, que no llega a 3 minutos de duración sobre el tema. Espero que os guste.

Automatic design of concrete vaults using iterated local search and extreme value estimation

La optimización de estructuras reales de hormigón armado constituye un campo de gran interés no sólo en la investigación, sino en la aplicación real en obra. Os paso un artículo reciente donde se explica una forma de optimizar bóvedas de hormigón empleadas habitualmente en pasos inferiores como falsos túneles. Los ahorros que se pueden conseguir, en este caso, han sido de un 7% respecto a un diseño tradicional. En el caso de obras lineales de gran longitud, los ahorros pueden ser nada despreciables. La revista Latin American Journal of Solids and Structures es una revista en abierto, de donde podéis descargaros éste y otros artículos de interés.

 

Licencia de Creative Commons
Este obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué es un algoritmo?

Algoritmo de Euclides
Algoritmo de Euclides

Un algoritmo es un conjunto prescrito de reglas o instrucciones bien definidas para la resolución de un problema. En general, se trata de encontrar el método más “eficiente”, no siendo baladí el modo de medir dicha eficiencia. Para resolver esta circunstancia, en la década de los 70 numerosos científicos se interesaron por la complejidad computacional de los problemas y los algoritmos. En muchos casos se asimila el rendimiento algorítmico a la medida del tiempo medio de ejecución empleado por un procedimiento para completar su operación con un conjunto de datos. Además, es posible relacionar el esfuerzo de cálculo con la dimensión del problema a resolver.

Un algoritmo muestra una complejidad polinómica si necesita un tiempo O(nk), donde n muestra la dimensión de entrada y k es una constante independiente de n. Si la función que denota la complejidad no está acotada por un polinomio, el algoritmo presenta una complejidad en tiempo exponencial. Continue reading “¿Qué es un algoritmo?”