Clasificación y principios fundamentales del diseño experimental

Cuando pensamos en un experimento, solemos imaginar una prueba simple para ver qué opción es “mejor”. Sin embargo, esta visión apenas roza la superficie de una disciplina profunda y estratégica. Existen principios sorprendentes que rigen el diseño experimental y son cruciales no solo para la ciencia, sino también para cualquier toma de decisiones informada. A continuación, se describen brevemente los tipos de experimentos que pueden utilizarse en la investigación científica.

El diseño experimental se clasifica en dos categorías principales, según la propuesta de Anscombe (1947): el experimento absoluto y el experimento comparativo. El experimento absoluto se enfoca en la medición de propiedades físicas constantes para ampliar el conocimiento científico, utilizando un modelo estadístico de efectos aleatorios (Modelo II de Eisenhart), ya que los tratamientos se seleccionan al azar de una población más amplia. Por el contrario, el experimento comparativo está orientado a la toma de decisiones en ciencias aplicadas, con el fin de determinar cuál de varios tratamientos predefinidos es “mejor”. Este enfoque utiliza un modelo de efectos fijos (Modelo I de Eisenhart) y exige una definición precisa del problema para garantizar su validez.

El éxito de un experimento, especialmente el comparativo, depende del cumplimiento de cinco principios fundamentales: simplicidad, nivel de precisión adecuado, ausencia de error sistemático, amplio rango de validez de las conclusiones y una correcta cuantificación de la incertidumbre. La elección del diseño y el modelo estadístico asociado (fijo, aleatorio o mixto) determinan directamente el alcance y la naturaleza de las inferencias que pueden extraerse, vinculando de manera inseparable la planificación experimental con las conclusiones científicas y las decisiones de gestión.

La clasificación propuesta por Anscombe distingue los experimentos en dos grandes tipos según su objetivo fundamental: la adquisición de conocimiento puro o la fundamentación de decisiones prácticas.

Uno de ellos es el llamado experimento absoluto. En este tipo de experimento, el interés principal es medir y conocer las propiedades físicas de una población. Se asume que dichas propiedades permanecen constantes, lo que justifica el uso del término absoluto. El objetivo no es comparar alternativas concretas, sino ampliar el conocimiento científico sobre el fenómeno estudiado.

Los experimentos absolutos suelen centrarse en un solo factor y consideran un número limitado de tratamientos o niveles de ese factor. Estos tratamientos suelen elegirse de forma aleatoria. Por esta razón, si el experimento se repite, no es obligatorio utilizar exactamente los mismos tratamientos en cada ocasión.

Debido a esta forma de selección, los tratamientos se consideran variables aleatoriasEn consecuencia, el análisis se basa en un modelo de efectos aleatorios, también conocido como el Modelo II de Eisenhart (1947). Este tipo de modelo permite identificar y estimar los distintos componentes de la variación aleatoria presentes en una población compuesta, lo que constituye un enfoque especialmente útil para muchos problemas de ingeniería.

El experimento comparativo es el segundo tipo de experimento descrito por Anscombe. Este enfoque se utiliza cuando se analizan varios tratamientos y se observa que, aunque los valores absolutos de los resultados pueden fluctuar de forma irregular, las comparaciones relativas entre tratamientos suelen mantenerse estables. En este contexto, es posible concluir que, bajo condiciones similares, algunos tratamientos ofrecen resultados claramente mejores que otros.

Brownlee (1957) sitúa este tipo de experimentos en el ámbito de las ciencias aplicadas, y no es casualidad: la teoría estadística del diseño de experimentos se desarrolló originalmente para responder a las necesidades de este tipo de estudios.

En un experimento comparativo, los tratamientos se evalúan según su efecto promedio sobre una variable de respuesta, con el objetivo principal de determinar cuál es “mejor” según un criterio definido. A diferencia de los experimentos orientados al conocimiento fundamental, aquí el propósito central es apoyar la toma de decisiones prácticas, especialmente las administrativas o de gestión.

Una característica fundamental de los experimentos comparativos es que todos los tratamientos de interés están incluidos explícitamente en el estudio. Por esta razón, el análisis se basa en un modelo de efectos fijos, también conocido como el Modelo I de Eisenhart (1947). Si el experimento se repite, se utilizan exactamente los mismos tratamientos, ya que no se considera una muestra aleatoria. El interés principal radica en detectar y estimar relaciones constantes entre las medias de los tratamientos, lo que conduce naturalmente a la evaluación de hipótesis estadísticas sobre dichas medias.

Para que un experimento comparativo sea válido, debe comenzar con una definición clara y precisa del problema. No basta con plantear de manera general la idea de “comparar tratamientos”. Es imprescindible especificar con detalle los objetivos del estudio y formular con precisión las hipótesis que se probarán. Esta definición inicial determina la población a la que se aplicarán las conclusiones, identifica los factores, los tratamientos y sus niveles, establece las variables de respuesta que se medirán y define qué diferencias entre tratamientos se consideran relevantes. Sin estas especificaciones, no es posible diseñar un experimento adecuado.

Finalmente, una consecuencia natural de los experimentos comparativos es que casi siempre conducen a decisiones concretas. Dado un nivel suficiente de recursos, la hipótesis nula de igualdad entre tratamientos puede rechazarse, lo que obliga a actuar: mantener la situación actual o cambiar a un nuevo tratamiento. Este proceso de decisión consta de dos etapas bien definidas:

  1. Análisis estadístico de los datos, en el que se evalúan las probabilidades asociadas a los resultados y se extraen conclusiones técnicas.
  2. Decisión de gestión en la que, con base en esas conclusiones, se define la acción a realizar.

Esta conexión directa entre el análisis estadístico y la toma de decisiones explica por qué los experimentos comparativos son una herramienta central en la divulgación y la práctica de la ingeniería y de las ciencias aplicadas.

El estadístico cumple un rol clave en el proceso experimental: su responsabilidad es presentar, con la mayor precisión posible, las probabilidades obtenidas en la etapa de análisis, de manera que se reduzca al mínimo la posibilidad de tomar decisiones equivocadas cuando llegue el momento de actuar.

Dado que las decisiones sobre las hipótesis dependen directamente de experimentos cuidadosamente planificados, es esencial que dichos ensayos cumplan con una serie de principios básicos. A continuación se resumen los más importantes, con un enfoque práctico para la ingeniería:

  • Simplicidad: Tanto la selección de los tratamientos como la organización del experimento deben ser lo más simples posible. Un diseño sencillo facilita el análisis estadístico y la interpretación de los resultados y reduce el riesgo de errores innecesarios.
  • Nivel de precisión: El experimento debe permitir detectar diferencias entre tratamientos con el grado de precisión que el investigador considere relevante. Para lograrlo, se requiere un diseño experimental adecuado y un número suficiente de repeticiones que garanticen mediciones confiables.
  • Ausencia de error sistemático: El experimento debe planearse de modo que las unidades experimentales que reciben distintos tratamientos no difieran sistemáticamente entre sí antes de aplicarlos. Este cuidado es fundamental para obtener estimaciones insesgadas del efecto real de cada tratamiento, evitando que factores externos distorsionen los resultados.
  • Rango de validez de las conclusiones: Las conclusiones del experimento deben ser aplicables a un rango de situaciones lo más amplio posible. Los experimentos replicados y los diseños factoriales ayudan a ampliar este rango de validez, ya que permiten evaluar la consistencia de los resultados bajo diferentes condiciones.
  • Cuantificación de la incertidumbre: Todo experimento conlleva cierto grado de incertidumbre. Por ello, el diseño debe permitir calcular la probabilidad de que los resultados observados se deban únicamente al azar. Esta cuantificación es esencial para evaluar la solidez de las conclusiones.

Estos principios conducen a una clasificación clásica de los modelos estadísticos, propuesta por Eisenhart (1947), que conecta el diseño del experimento con el tipo de inferencia que se desea realizar:

  • Modelo de efectos fijos: se utiliza cuando las conclusiones se formulan sobre un conjunto específico y previamente definido de tratamientos. En este caso, el interés estadístico se centra en comparar los efectos medios de dichos tratamientos.
  • Modelo de efectos aleatorios: se aplica cuando los tratamientos evaluados representan una muestra aleatoria de una población más amplia de tratamientos. Aquí, las conclusiones se extienden más allá de los tratamientos observados y la inferencia se centra en las varianzas asociadas a dichos tratamientos.
  • Modelo de efectos mixtos: surge cuando el experimento combina tratamientos de efectos fijos y aleatorios en un mismo estudio.

Esta clasificación permite comprender cómo las decisiones sobre el diseño experimental influyen directamente en el tipo de conclusiones que pueden extraerse, un aspecto fundamental tanto en la práctica como en la divulgación de la ingeniería.

En este archivo de audio puedes escuchar una conversación sobre los tipos de experimentos.

En este vídeo se resumen las ideas más importantes sobre este tema.

Referencias:

Anscombe, F. J. (1947). The validity of comparative experiments. Journal of the Royal Statistical Society, 61, 181–211.

Brownlee, K. A. (1957). The principles of experimental design. Industrial Quality Control, 13, 1–9.

Eisenhart, C. (1947). The assumptions underlying the analysis of variance. Biometrics, 3, 1–21.

Melo, O. O., López, L. A., & Melo, S. E. (2007). Diseño de experimentos: métodos y aplicaciones. Universidad Nacional de Colombia. Facultad de Ciencias.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Se puede predecir el futuro? Claves de la estimación de costes en proyectos de ingeniería

En el ámbito de la ingeniería civil, planificar correctamente no es solo deseable, sino que es imprescindible para garantizar la eficiencia y la calidad en el desarrollo de proyectos. En todas las etapas de un proyecto, ya sea la construcción de una carretera, un puente o una infraestructura hidráulica, la estimación de costes es un componente esencial. La estimación precisa del costo de una obra es fundamental para tomar decisiones informadas, optimizar recursos y reducir riesgos. Para proceder con la estimación de costes, es preciso definir de manera precisa el concepto. Para ello, es necesario establecer los fundamentos técnicos y metodológicos que rigen dicha práctica.

El físico danés Niels Bohr, distinguido con el Premio Nobel en 1922, expresó en una ocasión: «Predecir es sumamente complejo, especialmente en lo que respecta al futuro». Esta expresión, originariamente empleada en el contexto de la física, resulta de aplicación en el ámbito de la estimación de costes, dada su compatibilidad tanto con su dimensión técnica como con la naturaleza incierta inherente a todo proceso de planificación.

La estimación de costes puede definirse como el proceso mediante el cual se recopilan y analizan datos históricos, y se aplican modelos cuantitativos, técnicas, herramientas y bases de datos con el objetivo de prever el coste futuro de un producto, proyecto, programa o tarea. En esencia, se trata de una práctica que integra elementos del arte y la ciencia, con el objetivo de estimar el valor, alcance o características probables de un elemento, en función de la información disponible en un momento determinado.

Uno de los pilares fundamentales de esta disciplina son los datos históricos. Como ocurre en cualquier otra actividad científica, la estimación de costes se apoya en evidencias contrastadas. Dado que no es posible disponer de datos futuros, es imperativo recurrir a la información relevante del pasado. La búsqueda y tratamiento de datos históricos es una labor esencial del profesional de la estimación. La recopilación, organización, normalización y gestión adecuadas de los datos históricos son valiosos para sentar una base sólida para el análisis posterior.

En lo que respecta a la estimación de costes, esta se fundamenta en el empleo de modelos cuantitativos, los cuales deben caracterizarse por su transparencia, racionalidad y capacidad de revisión por parte de terceros. Este componente científico ha sido determinante para que la asignatura de estimación de costes se integre de manera habitual en los departamentos universitarios de ingeniería de sistemas, investigación operativa o administración de empresas, lo que refleja su naturaleza técnica y rigurosa.

Un aspecto central de esta profesión es la capacidad de predecir. Frecuentemente, se escucha la afirmación de que «no se puede predecir el futuro», pero esta idea es engañosa. Si alguien afirma que «mañana va a llover», podrá estar en lo cierto o equivocado, pero en cualquier caso estará realizando una predicción. De hecho, muchas de nuestras decisiones cotidianas —como la elección de un paraguas o la planificación de una inversión— se fundamentan precisamente en el intento de anticipar el futuro. Predecir, también conocido como pronosticar, es una actividad legítima y valiosa, especialmente en campos como la ingeniería civil, donde los proyectos suelen implicar plazos largos, recursos significativos y un alto grado de incertidumbre.

Algunas voces críticas señalan que la utilización de datos históricos para estimar costes futuros podría implicar la repetición de errores del pasado en la toma de decisiones. Según esta lógica, estaríamos asumiendo que los gestores actuales cometerán los mismos fallos que sus predecesores, lo cual, según afirman, carece de sentido. Sin embargo, esta objeción se fundamenta en un error de base. Por un lado, los errores del pasado no suelen deberse a la incompetencia de quienes lideraban los proyectos, sino más bien a factores externos que escapaban a su control. Por otro lado, quienes gestionan proyectos en la actualidad se enfrentarán a un contexto diferente, con nuevos retos y condicionantes que también podrían obligarles a desviarse de sus planes iniciales. Como respuesta más irónica (pero igualmente válida), podría decirse que «no cometerás los mismos errores que tus antecesores: cometerás los tuyos propios».

Por último, es fundamental tener presente que toda estimación se realiza con base en la información disponible en el momento. Si bien nos gustaría contar con datos precisos sobre las condiciones futuras en las que se ejecutará un proyecto, la realidad es que solo podemos trabajar con lo que sabemos hoy, e intentar prever las circunstancias del mañana. Es comprensible que no sea posible anticipar todos los cambios que puedan producirse, especialmente en proyectos a largo plazo. A modo ilustrativo, si se está calculando el coste para producir de 200 m³ de hormigón en una planta propia para una obra, pero más adelante el cliente quiere un modificado de obra que nos obliga a producir 2000 m³, es evidente que nuestra estimación inicial no será válida para ese nuevo escenario. Sin embargo, en su momento, la estimación se ajustó a los supuestos establecidos. Por ello, el profesional encargado de estimar costes debe contemplar posibles contingencias y estar preparado para ajustar sus cálculos a medida que evolucionen los planes o cambien las condiciones del entorno.

En definitiva, la estimación de costes constituye una disciplina de gran importancia en el ámbito de la ingeniería civil y otras ramas técnicas, pues facilita la toma de decisiones fundamentadas en entornos caracterizados por la incertidumbre. Para su correcta aplicación, se requiere una combinación de análisis histórico, rigor matemático y juicio profesional. Se trata de una herramienta fundamental para el éxito de cualquier proyecto de gran envergadura.

Glosario de términos clave

  • Estimación de costes: Proceso de prever el coste futuro de un producto, proyecto, programa o tarea mediante la recopilación y análisis de datos históricos y la aplicación de modelos cuantitativos, técnicas, herramientas y bases de datos.
  • Datos históricos: Información relevante del pasado utilizada como evidencia para fundamentar la estimación de costes, dada la imposibilidad de disponer de datos futuros.
  • Modelos cuantitativos: Herramientas matemáticas y estadísticas empleadas en la estimación de costes, caracterizadas por ser transparentes, racionales y revisables.
  • Predecir/Pronosticar: La actividad de anticipar o prever eventos o valores futuros, crucial en campos como la ingeniería civil para la planificación.
  • Incertidumbre: La falta de certeza sobre las condiciones futuras en las que se ejecutará un proyecto, un factor inherente a la planificación a largo plazo.
  • Contingencias: Posibles eventos o cambios futuros que podrían afectar la estimación inicial de costes y que deben ser contemplados por el profesional.
  • Rigor matemático: La precisión y exactitud en la aplicación de principios y cálculos matemáticos en la estimación de costes.
  • Juicio profesional: La aplicación de la experiencia, el conocimiento y la intuición del experto en el proceso de estimación, complementando el análisis de datos y modelos.
  • Ingeniería civil: Disciplina de ingeniería que se ocupa del diseño, construcción y mantenimiento de infraestructuras físicas y naturales, como carreteras, puentes y sistemas hidráulicos.
  • Optimizar recursos: Utilizar los recursos disponibles de la manera más eficiente posible para lograr los objetivos del proyecto, facilitado por una estimación precisa de costes.

 

Referencias:

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Robustez estructural y colapso progresivo: claves para entender y proteger nuestras construcciones

Colapso de una torre de viviendas en Ronan Point (Reino Unido). By Derek Voller, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=59931718

La robustez estructural es la cualidad que permite a un edificio o puente soportar eventos inesperados —un fallo aislado, un impacto, una explosión—sin que ello provoque un colapso generalizado. Con el fin de aclarar el tema, se plantea la siguiente hipótesis: ¿qué ocurriría si un edificio perdiera de forma repentina uno de sus pilares portantes? En caso de que el diseño del edificio sea adecuado, las cargas que anteriormente transmitía dicho pilar se distribuirán de manera alternativa entre los elementos restantes, evitando así su colapso total. La capacidad de «resistir a contracorriente» ante situaciones inusuales se denomina robustez, constituyendo una línea de defensa fundamental para garantizar la seguridad de las personas y la continuidad del uso de la infraestructura.

El concepto puede resultar abstracto, pero es suficiente con considerar ejemplos dramáticos del pasado: en 1968, el colapso de una torre de viviendas en Ronan Point (Reino Unido) se originó por la explosión de una bombona de gas en un piso. Un fallo local aparentemente limitado desencadenó la caída de varias plantas, debido a la falta de mecanismos suficientes para redirigir las cargas. Por el contrario, un diseño sólido y bien fundamentado prevé esa posibilidad y mantiene la estructura del edificio en pie incluso tras el daño inicial, minimizando el número de víctimas y la magnitud del desastre.

Dentro de la robustez, se identifican diversas cualidades fundamentales. La redundancia implica disponer de múltiples vías para garantizar la llegada de las cargas al terreno. En caso de una interrupción en una de las vías, las demás están preparadas para asumir la carga de inmediato. La ductilidad se define como la capacidad de los materiales —como el acero, el hormigón armado o la madera— para deformarse sin quebrarse bruscamente. Esta «flexibilidad» les permite absorber la energía generada por impactos o terremotos, evitando así roturas instantáneas. La integridad estructural se define como la continuidad de todos los elementos conectados, de modo que las vigas, columnas y losas formen un conjunto que trabaje armónicamente y no se separe ante un esfuerzo puntual.

El colapso progresivo es un proceso en el que un fallo inicial genera otros a su alrededor, extendiéndose como una fiebre que consume toda la estructura. Analogía: el desplome de la primera ficha de dominó puede desencadenar la caída de todas las demás. En el ámbito de la ingeniería estructural, se busca evitar dicha reacción en cadena. Para ello, se implementan técnicas de «atado» o «conexión reforzada», mediante las cuales se une las vigas y columnas con armaduras continuas o refuerzos en puntos críticos. De esta manera, en caso de que falte un elemento, el resto del sistema no se ve comprometido.

En el ámbito de la ingeniería, la incorporación de la robustez en los proyectos se aborda mediante diversas estrategias. Una de las metodologías más eficaces consiste en anticipar los posibles escenarios de daño, tales como impactos de vehículos, explosiones accidentales o errores de construcción. Posteriormente, se verifica mediante modelos simplificados que la estructura mantiene su estabilidad incluso cuando falta un pilar o una viga. Otra estrategia prescriptiva consiste en el refuerzo de elementos clave, tales como las columnas exteriores o los núcleos de las escaleras, mediante la incorporación de armaduras o perfiles metálicos de mayor sección, a fin de actuar como «pilares de reserva» que soporten las cargas críticas.

La normativa europea, establecida en los Eurocódigos, ha establecido durante años la exigencia de que los edificios posean la capacidad de resistir sin colapsar de manera desproporcionada ante acciones accidentales. Es importante destacar que esta medida no implica tener que afrontar situaciones de alto riesgo, como bombardeos o terremotos de gran intensidad. En cambio, se refiere a la capacidad del edificio para resistir eventos menos probables pero potencialmente significativos, como la explosión de una tubería de gas o el choque de un camión contra un pilar. Para ello, se establecen diversos niveles de severidad del daño y se implementan criterios de diseño más o menos rigurosos, en función del riesgo para las personas y el entorno.

En la práctica, estos requisitos se traducen en aspectos constructivos específicos, tales como la unión de las vigas de forjado a las vigas principales y a los muros de cerramiento, la instalación de estribos continuos en las columnas para mejorar su comportamiento ante daños localizados o la previsión de refuerzos metálicos en los puntos de unión más expuestos. Asimismo, se recomienda el empleo de materiales con suficiente ductilidad, como aceros estructurales de alta deformabilidad, y técnicas de construcción que garanticen conexiones firmes, tales como soldaduras completas, atornillados de alta resistencia o conectores especiales en estructuras de madera.

Estos principios, además de aplicarse a la obra nueva, también se emplean en el refuerzo de edificios existentes. En el proceso de rehabilitación de estructuras antiguas, con frecuencia se implementa la adición de pórticos metálicos interiores o el refuerzo de las conexiones de hormigón armado con fibras de carbono, con el propósito de incrementar la ductilidad. En el caso de los puentes, se instalan amortiguadores o cables adicionales que permitan la redistribución de esfuerzos en caso de rotura de un tirante. El objetivo principal es la integración de elementos de seguridad en el sistema portante.

En resumen, la robustez estructural es un enfoque global que integra el diseño conceptual, el análisis de riesgos, la definición de escenarios y los detalles constructivos, con el objetivo de evitar que un fallo puntual derive en un colapso mayor. Es imperativo comprender el colapso progresivo y aplicar medidas de redundancia, ductilidad e integridad —junto a estrategias prescriptivas y de análisis directo—. De esta manera, nuestros edificios y puentes se convierten en sistemas más seguros, preparados para afrontar lo imprevisto y reducir al máximo las consecuencias de cualquier incidente.

Tómese un momento para consultar el siguiente texto, que contiene información adicional relevante para su referencia. El presente informe, elaborado por la EU Science Hub, en consonancia con los Eurocódigos, aborda el tema de la resistencia estructural, con el propósito de prevenir colapsos progresivos y desproporcionados en estructuras tales como edificios y puentes. Por favor, proceda a analizar las directrices de diseño vigentes en Europa y en otros países, identificando fortalezas y debilidades de las normativas actuales. El documento propone nuevas estrategias de diseño, como métodos mejorados de fuerza de atado horizontal y consideraciones sobre rutas de carga alternativas, y aborda la importancia de tener en cuenta el envejecimiento, el deterioro y el diseño multirriesgo. Se presentan ejemplos ilustrativos de aplicación a diversas estructuras.

Pincha aquí para descargar

Glosario de términos clave

  • Robustez (estructural): Capacidad o propiedad de un sistema para evitar una variación desproporcionada del rendimiento estructural (rendimiento del sistema) con respecto al daño correspondiente (perturbación del sistema).
  • Vulnerabilidad: Describe el grado de susceptibilidad de un sistema estructural a alcanzar un determinado nivel de consecuencias ante un evento peligroso dado.
  • Daño admisible (damage tolerance): Capacidad de un sistema estructural para soportar un determinado nivel de daño sin perder el equilibrio con las cargas aplicadas.
  • Continuidad: Conexión continua de los miembros de un sistema estructural.
  • Ductilidad: Capacidad de un sistema estructural para soportar las cargas aplicadas disipando energía plástica.
  • Integridad: Condición de un sistema estructural para permitir la transferencia de fuerzas entre los miembros en caso de eventos accidentales.
  • Incertidumbres: Estado de información deficiente, por ejemplo, relacionada con la comprensión o el conocimiento de un evento, su consecuencia o probabilidad.
  • Probabilidad: Expresión matemática del grado de confianza en una predicción.
  • Fiabilidad (reliability): Medida probabilística de la capacidad de un sistema estructural para cumplir con requisitos de diseño específicos. La fiabilidad se expresa comúnmente como el complemento de la probabilidad de falla.
  • Seguridad estructural: Calidad de un sistema estructural, referida a la resistencia, estabilidad e integridad de una estructura para soportar los peligros a los que es probable que esté expuesta durante su vida útil.
  • Riesgo: Una medida de la combinación (generalmente el producto) de la probabilidad o frecuencia de ocurrencia de un peligro definido y la magnitud de las consecuencias de la ocurrencia.
  • Redundancia: La capacidad del sistema para redistribuir la carga que ya no puede soportar algunos elementos dañados y/o deteriorados entre sus miembros.
  • Peligro: Amenaza excepcionalmente inusual y severa, por ejemplo, una posible acción anormal o influencia ambiental, resistencia o rigidez insuficiente, o desviación perjudicial excesiva de las dimensiones previstas.
  • Escenario peligroso: Serie de situaciones, transitorias en el tiempo, que un sistema podría experimentar y que pueden poner en peligro el propio sistema, a las personas y al medio ambiente.
  • Consecuencias del fallo: Los resultados o impactos de un fallo estructural pueden ser directos (daño a elementos afectados directamente) o indirectos (fallo parcial o total del sistema subsiguiente).
  • Análisis por presión-impulso (pressure–impulse analysis): Método utilizado para evaluar el rendimiento y el daño de elementos estructurales individuales bajo carga dinámica, definido por curvas iso-daño que relacionan la presión y el impulso.
  • Capacidad de diseño (capacity design): Un principio de diseño sísmico que establece una jerarquía de resistencias de los miembros para garantizar que las rótulas plásticas se formen en las ubicaciones deseadas, típicamente en las vigas en lugar de en las columnas (regla columna débil-viga fuerte – SCWB).
  • Factor de robustez R(𝜌, Δ): Un factor propuesto para cuantificar la robustez estructural, que relaciona el indicador de rendimiento residual (𝜌) con el índice de daño (Δ), a menudo mediante un parámetro de forma (𝛼).
  • Atados (ties): Elementos o disposiciones utilizados en el diseño estructural para proporcionar resistencia a la tracción y mejorar la robustez, especialmente en caso de pérdida de un elemento vertical de soporte de carga. Pueden ser horizontales o verticales.

Referencias:

MAKOOND, N.; SETIAWAN, A.; BUITRAGO, M., ADAM, J.M. (2024). Arresting failure propagation in buildings through collapse isolation. Nature 629, 592–596 (2024). DOI:10.1038/s41586-024-07268-5

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

Incertidumbres en la estimación de los costes de un proyecto

A pesar de los esfuerzos por realizar un presupuesto preciso, sigue siendo una estimación en condiciones de incertidumbre. Los proyectos únicos están expuestos a riesgos en múltiples aspectos, como su programación y costos.

Las causas de la incertidumbre en los costos del proyecto son diversas e incluyen problemas de escala de precios, discrepancias entre los recursos necesarios y los proyectados, variaciones en las estimaciones de tiempo para actividades y cambios en los requisitos del proyecto.

Estos cambios pueden tener diversas causas, como suposiciones incorrectas del estimador, un mayor conocimiento del comportamiento del proyecto por parte del estimador o el promotor, o modificaciones en las bases legales en las que se realizó la estimación.

Para afrontar esta situación, un gestor de proyectos competente debe anticiparse y tomar medidas adecuadas, incluyendo planes de contingencia en caso de que algunos supuestos del proyecto no se cumplan. Una estrategia eficaz es implementar un enfoque para gestionar el riesgo.

En general, la gestión del riesgo abarca tres áreas: identificación, análisis y respuesta. La identificación implica examinar todas las posibles fuentes de riesgo en el proyecto. El análisis consiste en evaluar el impacto de decisiones mediante la asignación de distribuciones probabilísticas a los resultados. La respuesta implica decidir qué riesgos prepararse, cuáles ignorar y cuáles mantener como potenciales.

Existen diversas metodologías para estimar la probabilidad de cumplir un presupuesto específico. Una de ellas es la simulación, que proporciona información sobre el rango y la distribución de los costos del proyecto. Para ello, es necesario establecer valores pesimistas, optimistas y más probables para cada partida. El valor optimista se alcanza o se supera solo en el 1% o menos de los casos. El valor pesimista se alcanza o se supera solo en el 1% o menos de los casos. Por último, el valor más probable o realista representa la moda de la distribución de los datos.

De esta forma, al igual que se haría en el caso del uso de la distribución Beta para el caso del PERT en la programación de proyectos. Concretamente, el coste medio se obtiene como la sexta parte de la suma del valor optimista, el pesimista y cuatro veces el más probable. De manera análoga, la desviación típica del coste de la partida correspondería a la sexta parte de la diferencia entre el coste pesimista y el optimista. El valor utilizado como cociente en este cálculo de la desviación típica está determinado por el intervalo de confianza deseado.

Las ponderaciones empleadas se fundamentan en una aproximación de la distribución de probabilidades denominada Beta. La elección de esta distribución es arbitraria y no se basa en datos empíricos. Se opta por ella debido a que es una distribución unimodal, no necesariamente simétrica, con extremos finitos y no negativos.

Si se cuenta con un número suficiente de partidas y se asume que el coste de cada una es estadísticamente independiente de las demás, se puede aplicar el Teorema Central del Límite. Esto permite aproximar la distribución del coste total del proyecto a una distribución normal, con la suma de las medias de los costes de cada partida como su media y la suma de las varianzas de cada partida como su varianza. Con la media y la desviación típica de la distribución normal, es posible calcular la probabilidad de cumplir con un presupuesto determinado.

Esta metodología se aplica con el propósito de superar la imprecisión de un problema estocástico, simplificándolo a uno determinístico mediante un cálculo simplificado. En lugar de considerar el coste total de la obra, se sustituye por la suma de las medias de todos los costes. Así, el coste se trata como una variable aleatoria y se introduce un enfoque probabilístico para su determinación, lo cual refleja mejor la realidad. Sin embargo, para que este enfoque sea válido, deben cumplirse las condiciones necesarias para aplicar el teorema central del límite.

A continuación os dejo un ejercicio completamente resuelto que, espero, os sea de interés. Este tipo de problemas forma parte del Curso de gestión de costes y producción de la maquinaria empleada en la construcción. Para los interesados, os dejo este enlace: https://ingeoexpert.com/cursos/curso-de-gestion-de-costes-y-produccion-de-la-maquinaria-empleada-en-la-construccion/

Pincha aquí para descargar

Referencias:

YEPES, V.; MARTÍ, J.V.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2012). Técnicas de planificación y control de obras. Editorial de la Universitat Politècnica de València. Ref. 189. Valencia, 94 pp.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente n.º 97.439. Ed. Universitat Politècnica de València. 253 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Cursos:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Consideración de la incerteza y de multidisciplinas en la determinación de criterios sostenibles de caminos rurales usando la lógica neutrosófica

A continuación os presento un artículo que se publicó en inglés, pero que os lo paso en español para que pueda tener mayor repercusión. Dicho trabajo recibió el Premio Jaume Blasco a la Innovación en el XXV Congreso Internacional de Dirección e Ingeniería de Proyectos AEIPRO 2021. Se trata de una colaboración con profesores chilenos y que está incluida dentro del proyecto de investigación HYDELIFE.

RESUMEN

En Latinoamérica, es posible encontrar una gran brecha entre los kilómetros de caminos pavimentados y aquellos sin ningún tipo de protección. Esta condición se agrava en zonas rurales limitando las oportunidades de desarrollo y la calidad de vida de sus habitantes. En Chile existen programas estatales que buscan reducir la brecha territorial a través de soluciones de pavimentación básicas de bajo costo; sin embargo, los criterios de priorización de caminos rurales no son claros. Múltiples actores influyen en el territorio rural y la inexistencia de patrones de referencia aumenta la subjetividad en la toma de decisión de infraestructura. Este estudio busca determinar criterios que influyan en la selección de caminos rurales en el Sur de Chile para promover un desarrollo territorial sostenible; en consideración de los múltiples actores y la incertidumbre del proceso de selección. Para ello se realizó una revisión documental y 12 entrevistas semiestructuradas. Los criterios se validaron a través de un panel de expertos multidisciplinar y la aplicación de números neutrosóficos para tratar la incertidumbre derivada de la consulta a expertos. El resultado de este estudio aportó catorce criterios sostenibles para apoyar la planificación de caminos básicos rurales en el Sur de Chile.

Referencia:

SIERRA, L.; ARAYA, F.; YEPES, V. (2021). Consideration of uncertainty and multiple disciplines in the determination of sustainable criteria for rural roads using neutrosophic logic.  Sustainability, 13(17):9854. DOI:10.3390/su13179854

Os dejo a continuación el artículo completo.

Pincha aquí para descargar

 

Sostenibilidad de las carreteras rurales mediante la lógica neutrosófica

Acaban de publicarnos un artículo en la revista Sustainability, revista indexada en el JCR. En este caso se ha considerado la incertidumbre en la determinación de los criterios para la sostenibilidad en carreteras rurales usando la lógica neutrosófica. El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.

En Latinoamérica existe una gran diferencia entre los kilómetros de vías pavimentadas y los que no tienen ningún tipo de protección. Esta situación se agrava en las zonas rurales, limitando las oportunidades de desarrollo y la calidad de vida de los habitantes. En Chile, existen programas estatales que buscan reducir la brecha territorial a través de soluciones básicas de pavimentación de bajo costo; sin embargo, los criterios de priorización aplicables a los caminos rurales son poco claros. Son múltiples los actores que intervienen en los espacios rurales, y la inexistencia de patrones de referencia aumenta la subjetividad en la toma de decisiones de este tipo de infraestructuras. Este estudio intenta determinar los criterios que influyen en la selección de caminos rurales en el sur de Chile para promover el desarrollo territorial sostenible considerando los múltiples actores y la incertidumbre del proceso de selección. Para ello, se realizó una revisión documental, visitas a terreno y 12 entrevistas semiestructuradas. Los criterios se han validado a través de un panel multidisciplinario de expertos y la aplicación de números neutrosóficos para abordar la incertidumbre derivada de estas consultas. Los resultados de este estudio aportan 14 criterios basados en la sostenibilidad para apoyar la planificación de caminos rurales básicos en el sur de Chile.

Abstract:

In Latin America, there is a wide gap between kilometers of paved ways and those with no type of protection. This situation is worse in rural areas, limiting development opportunities and inhabitants’ quality of life. In Chile, there are state programs that seek to reduce the territorial gap through basic low-cost paving solutions; however, the prioritization criteria for rural roads are unclear. Multiple actors affect the rural territories, and the non-existence of reference patterns increases subjectivity in infrastructure decision making. This study attempts to determine criteria that influence the selection of rural roads in southern Chile to promote sustainable territorial development considering multiple actors and the uncertainty of the selection process. For this, a documentary review, field visits, and 12 semi-structured interviews were conducted. The criteria are validated through a multidisciplinary panel of experts and the application of neutrosophic numbers to address the uncertainty derived from the expert consultations. The results of this study contribute 14 sustainable criteria in order to support the planning of basic rural roads in southern Chile.

Keywords:

Rural road; uncertainty; Chile; neutrosophic; sustainability; stakeholders

Reference:

SIERRA, L.; ARAYA, F.; YEPES, V. (2021). Consideration of uncertainty and multiple disciplines in the determination of sustainable criteria for rural roads using neutrosophic logic. Sustainability, 13(17):9854. DOI:10.3390/su13179854

Pincha aquí para descargar