El cribado se refiere a la clasificación por tamaño de los fragmentos de un material, generalmente aquellos que tienen un tamaño superior a 2 mm. Estos fragmentos presentan diversas dimensiones y formas. Se someten a una superficie con aberturas, conocida como superficie de cribado, que permite el paso de los fragmentos más pequeños que la apertura (llamados pasantes) y retiene o rechaza aquellos de un tamaño mayor (rechazo).
El cribado se utiliza para separar los fragmentos más gruesos, ya sea para eliminarlos o para someterlos a un proceso de fragmentación adicional, en comparación con los fragmentos que tienen el tamaño requerido. Además, elimina los elementos más finos, como las arcillas o los elementos coloidales (este proceso se conoce como deslamado).
Los métodos de cribado más comunes incluyen el uso de mallas de alambre metálico y chapas perforadas con agujeros circulares. Las máquinas más empleadas son el trómel o criba rotativa y el tamiz o criba plana. Además, el cribado se puede realizar en seco o en húmedo.
En el caso del cribado en seco, el material se somete al cribado tal como se obtiene de la cantera. Sin embargo, presenta la desventaja de que, cuando contiene cierta humedad, los agujeros se obstruyen fácilmente, especialmente en los tamaños más pequeños, como en el caso de la arena. El secado del material resulta costoso desde el punto de vista económico. Por otro lado, el cribado en húmedo evita la obstrucción de los agujeros y, al mismo tiempo, permite el lavado de los áridos, lo cual resulta más ventajoso, aunque implica un mayor costo de instalación y la necesidad de un proceso adicional para la recuperación de los finos.
Rechazo: Porcentaje de partículas que quedan retenidas en una criba y tienen un tamaño superior al valor de clasificación establecido.
Pasante: Porcentaje de partículas que atraviesan una criba y tienen un tamaño inferior al valor de clasificación establecido.
Semitamaño: Porcentaje de alimentación a una criba compuesto por partículas con un tamaño inferior a la mitad del valor de clasificación.
Desclasificados: Porcentaje o masa de partículas finas que no pasan a través de la criba y se mezclan con la fracción más gruesa (rechazo).
Todo-Uno: Es la mezcla completa antes de su clasificación.
Terminología empleada en la clasificación por tamaños:
Escalpado: Operación que consiste en eliminar fragmentos grandes que pueden representar un peligro u obstáculo para las etapas siguientes del proceso.
Precribado: Fracción fina con el tamaño adecuado que se evita que pase a la siguiente etapa de trituración o machaqueo.
Calibrado: Clasificación para calibres superiores a 100 mm. Se utilizan parrillas fijas o dinámicas.
Cribado: Clasificación de tamaños entre 150 μm y 100 mm. Se emplean trómeles, cribas de sacudidas o cribas vibrantes.
Tamizado: Clasificación de tamaños entre 40 μm y 150 μm. Se usan cribas rotativas o tamices vibrantes.
Recribado: Operación adicional de clasificación que tiene como objetivo mejorar la eliminación de la fracción fina, en particular para la eliminación de impurezas.
Agotado: Operación que consiste en eliminar el exceso de líquido (generalmente agua) de las mezclas sólido-líquido que se manejan en procesos húmedos.
Os dejo varios vídeos sobre el cribado de áridos:
Referencias:
FUEYO, L. (1999). Equipos de trituración, molienda y clasificación. Tecnología, diseño y aplicación. Ed. Rocas y Minerales, Madrid, 360 pp.
MARFANY, A. (2004). Tecnología de canteras y graveras. Fueyo Editores, Madrid, 525 pp.
LÓPEZ JIMENO, C. (ed.) (1998). Manual de áridos. Prospección, explotación y aplicaciones. 3ª edición, E.T.S. de Ingenieros de Minas de Madrid, 607 pp.
LÓPEZ JIMENO, C.; LUACES, C. (eds.) (2020). Manual de Áridos para el Siglo XXI. Asociación Nacional de Empresarios Fabricantes de Áridos — ANEFA, Madrid, 1328 pp.
MARTÍ, J.V.; GONZÁLEZ, F.; YEPES, V. (2005). Temas de procedimientos de construcción. Extracción y tratamiento de áridos. Editorial de la Universidad Politécnica de Valencia. Ref. 2005.165. Valencia, 74 pp.
A pesar de los esfuerzos por realizar un presupuesto preciso, sigue siendo una estimación en condiciones de incertidumbre. Los proyectos únicos están expuestos a riesgos en múltiples aspectos, como su programación y costos.
Las causas de la incertidumbre en los costos del proyecto son diversas e incluyen problemas de escala de precios, discrepancias entre los recursos necesarios y los proyectados, variaciones en las estimaciones de tiempo para actividades y cambios en los requisitos del proyecto.
Estos cambios pueden tener diversas causas, como suposiciones incorrectas del estimador, un mayor conocimiento del comportamiento del proyecto por parte del estimador o el promotor, o modificaciones en las bases legales en las que se realizó la estimación.
Para afrontar esta situación, un gestor de proyectos competente debe anticiparse y tomar medidas adecuadas, incluyendo planes de contingencia en caso de que algunos supuestos del proyecto no se cumplan. Una estrategia eficaz es implementar un enfoque para gestionar el riesgo.
En general, la gestión del riesgo abarca tres áreas: identificación, análisis y respuesta. La identificación implica examinar todas las posibles fuentes de riesgo en el proyecto. El análisis consiste en evaluar el impacto de decisiones mediante la asignación de distribuciones probabilísticas a los resultados. La respuesta implica decidir qué riesgos prepararse, cuáles ignorar y cuáles mantener como potenciales.
Existen diversas metodologías para estimar la probabilidad de cumplir un presupuesto específico. Una de ellas es la simulación, que proporciona información sobre el rango y la distribución de los costos del proyecto. Para ello, es necesario establecer valores pesimistas, optimistas y más probables para cada partida. El valor optimista se alcanza o se supera solo en el 1% o menos de los casos. El valor pesimista se alcanza o se supera solo en el 1% o menos de los casos. Por último, el valor más probable o realista representa la moda de la distribución de los datos.
De esta forma, al igual que se haría en el caso del uso de la distribución Beta para el caso del PERT en la programación de proyectos. Concretamente, el coste medio se obtiene como la sexta parte de la suma del valor optimista, el pesimista y cuatro veces el más probable. De manera análoga, la desviación típica del coste de la partida correspondería a la sexta parte de la diferencia entre el coste pesimista y el optimista. El valor utilizado como cociente en este cálculo de la desviación típica está determinado por el intervalo de confianza deseado.
Las ponderaciones empleadas se fundamentan en una aproximación de la distribución de probabilidades denominada Beta. La elección de esta distribución es arbitraria y no se basa en datos empíricos. Se opta por ella debido a que es una distribución unimodal, no necesariamente simétrica, con extremos finitos y no negativos.
Si se cuenta con un número suficiente de partidas y se asume que el coste de cada una es estadísticamente independiente de las demás, se puede aplicar el Teorema Central del Límite. Esto permite aproximar la distribución del coste total del proyecto a una distribución normal, con la suma de las medias de los costes de cada partida como su media y la suma de las varianzas de cada partida como su varianza. Con la media y la desviación típica de la distribución normal, es posible calcular la probabilidad de cumplir con un presupuesto determinado.
Esta metodología se aplica con el propósito de superar la imprecisión de un problema estocástico, simplificándolo a uno determinístico mediante un cálculo simplificado. En lugar de considerar el coste total de la obra, se sustituye por la suma de las medias de todos los costes. Así, el coste se trata como una variable aleatoria y se introduce un enfoque probabilístico para su determinación, lo cual refleja mejor la realidad. Sin embargo, para que este enfoque sea válido, deben cumplirse las condiciones necesarias para aplicar el teorema central del límite.
YEPES, V.; MARTÍ, J.V.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2012). Técnicas de planificación y control de obras. Editorial de la Universitat Politècnica de València. Ref. 189. Valencia, 94 pp.
El esquema de circulación es un dibujo que representa los movimientos de los áridos durante los diferentes procesos de trituración, clasificación y almacenamiento, incluyendo los retornos y reciclajes. Estos esquemas se elaboran antes de diseñar la instalación y deben analizarse detalladamente, considerando todas las opciones necesarias para lograr los resultados deseados y sus variantes. Requieren varias iteraciones y ajustes para encontrar la solución más adecuada al problema.
En el esquema, es importante incluir números que indiquen el tamaño de la entrada y la configuración de apertura de salida asignados a cada trituradora. En el caso de las cribas, además de su identificación, deben aparecer las aperturas de malla correspondientes a cada nivel de cribado. Asimismo, en los alimentadores, es necesario indicar su identificación junto con el tamaño máximo de alimentación permitido.
Las líneas que representan las circulaciones deben incluir el caudal horario y el tamaño del árido, indicando sus límites inferior y superior en milímetros. El caudal debe expresarse en toneladas por hora.
Es importante tener en cuenta que las posiciones relativas de las máquinas en el esquema de circulación no reflejan necesariamente las que se adoptarán en el proyecto final. Los acopios representados son simbólicos y podrán ser realizados en forma de montón, depósito de fábrica o tolvas metálicas, pudiendo ser abiertos, cubiertos o cerrados.
El esquema definitivo, que se adopta como solución, se obtiene mediante un proceso iterativo que comienza con una hipótesis de maquinaria con la capacidad adecuada. Se efectúan modificaciones en las variables hasta lograr la proporción de áridos deseada dentro de una tolerancia establecida. Las variables incluyen:
Ajuste de la apertura de salida de los trituradores.
Control de la abertura de las parrillas de los molinos.
Determinación del porcentaje de material pretriturado y clasificado que se someterá a trituración secundaria.
Selección del tipo de máquina utilizada en la trituración secundaria.
Evaluación de la opción de reciclar el material empleando la misma máquina, ya sea con o sin clasificación previa.
Consideración de la posibilidad de efectuar trituraciones terciarias en una o varias fracciones del material clasificado.
A continuación recojo un problema resuelto donde se puede apreciar las características básicas de un ejemplo de circulación y flujos para una instalación de tratamiento de áridos. Espero que sea de vuestro interés.
LÓPEZ JIMENO, C. (ed.) (1998). Manual de áridos. Prospección, explotación y aplicaciones. 3ª edición, E.T.S. de Ingenieros de Minas de Madrid, 607 pp.
LÓPEZ JIMENO, C.; LUACES, C. (eds.) (2020). Manual de Áridos para el Siglo XXI. Asociación Nacional de Empresarios Fabricantes de Áridos— ANEFA, Madrid, 1328 pp.
MARTÍ, J.V.; GONZÁLEZ, F.; YEPES, V. (2005). Temas de procedimientos de construcción. Extracción y tratamiento de áridos. Editorial de la Universidad Politécnica de Valencia. Ref. 2005.165. Valencia, 74 pp.
A continuación os dejo una sencilla demostración del asiento que tiene una capa que se ha compactado en función de su espesor inicial y de los pesos específicos anterior y posterior a la compactación. Se trata de una forma indirecta de controlar si se ha alcanzado el grado de compactación deseado. También permite tener una idea de cuánto va a descender la capa una vez compactada.
Acaban de publicarnos en la revista Journal of Building Engineering, que está en el primer decil del JCR, un artículo de revisión sobre el estado actual de los métodos modernos de construcción. Estos métodos, conocidos como “construcción inteligente“, son alternativas a la construcción tradicional. El gobierno del Reino Unido utilizó este término para describir una serie de innovaciones en la construcción de viviendas, la mayoría de las cuales se basan en tecnologías de construcción en fábrica. Este concepto abarca una amplia gama de tecnologías basadas en la fabricación modular, ya sea en el lugar de construcción o en otra ubicación, y está revolucionando la forma en que se construyen edificios de manera más rápida, rentable y eficiente. También se conoce comúnmente como construcción “off-site”. El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.
El creciente interés por la sostenibilidad, las energías alternativas y los cambios en el estilo de vida debido a la pandemia ha impulsado la fabricación de edificaciones empleando los métodos modernos de construcción (Modern Methods of Construction, MMC), especialmente en el ámbito residencial. Estos métodos, que utilizan tecnologías innovadoras como alternativa inteligente a la construcción tradicional, han sido objeto de un exhaustivo estudio que busca clasificarlos, detectar tendencias y vacíos de conocimiento, y delinear futuras áreas de investigación. El análisis, basado en 633 publicaciones desde 1975 hasta 2022, revela seis grupos temáticos y 18 subcategorías, empleando una novedosa metodología mixta que incorpora el análisis de procesamiento de lenguaje natural (NLP). Si bien se destaca la presencia dominante de herramientas y tecnologías integradas en la Construcción 4.0 y los aspectos de gestión de la industria, también se identifican importantes lagunas de investigación, como la necesidad de aplicar más los MMC en la rehabilitación de edificios y abordar enfoques para mejorar el entorno construido a través del nuevo paradigma del diseño regenerativo. Este estudio exhaustivo ofrece una comprensión más profunda y rigurosa del estado del arte en el campo de la construcción inteligente mediante un mapeo y caracterización de la estructura conceptual del corpus bibliográfico y una evaluación sistemática basada en revisión de literatura. El artículo sugiere que se necesita más investigación para comprender los sistemas de construcción interdependientes mediante el uso de gemelos digitales.
Aspectos destacables:
El estudio utiliza aprendizaje automático combinado con una revisión sistemática de la literatura.
Se propone una novedosa metodología mixta que incorpora análisis de procesamiento de lenguaje natural.
Se recomienda una clasificación recientemente revisada para todos los MMC aplicados en edificios.
La literatura sobre MMC se clasificó en seis grandes áreas con 18 subcategorías.
Los temas se identifican mediante análisis de bigrama y agrupamiento, además del conocimiento experto.
Podéis descargar el artículo gratuitamente al tratarse de una publicación en acceso abierto:
The concerns surrounding sustainability, alternative energies, and lifestyle changes due to the pandemic have resulted in a surge in the manufacturing of buildings utilizing Modern Methods of Construction (MMC), particularly in housing. These methods involve using new technologies as smart building alternatives to traditional construction. Against the backdrop of Industry 4.0, there is an urgent need for a systematic literature review of MMCs in building construction to classify them, detect trends and gaps, and outline future research areas. This study analyzed 633 publications from 1975 to 2022 and grouped them into six thematic clusters and 18 subcategories, using a novel mixed methodology incorporating natural language processing (NLP) analysis. The qualitative analysis of the literature indicates that research in the field is dominated by tools and technologies integrated into Construction 4.0 and the industry’s management aspects. However, this review also highlights several gaps in research, including the need for more application of MMC to building retrofitting and the need for approaches to improve the built environment through the new paradigm of regenerative design. The high-level mapping and characterization of the bibliographic corpus’s conceptual structure and the classical evaluation process based on systematic literature review (SLR) have provided a more profound and rigorous state-of-the-art understanding.
Keywords:
Modern methods of construction; Industrialized buildings; Emerging technologies; Construction industry; Machine learning; Systematic literature review
El concepto de seguridad de una estructura en cumplir un conjunto de funciones para las que ha sido proyectada es un término relacionado con el grado de certeza o fiabilidad de que no alcance un conjunto de estados no deseables que todavía no han acontecido.
La seguridad se representa por consiguiente como un aspecto antagónico al aspecto económico del dimensionamiento: una estructura proyectada para un coste pequeño puede resultar poco segura y, por el contrario, una estructura proyectada para ser muy segura puede resultar antieconómica. La solución debe quedar en un término adecuado.
El concepto de seguridad en una estructura se refiere a su capacidad para cumplir con las funciones previstas, garantizando un nivel de fiabilidad que evite la ocurrencia de estados no deseados. La seguridad se contrapone al aspecto económico del diseño: una estructura económica puede ser menos segura, mientras que una estructura altamente segura puede resultar costosa. Por lo tanto, es necesario encontrar un equilibrio adecuado entre ambos aspectos.
El objetivo principal del Proyecto de Ingeniería Estructural consiste en garantizar que la estructura cumpla satisfactoriamente con su función original. El mantenimiento de esta funcionalidad a lo largo de su vida útil depende de diversos factores o parámetros que tradicionalmente se han considerado como cantidades deterministas.
Sin embargo, evaluar la seguridad en ingeniería es complicado debido a varios factores. En primer lugar, los accidentes pueden ocurrir por causas no relacionadas con los cálculos realizados, como erosiones o modelos inadecuados. Además, tratar el problema de forma aleatoria puede llevar a considerar la probabilidad como medida universal e invariable de seguridad. Sin embargo, la probabilidad solo es significativa en relación con un conjunto coherente de conocimientos, como los estados de falla no ocurridos, difíciles de definir. Además, existen incertidumbres que no pueden ser objetivamente cuantificadas mediante probabilidades. Por lo tanto, las probabilidades solo pueden ser definidas dentro de un contexto específico y los cálculos de probabilidad son meramente convencionales. Además, si bien medir el margen de seguridad a través de una magnitud física puede ser útil en un problema particular, no todas las magnitudes son adecuadas en todos los casos generales. Por ejemplo, las tensiones no son una magnitud adecuada para el estudio del equilibrio estático, y evaluar el margen de seguridad basándose en las tensiones puede ser incorrecto en problemas no lineales.
En el contexto de la Teoría de la Fiabilidad Estructural, Armen Der Kiureghian presenta los siguientes tipos de incertidumbres. En primer lugar, están las incertidumbres físicas, que surgen debido a la inherente variabilidad de las magnitudes físicas involucradas en el problema, como dimensiones, propiedades del material, cargas y resistencia. En segundo lugar, encontramos las incertidumbres estadísticas, que se originan a partir de los modelos probabilísticos utilizados para caracterizar las Variables Básicas del problema. Estas incertidumbres se deben a las aproximaciones necesarias para seleccionar las Funciones de Distribución y estimar sus parámetros, debido a la falta de información disponible. En tercer lugar, se presentan las incertidumbres del modelo, que son generadas por las hipótesis simplificativas realizadas en los modelos matemáticos empleados para describir la respuesta de un sistema estructural. Estas simplificaciones incluyen aspectos como la homogeneidad, el comportamiento elástico o elastoplástico, las pequeñas deformaciones y las condiciones de contorno. Aunque la variabilidad de los dos últimos tipos de incertidumbres puede reducirse a través del estudio e investigación, las incertidumbres físicas del primer tipo son inevitables.
En el pasado, las construcciones se basaban en métodos empíricos, confiando en la experiencia y la intuición del constructor para garantizar la seguridad. Sin embargo, en la actualidad, la experiencia debe complementarse con los resultados obtenidos, ya que la rápida evolución técnica puede presentar situaciones no experimentadas previamente. Con el surgimiento de la construcción metálica en el siglo XIX y el enfoque en la Resistencia de Materiales, se introdujo el método de tensiones admisibles. Este método implica un enfoque determinista en las variables utilizadas, donde la seguridad se basa en el margen establecido por las tensiones admisibles. Estas tensiones se obtienen mediante el cociente entre la resistencia del material y un coeficiente de seguridad, mientras que las cargas variables se establecen de manera empírica y arbitraria.
El desarrollo de la Teoría de la Elasticidad permitió aplicar este método en la construcción de hormigón armado, pero presenta desafíos. Cuando el comportamiento no es lineal debido a los materiales o la geometría de la estructura, las tensiones admisibles no reflejan el margen real de seguridad. Además, el comportamiento del hormigón y el acero dificulta definir el fallo en términos de tensiones. No se consideran los efectos de la adaptación plástica del hormigón, donde la tensión en un punto no determina la confiabilidad estructural si hay una fase de adaptación plástica que redistribuye los esfuerzos. Además, no se distinguen los diferentes tipos de acciones cuya influencia en la seguridad es distinta. No obstante, este método ha sido utilizado con profusión durante la primera mitad del siglo XX.
La Teoría de la Fiabilidad, que inicialmente se aplicaba a procesos industriales de producción en serie, se adaptó en 1960 al campo de la Ingeniería Estructural. El objetivo era desarrollar métodos que permitieran determinar los niveles de seguridad de los Sistemas Estructurales, mediante un enfoque racional de las incertidumbres presentes en ellos. Desde entonces, esta área de investigación ha experimentado un notable impulso, y los fundamentos teóricos desarrollados han dejado de ser exclusivamente un tema de investigación académica para convertirse en un conjunto de metodologías con una amplia gama de aplicaciones prácticas.
No obstante, los avances tecnológicos y los métodos de análisis han permitido realizar estudios de seguridad más precisos en las estructuras mediante la incorporación de modelos estadísticos y de probabilidad en los cálculos. Desde los primeros intentos, como el de Max Mayer en 1926, numerosos autores han contribuido al desarrollo del enfoque probabilístico y a su aplicación práctica. Para emplear la probabilidad en los cálculos, es necesario definir un conjunto coherente de eventos no deseados, denominados “estados límite”. Estos estados límite representan condiciones en las que una estructura o uno de sus elementos deja de cumplir su función de manera inmediata o progresiva. La seguridad se caracteriza por la probabilidad o conjunto de probabilidades de que los estados límite no sean superados. Al elegir la probabilidad de ocurrencia de un estado límite como medida convencional de la seguridad, es necesario establecer los valores aplicables en la práctica.
A primera vista, podría parecer que el uso de probabilidades resuelve por completo el problema de medir la seguridad. Sin embargo, su implementación enfrenta dos dificultades. Por un lado, están los datos que no se pueden cuantificar de manera probabilística debido a su naturaleza. Por otro lado, resulta prácticamente imposible conocer con precisión la probabilidad real de alcanzar un estado límite. Estas limitaciones dificultan la aplicación práctica de las probabilidades en la evaluación de la seguridad.
La seguridad puede tratarse en tres niveles, según el grado de simplificación en el abordaje del problema:
Nivel 3: Utiliza el cálculo de probabilidades sin restricciones en la representación de las incertidumbres.
Nivel 2: Representa las acciones, resistencias de materiales y secciones mediante distribuciones conocidas o asumidas, definidas por su tipo, media y desviación típica. La fiabilidad se expresa con el «índice de seguridad» (β).
Nivel 1: Establece niveles de fiabilidad estructural aplicando factores parciales de seguridad a valores nominales preestablecidos de las variables fundamentales.
Los métodos de nivel 2 y 3 emplean probabilidades que están vinculadas a hipótesis apriorísticas sobre las distribuciones de los datos.
En cambio, el método de nivel 1, conocido como método semiprobabilístico, considera solo ciertos elementos que se pueden cuantificar de manera probabilística, mientras que las demás incertidumbres se abordan mediante factores empíricos que poseen un significado físico específico. Este método es el más simple y ampliamente reconocido en la actualidad.
Os paso un vídeo explicativo sobre conceptos de fiabilidad estructural de Juan Carlos López Agüí, que espero os sea de interés.
Para garantizar que las relaciones entre la propiedad y el constructor queden bien definidas en el contrato de adjudicación de un proyecto, es esencial que el pliego de condiciones contenga ciertos conceptos clave. Estos conceptos deben ser cuidadosamente considerados y elaborados de manera clara y precisa. De esta forma, se podrá asegurar que tanto la propiedad como el constructor tengan una comprensión compartida de los términos y condiciones del contrato. Por lo tanto, es importante prestar atención a los detalles y asegurarse de que todas las especificaciones estén claramente definidas en el pliego de condiciones antes de proceder con la adjudicación de la obra.
El proceso de ejecución de obras implica considerar diversas variables que afectan a la construcción. Cada proyecto es único y se adapta a diferentes necesidades, recursos y ubicaciones. Estas características influyen en la programación, los equipos y el costo de la obra. Si la construcción se lleva a cabo mediante un contrato entre la propiedad y un constructor, la complejidad aumenta, pues puede afectar directamente la relación entre ambas partes. Por lo tanto, es fundamental que el proyectista considere estos factores al planificar y diseñar el proyecto para asegurar el éxito de la ejecución y evitar conflictos entre la propiedad y el constructor.
Para garantizar la integridad del proyecto, es relevante que el pliego de condiciones incluya aspectos técnicos y establezca relaciones claras entre la dirección de obra y el constructor. La dirección de obra es responsable ante la propiedad de que la obra se ejecute según lo planificado. Por lo tanto, estas condiciones deben reflejarse en un capítulo independiente del pliego, denominado “disposiciones generales”, pues no son parte de la normativa obligatoria ni de la descripción de la obra, materiales, ejecución o medición y pago. Estas disposiciones generales son fundamentales para asegurar una correcta ejecución de la obra.
Cuando se trata de un proyecto para la Administración Pública, el Pliego de Cláusulas Administrativas Generales para la Contratación de Obras del Estado establece muchos de los conceptos necesarios. Sin embargo, el proyectista debe mencionarlos igualmente. En proyectos para propiedades privadas, el proyectista debe redactar un articulado que regule las relaciones entre propiedad y contratista, sin abordar los temas económicos, que deben figurar en el contrato. Al incluir estos aspectos en el pliego de condiciones, el proyectista trata de garantizar la correcta ejecución de la obra, establecer las relaciones entre dirección de obra y constructor, y definir la calidad y cantidad de los materiales.
Para lograr los objetivos mencionados, es importante que el proyectista incluya ciertos aspectos en el pliego de condiciones de su proyecto. Esto facilitará que el licitador conozca las exigencias que se le requerirán en la ejecución de la obra, lo que le permitirá evaluar el coste y evitar alegar ignorancia en caso de ser adjudicado. Además, la propiedad podrá planificar la inversión complementaria al coste de construcción, mientras que los aspectos técnicos del proyecto se mantienen en el contrato de ejecución de la obra. Es relevante destacar que la propiedad puede modificar los aspectos económicos que considere necesarios.
Indemnizaciones al contratista por causas de fuerza mayor
Utilización de bienes que aparezcan durante la ejecución
Objetos hallados en las obras
Uso temporal de bienes de la propiedad
Inscripciones en las obras
Libre acceso a la propiedad en la obra
Plazo de ejecución
Prelación de los documentos del proyecto
ASPECTOS PREVIOS AL INICIO DE LAS OBRAS
Licencias y permisos
Ocupación de terrenos y su vigilancia
Accesos a la obra y tráfico
Servidumbres
Señalización de la obra
Canteras y procedencia de materiales (puede ser incluido en el capítulo correspondiente a materiales)
Vertederos y zonas de préstamos (ídem)
Fuentes de energía
Almacenes y edificaciones auxiliares de obra
Equipos e instalaciones auxiliares (puede incluirse en el capítulo ejecución de las obras)
Replanteo de la obra
Modificaciones en el proyecto como consecuencia del replanteo
Aportación de equipo, instalaciones y maquinaria necesarias para la ejecución (puede incluirse en el capítulo ejecución)
Programa de trabajos del contratista
Plan de seguridad y salud (puede hacerse en el estudio de seguridad y salud)
Medidas para evitación de contaminaciones
Orden de inicio de las obras
ASPECTOS DURANTE LA EJECUCIÓN DE LAS OBRAS
Inspección y vigilancia
Subcontratista de partes de obra
Protecciones en la obra
Protección de tráfico y propiedades contiguas
Conservación durante la ejecución
Trabajos ocultos
Reparaciones u obras de urgente ejecución
Obras defectuosas e incompletas (pueden incluirse en el capítulo Medición y Abono)
Modificaciones de obra en relación con el proyecto
Precios contradictorios
Variaciones en el plazo de ejecución consecuencia de las modificaciones
Suspensión temporal de las obras
Mejorar propuestas por el contratista
Modificaciones no autorizadas
Incumplimiento del programa de trabajos
Valoraciones periódicas de obra ejecutada (puede incluirse en el capítulo Medición y Abono)
Revisión de precios
Notificación de terminación de obra
ASPECTOS SUBSIGUIENTES A LA TERMINACIÓN DE LA OBRA
Acta de recepción provisional
Liquidación provisional
Periodo de garantía
Conservación durante el periodo de garantía
Vicios ocultos
Recepción definitiva
Liquidación definitiva
Os dejo un vídeo explicativo, editado por la Univesitat Politècnica de València que, espero, os sea de interés.
REFERENCIAS:
PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.
YEPES, V.; MARTÍ, J.V.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2012). Técnicas de planificación y control de obras. Editorial de la Universitat Politècnica de València. Ref. 189. Valencia, 94 pp. Depósito Legal: V-423-2012.
El Puente Juan Bravo en Madrid. http://www.dobooku.com/2017/10/el-puente-juan-bravo-en-madrid/
Una pieza mixta esencialmente consta de tres elementos principales:
Sección de hormigón: puede contener o no armadura pasiva y/o activa.
Sección metálica.
Elementos de conexión, también conocidos como conectores.
Gracias a la colaboración entre el hormigón y el acero, la sección mixta experimenta una deformación conjunta, controlando así cualquier deslizamiento relativo entre ambos materiales mediante los conectores.
Todas aquellas acciones diferenciales entre hormigón y acero generan esfuerzos internos y de corte en la interfase que pueden ser significativos y que hay que considerar en proyecto. Algunos de los factores a considerar son la retracción del hormigón, la fluencia, los efectos térmicos, la acción del pretensado, entre otros. Es fundamental analizar y comprobar la estructura frente a los estados límites de servicio.
Desde un punto de vista estructural, la construcción mixta presenta las siguientes características principales:
Reducción del espesor en dinteles, especialmente notable en luces más amplias. Esto se debe a la mayor rigidez y resistencia última proporcionada por la sección parcial de hormigón en comparación con una solución completamente metálica. Además, la zona traccionada también es más rígida en comparación con soluciones de hormigón armado y pretensado. En el caso de edificios, esto implica una menor altura de los pisos, lo que se traduce en ahorro de materiales y de instalaciones.
Mayor esbeltez de los soportes, lo que incrementa el espacio libre y mejora las condiciones estéticas de la estructura.
El aumento de rigidez mejora la capacidad de deformación y respuesta de la estructura frente a cargas dinámicas.
Desde el punto de vista constructivo, las estructuras mixtas ofrece una amplia variedad de tipologías, basadas en los materiales que la componen. Estos tipos constructivos pueden adaptarse según las necesidades prácticas de la ejecución. Algunas opciones a considerar son las siguientes:
Secciones de hormigón: se pueden utilizar secciones de hormigón in situ o prefabricadas, que pueden ser de hormigón en masa, armado o pretensado. También es posible emplear hormigón ligero.
Secciones metálicas: se pueden emplear perfiles, chapas o tubos metálicos. Estas secciones pueden ser atornilladas o soldadas, y pueden presentarse en formas de alma llena, en celosía o aligeradas. También es posible el uso de secciones metálicas pretensadas. Dichas secciones metálicas pueden estar completamente expuestas o parcial o totalmente empotradas en el hormigón.
Conexiones: las conexiones entre los elementos pueden ser parciales o totales. Además, pueden realizarse antes o después del endurecimiento del hormigón, así como antes o después del pretensado del hormigón o del acero.
En la construcción mixta, el proceso constructivo adquiere una importancia destacada, tanto desde el punto de vista analítico-estructural como desde la perspectiva económica. Esto se debe a la existencia de una amplia variedad de cargas previas a las sobrecargas de uso, lo que implica consideraciones adicionales tanto en el análisis estructural como en el aspecto económico.
En las referencias os podéis descargar, gratuitamente, un estado del arte reciente sobre este tipo de estructuras mixtas aplicadas a puentes. Creo que os puede resultar de utilidad. También os dejo un par de vídeos introductorios a las estructuras mixtas que espero os sean de interés.
El organismo promotor de un proyecto es el responsable de la financiación de una obra, sus gastos operativos y la comercialización de productos. Es el promotor quien debe considerar estos factores en función de los resultados del estudio técnico-económico previo, crucial para decidir si la realización del proyecto cumplirá con sus objetivos. Por lo tanto, el proyectista debe centrarse, cuando redacta un proyecto, en la implementación y ejecución eficiente de la obra de acuerdo con su finalidad y forma de explotación. Para ello, es fundamental que se realice un análisis detallado de viabilidad antes de redactar el proyecto para asegurarse de que se alcanzan los objetivos establecidos.
Es responsabilidad del proyectista considerar el problema en su totalidad y proponer múltiples soluciones, eligiendo la más adecuada con justificación. Por lo tanto, es fundamental que el estudio de soluciones sea fiable para garantizar la calidad del proyecto y minimizar las desviaciones entre la idea inicial del promotor y la realidad. En este proceso, el proyectista debe aprovechar su conocimiento técnico y creatividad, considerando los objetivos del proyecto, necesidades, recursos y medios disponibles. Este enfoque asegura el éxito del proyecto y satisface los requisitos del promotor.
El estudio de soluciones implica que el proyectista considere todas las posibilidades y las desarrolle de manera breve pero fundamentada, estableciendo un criterio de comparación. El objetivo es encontrar la solución óptima en términos técnicos, de coste y plazo de ejecución, así como en la facilidad y menor coste de conservación de la obra, mediante una evaluación uniforme de las ventajas e inconvenientes de cada opción. Es importante que se evalúen todas las posibilidades de manera exhaustiva para determinar la mejor solución.
Los factores a considerar dependen de la naturaleza del proyecto, entre ellos: ubicación, topografía, geología, estudios previos y específicos, necesidades, recursos, limitaciones, impacto ambiental, estética, servidumbres, accesos y circulación interior, suministros, evacuación de aguas residuales, tipología estructural, materiales, vida útil, fraccionamiento y proceso constructivo. También se debe considerar el coste de la obra, el terreno, las obras auxiliares y la reposición de servidumbres, así como la facilidad y coste de la conservación.
Considerando la importancia de la ubicación, la funcionalidad y la tipología estructural en la toma de decisiones del proyectista, resulta apropiado distinguir entre diferentes términos según la opción que se considere. Así, se sugiere usar “alternativa” cuando se trata de la ubicación, “solución” cuando se refiere a la funcionalidad y “variante” cuando se aborda la tipología estructural o aspecto estético del conjunto o de alguna de sus partes. De esta forma, se establece una clasificación clara y precisa que permite abordar cada aspecto de manera adecuada.
Para clarificar las denominaciones mencionadas, se debe considerar que una alternativa puede desencadenar múltiples soluciones y, a su vez, cada una de ellas puede dar lugar a diversas variantes. Si la ubicación está predefinida o es única, se puede utilizar la denominación “solución” en lugar de “alternativa”, y la de “variante” en lugar de “solución”. En este caso, “alternativa” se reservaría para otras variables que generen posibilidades adicionales.
En la memoria del proyecto, el autor debe resumir cada opción considerada, incluyendo las bases del proceso y razonamiento empleado para su establecimiento, una descripción de las obras, su coste estimado y su plazo de ejecución. En los anejos correspondientes, se justificarán los aspectos mencionados en la memoria, incluyendo los cálculos, el proceso constructivo y el plan de obra, la relación de precios y el presupuesto orientativo para cada opción. Además, es importante incluir esquemas, croquis o dibujos que representen gráficamente la obra y reflejar los materiales previstos. En el anejo también se incluirá un resumen de las características principales de cada opción estudiada, así como sus ventajas e inconvenientes. Este resumen justificará la elección de la solución más idónea, que puede ser incluida en el mismo anejo o en un anejo independiente.
REFERENCIAS:
PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.
YEPES, V.; MARTÍ, J.V.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2012). Técnicas de planificación y control de obras. Editorial de la Universitat Politècnica de València. Ref. 189. Valencia, 94 pp. Depósito Legal: V-423-2012.
En España, las centrales discontinuas fueron el método predominante para la producción de áridos mezclados con betún hasta los años 80. En ese momento, se introdujo la tecnología de la central continua de tambor secador-mezclador (drum-mixer), capaz de producir hasta 600 toneladas por hora. Esta innovadora planta cuenta con un tambor cilíndrico que se encarga de secar los áridos y mezclarlos con el betún. El tambor gira sobre su propio eje gracias a un motor reductor alimentado por un motor eléctrico.
Las plantas continuas de tambor secador-mezclador se dividen en dos secciones: la primera calienta los áridos, mientras que en la segunda se agregan el ligante y el filler para mezclar. Aunque la corriente de gases durante el proceso arrastra partículas de polvo mineral, el betún presente en la mezcla limita la extracción del filler al 20-25%. Los álabes del tambor se cierran en la zona del quemador para proteger los materiales de la llama, y se abren gradualmente para aumentar el contacto con los gases de la combustión sin oxidar excesivamente el ligante.
El proceso de producción de mezclas asfálticas con áridos fríos comienza en el extremo del quemador, donde los áridos se introducen en el tambor y se calientan para eliminar la humedad. En la sección inicial del tambor, los potentes ventiladores extraen el fíller y lo almacenan para su uso posterior. En la sección media, se pulveriza el betún y el polvo mineral de recuperación y aportación, logrando la mezcla final en la sección final con la ayuda de los álabes. Una variante del proceso utiliza dos tambores consecutivos para calentar los áridos y agregar el ligante. La emulsificación del betún mejora la trabajabilidad de la mezcla, que luego se vierte en camiones o se almacena en silos calorífugos, como en las plantas discontinuas.
Figura 2. Planta móvil de tambor secador-mezclador
La central de tambor secador-mezclador tiene como desventaja que se realiza una única dosificación de áridos en frío, lo que dificulta la obtención de una granulometría precisa, especialmente con arenas con exceso de finos. No obstante, esta planta presenta varias ventajas en comparación con las centrales tradicionales. Es más simple y consume menos energía, debido a que solo hay una dosificación, mientras que en las plantas discontinuas se efectúan varias dosificaciones en diferentes etapas. Además, es más pequeña y fácil de transportar y montar, y también más económica tanto en su adquisición como en su mantenimiento, lo que la hace más rentable económicamente. A pesar de estas ventajas, hay desventajas en que solo hay un proceso de dosificación, lo que puede resultar en dificultades para lograr la granulometría establecida si se utiliza arena con un exceso de polvo mineral. Sin embargo, es muy adecuada para procesos de reciclado en central, para los cuales se dispone en el tambor un anillo con una tolva para la introducción de los productos de reciclado.
Referencias:
KRAEMER, C.; PARDILLO, J.M.; ROCCI, S.; ROMANA, M.G.; SÁNCHEZ, V.; DEL VAL, M.A. (2010). Ingeniería de carreteras II. McGraw-Hill, Madrid.
YEPES, V. (2014). Maquinaria para la fabricación y puesta en obra de mezclas bituminosas. Apuntes de la Universitat Politècnica de València. Ref. 749.