Docencia e inteligencia artificial: nuevas estrategias para educadores

La educación está experimentando una transformación sin precedentes gracias a los avances en inteligencia artificial (IA). La integración de la IA en el ámbito educativo ha traído consigo oportunidades y desafíos que requieren una adaptación rápida por parte de los docentes y los sistemas de enseñanza.

Esta revolución tecnológica ha dado lugar a la automatización de tareas administrativas, la personalización del aprendizaje, la optimización de evaluaciones y el desarrollo de nuevas metodologías de enseñanza que mejoran la eficiencia del aula. Sin embargo, su implementación también genera preocupaciones relacionadas con la equidad, la privacidad de los datos y la ética en la educación.

Este informe explora en profundidad cómo los docentes pueden aprovechar la IA para mejorar sus prácticas pedagógicas y hacer frente a los desafíos emergentes. Se proporcionarán ejemplos detallados, herramientas específicas y estrategias que permitirán a los educadores integrar esta tecnología de manera efectiva y responsable en sus aulas.

1. Inteligencia artificial generativa y su aplicación en la docencia

1.1. Definición y características

La inteligencia artificial generativa es una rama avanzada de la IA que emplea redes neuronales profundas para crear contenido original en formato de texto, imágenes, audio y vídeo. Este tipo de IA puede proporcionar respuestas personalizadas y adaptadas a distintos contextos de aprendizaje, lo que la convierte en una herramienta muy útil en el ámbito educativo.

Algunos ejemplos notables de IA generativa son ChatGPT, que puede generar respuestas detalladas en múltiples idiomas; DALL-E, que crea imágenes a partir de descripciones textuales, y Bard AI, que ofrece información en tiempo real a partir de consultas específicas.

El uso de estas herramientas en la docencia permite mejorar la interacción con los estudiantes, proporcionar materiales personalizados y fomentar un aprendizaje más dinámico. Además, la IA generativa puede ayudar en la corrección de textos, la generación de pruebas automatizadas y la creación de contenidos visuales para reforzar los conceptos enseñados en el aula.

1.2. Aplicaciones en el aula

Las aplicaciones de la inteligencia artificial (IA) generativa en la enseñanza son diversas y pueden utilizarse en diferentes áreas del conocimiento. Entre las más destacadas se encuentran:

  • Creación de material didáctico: la IA permite generar rápidamente presentaciones, resúmenes y documentos de apoyo para los estudiantes. Herramientas como Canva AI o Tome AI facilitan la producción de diapositivas atractivas con contenido relevante.
  • Automatización de respuestas: los docentes pueden utilizar chatbots educativos como PersonalChat para responder de manera inmediata a las dudas recurrentes de los estudiantes.
  • Evaluaciones y retroalimentación: plataformas como Gradescope permiten corregir exámenes de manera automatizada, lo que reduce la carga de trabajo de los docentes y asegura una evaluación más objetiva.
  • Generación de contenido multimedia: con herramientas como Runway AI y Pictory, los docentes pueden crear vídeos educativos personalizados y mejorar la experiencia de aprendizaje.

Un ejemplo concreto de su aplicación es el uso de ChatGPT en universidades para ayudar a los estudiantes en la redacción de ensayos, proporcionando estructuras sugeridas y correcciones gramaticales detalladas. Esto no solo mejora la calidad de los trabajos académicos, sino que también fomenta la autonomía y la autoevaluación de los estudiantes.

2. Personalización del aprendizaje y evaluación con IA

2.1. Aprendizaje adaptativo

Uno de los mayores beneficios de la inteligencia artificial (IA) en la educación es su capacidad para personalizar el aprendizaje en función del nivel y el ritmo de cada estudiante. Gracias al análisis de datos, los algoritmos de IA pueden identificar fortalezas y debilidades de los alumnos y ajustar los contenidos educativos en tiempo real para optimizar su rendimiento académico.

Algunas plataformas que utilizan este enfoque son:

  • Khan Academy con IA ofrece ejercicios personalizados según el nivel de conocimiento del estudiante.
  • Duolingo AI: adapta la dificultad de los ejercicios de idiomas en función del progreso del usuario.
  • Carnegie Learning ofrece tutorías de matemáticas con IA, que adaptan las preguntas al rendimiento del estudiante.

Este enfoque permite que los estudiantes reciban una educación más centrada en sus necesidades individuales, lo que reduce las brechas de aprendizaje y mejora la retención del conocimiento.

2.2. Evaluación automatizada

Otro aspecto crucial de la IA en la educación es la optimización del proceso de evaluación. Tradicionalmente, corregir exámenes y tareas supone un gran esfuerzo para los docentes. Gracias a herramientas como Gradescope y ZipGrade, ahora es posible evaluar pruebas de manera instantánea, proporcionar retroalimentación detallada y reducir el margen de error.

Además de la corrección automatizada, la IA puede utilizarse para analizar el rendimiento de los estudiantes a lo largo del tiempo y predecir posibles dificultades académicas. Por ejemplo, la plataforma Edsight AI recopila datos sobre las respuestas de los alumnos y genera informes personalizados con recomendaciones para mejorar su rendimiento.

A pesar de sus ventajas, la evaluación automatizada debe complementarse con métodos tradicionales para garantizar una comprensión profunda de los conceptos por parte de los estudiantes y evitar depender exclusivamente de algoritmos para medir los conocimientos.

3. Desafíos y consideraciones éticas

3.1. Sesgo en los algoritmos

Uno de los principales desafíos de la IA en la educación es la presencia de sesgos en los modelos de aprendizaje. Dado que las IA se entrenan con grandes volúmenes de datos históricos, pueden reflejar prejuicios existentes en la sociedad, lo que podría afectar negativamente a la equidad de la enseñanza.

Para minimizar estos riesgos, es fundamental que los docentes supervisen el contenido generado por IA y utilicen diversas fuentes para contrastar la información. Además, se recomienda fomentar el pensamiento crítico entre los estudiantes para que evalúen la veracidad y la imparcialidad de los datos proporcionados por estos sistemas.

3.2. Privacidad y seguridad de datos

El uso de la IA en la educación implica la recopilación y el análisis de grandes volúmenes de datos sobre los estudiantes. Para proteger su privacidad, es crucial que las instituciones educativas implementen regulaciones estrictas sobre el almacenamiento y uso de la información personal.

Algunas estrategias recomendadas son:

  • Utilización de plataformas con altos estándares de seguridad, como Microsoft Copilot y Google AI Education.
  • Concienciar sobre la importancia de la privacidad y enseñar a los estudiantes a gestionar sus datos de forma segura en entornos digitales.
  • Cumplimiento de normativas de protección de datos, como el Reglamento General de Protección de Datos (RGPD) en Europa.

Conclusiones

La inteligencia artificial está revolucionando la educación, ya que ofrece nuevas posibilidades para mejorar la enseñanza y el aprendizaje. Sin embargo, su implementación debe realizarse de manera responsable, garantizando el papel central del docente y promoviendo el uso ético de la tecnología.

Para maximizar sus beneficios, es esencial que los educadores se mantengan actualizados sobre las últimas tendencias en IA y adopten herramientas que complementen sus metodologías de enseñanza. La combinación de innovación tecnológica con estrategias pedagógicas efectivas transformará la educación y preparará a los estudiantes para los desafíos del futuro.

Os dejo un documento de la Universidad de Burgos que profundiza en el tema. Espero que os resulte de interés.

Descargar (PDF, 10.69MB)

Aprendizaje supervisado en ingeniería civil

En un artículo anterior hablamos del aprendizaje no supervisado aplicado a la ingeniería civil. La otra rama del aprendizaje automático (machine learning) es el aprendizaje supervisado. Se trata de un enfoque que utiliza conjuntos de datos de entrada y sus correspondientes respuestas para entrenar modelos capaces de realizar predicciones sobre datos nuevos. Este método es particularmente útil en contextos donde se dispone de información previa sobre la variable que se desea predecir, lo que permite establecer relaciones y patrones en los datos.

El aprendizaje supervisado emerge como una herramienta muy poderosa en el campo de la ingeniería civil, ya que facilita la toma de decisiones y la optimización de procesos mediante el análisis de datos. Este enfoque se basa en el uso de algoritmos que aprenden a partir de un conjunto de datos etiquetados, lo que les permite realizar predicciones sobre nuevos datos. A continuación, se presentan algunas aplicaciones y beneficios del aprendizaje supervisado en este campo.

Técnicas de aprendizaje supervisado

Las técnicas de aprendizaje supervisado se dividen en dos categorías principales: clasificación y regresión. La clasificación se centra en predecir respuestas discretas, es decir, en asignar una etiqueta a un conjunto de datos. Por ejemplo, en el ámbito del correo electrónico, se puede clasificar un mensaje como genuino o spam. Este tipo de modelos se aplica en diversas áreas, como la imagenología médica, donde se pueden clasificar tumores en diferentes categorías de tamaño, o en el reconocimiento de voz, donde se identifican comandos específicos. La clasificación se basa en la capacidad de los modelos para categorizar datos en grupos definidos, lo que resulta esencial en aplicaciones como la evaluación crediticia, donde se determina la solvencia de una persona.

Por el contrario, la regresión se ocupa de predecir respuestas continuas, lo que implica estimar valores en un rango numérico. Por ejemplo, se puede utilizar la regresión para prever cambios en la temperatura o fluctuaciones en la demanda eléctrica. Este enfoque es aplicable en contextos como la previsión de precios de acciones, donde se busca anticipar el comportamiento del mercado, o en el reconocimiento de escritura a mano, donde se traduce la entrada manual en texto digital. La elección entre clasificación y regresión depende de la naturaleza de los datos y de la pregunta específica que se desea responder.

Selección del algoritmo adecuado.

La selección de un algoritmo de aprendizaje automático es un proceso que requiere un enfoque metódico, ya que hay que encontrar el equilibrio entre diversas características de los algoritmos. Entre estas características se encuentran la velocidad de entrenamiento, el uso de memoria, la precisión predictiva en nuevos datos y la transparencia o interpretabilidad del modelo. La velocidad de entrenamiento se refiere al tiempo que un algoritmo necesita para aprender de los datos, mientras que el uso de memoria se relaciona con la cantidad de recursos computacionales que requiere. La precisión predictiva es crucial, ya que determina la capacidad del modelo para generalizar a datos no vistos. Por último, la interpretabilidad se refiere a la facilidad con la que se pueden entender las decisiones del modelo, lo que es especialmente relevante en aplicaciones donde la confianza en el modelo es esencial.

El uso de conjuntos de datos de entrenamiento más grandes generalmente permite que los modelos generalicen mejor en datos nuevos, lo que se traduce en una mayor precisión en las predicciones. Sin embargo, la selección del algoritmo también puede depender del contexto específico y de las características de los datos disponibles.

Clasificación binaria y multicategoría

Al abordar un problema de clasificación, es fundamental determinar si se trata de un problema binario o multicategórico. En un problema de clasificación binaria, cada instancia se clasifica en una de las dos clases, como ocurre cuando se identifica la autenticidad de los correos electrónicos o su clasificación como spam. Este tipo de clasificación es más sencillo y, por lo general, se puede resolver con algoritmos diseñados específicamente para este propósito. En contraste, un problema de clasificación multicategórica implica más de dos clases, como clasificar imágenes de animales en perros, gatos u otros. Los problemas multicategóricos suelen ser más complejos, ya que requieren modelos más sofisticados que puedan manejar la diversidad de clases y sus interacciones.

Es importante señalar que algunos algoritmos, como la regresión logística, están diseñados específicamente para problemas de clasificación binaria y tienden a ser más eficientes durante el entrenamiento. Sin embargo, existen técnicas que permiten adaptar algoritmos de clasificación binaria para abordar problemas multicategóricos, lo que amplía su aplicabilidad.

Algoritmos de clasificación comunes

Existen diversos varios algoritmos de clasificación ampliamente utilizados en el campo del aprendizaje supervisado.

  • La regresión logística es uno de los métodos más comunes, ya que permite predecir la probabilidad de que una respuesta binaria pertenezca a una de las dos clases. Este algoritmo es valorado por su simplicidad y se emplea frecuentemente como punto de partida en problemas de clasificación binaria. Su capacidad para ofrecer una interpretación clara de los resultados lo convierte en una herramienta muy valiosa en diversas aplicaciones.
  • El algoritmo k-vecinos más cercanos (kNN) clasifica objetos basándose en las clases de sus vecinos más cercanos, utilizando métricas de distancia como la euclidiana o la de Manhattan. Este enfoque es intuitivo y fácil de implementar, aunque puede resultar costoso en términos de cálculo en conjuntos de datos grandes.
  • El soporte vectorial (SVM) es otro algoritmo destacado que clasifica datos al encontrar un límite de decisión lineal que separe las clases. En situaciones en las que los datos no son linealmente separables, se puede aplicar una transformación de kernel para facilitar la clasificación. Este método es especialmente útil en contextos de alta dimensionalidad, donde la complejidad de los datos puede dificultar la clasificación.
  • Las redes neuronales, inspiradas en la estructura del cerebro humano, son útiles para modelar sistemas altamente no lineales. Estas redes se entrenan ajustando las conexiones entre neuronas, lo que permite que el modelo aprenda patrones complejos en los datos. Aunque su interpretación puede ser más complicada, su capacidad para capturar relaciones no lineales las hace valiosas en diversas aplicaciones.
  • El clasificador Naïve Bayes se basa en la suposición de que la presencia de una característica en una clase no depende de la presencia de otras características. Este enfoque permite clasificar nuevos datos en función de la probabilidad máxima de pertenencia a una clase, lo que resulta útil en contextos en los que se requiere una clasificación rápida y eficiente.
  • El análisis discriminante clasifica los datos mediante combinaciones lineales de características, asumiendo que los diferentes conjuntos de datos tienen distribuciones gaussianas. Este método es apreciado por su simplicidad y facilidad de interpretación.
  • Los árboles de decisión permiten predecir respuestas basándose en decisiones tomadas en un árbol estructurado, donde cada rama representa una condición de decisión. Este enfoque es intuitivo y fácil de interpretar, por lo que es una opción popular en diversas aplicaciones.

Algoritmos de regresión comunes

Los algoritmos de regresión son esenciales para predecir valores continuos.

  • La regresión lineal es una técnica que describe una variable de respuesta continua como una función lineal de una o más variables predictoras. Este modelo es fácil de interpretar y se utiliza frecuentemente como referencia para modelos más complejos. Su simplicidad y eficacia en contextos lineales lo convierten en una opción inicial para el análisis de datos.
  • La regresión no lineal se utiliza cuando los datos presentan tendencias no lineales significativas. Este enfoque permite modelar relaciones más complejas que no pueden ser capturadas por modelos lineales, lo que resulta útil en contextos donde las variables interactúan de manera no lineal.
  • El modelo de regresión de procesos gaussianos es un enfoque no paramétrico que se utiliza para predecir valores continuos y es común en el análisis espacial. Este método es especialmente valioso en contextos donde se requiere interpolación y se trabaja con datos que presentan incertidumbre.
  • La regresión SVM, similar a su contraparte de clasificación, busca un modelo que se desvíe de los datos medidos en la menor cantidad posible. Este enfoque es útil en contextos de alta dimensionalidad, donde se espera que haya un gran número de variables predictoras.
  • El modelo lineal generalizado se utiliza cuando las variables de respuesta tienen distribuciones no normales, lo que permite abordar una variedad de situaciones en las que no se cumplen los supuestos de la regresión lineal.
  • Los árboles de regresión son una adaptación de los árboles de decisión que permiten predecir respuestas continuas, por lo que son útiles en contextos donde se requiere una interpretación clara y rápida.

Mejora de modelos

La mejora de un modelo implica aumentar su precisión y capacidad predictiva, así como prevenir el sobreajuste, que ocurre cuando un modelo se ajusta demasiado a los datos de entrenamiento y pierde capacidad de generalización. Este proceso incluye la ingeniería de características, que abarca la selección y transformación de variables, y la optimización de hiperparámetros, que busca identificar el conjunto de parámetros que mejor se ajustan al modelo.

  • La selección de características es un aspecto crítico en el aprendizaje supervisado, especialmente en conjuntos de datos de alta dimensión. Este proceso permite identificar las variables más relevantes para la predicción, lo que no solo mejora la precisión del modelo, sino que también reduce el tiempo de entrenamiento y la complejidad del mismo. Entre las técnicas de selección de características se encuentran la regresión por pasos, que implica agregar o eliminar características de manera secuencial, y la regularización, que utiliza estimadores de reducción para eliminar características redundantes.
  • La transformación de características es otra estrategia importante que busca mejorar la representación de los datos. Técnicas como el análisis de componentes principales (PCA) permiten realizar transformaciones lineales en los datos, que capturan la mayor parte de la varianza en un número reducido de componentes. Esto resulta útil en contextos donde se trabaja con datos de alta dimensionalidad, ya que facilita la visualización y el análisis.
  • La optimización de hiperparámetros es un proceso iterativo que busca encontrar los valores óptimos para los parámetros del modelo. Este proceso puede llevarse a cabo mediante métodos como la optimización bayesiana, la búsqueda en cuadrícula y la optimización basada en gradientes. Un modelo bien ajustado puede superar a un modelo complejo que no ha sido optimizado adecuadamente, lo que subraya la importancia de este proceso en el desarrollo de modelos efectivos.

Aplicaciones del aprendizaje supervisado en ingeniería civil

  • Predicción de fallos estructurales: los modelos de aprendizaje supervisado se utilizan para predecir fallos en estructuras como puentes y edificios. Al analizar datos históricos de inspecciones y condiciones ambientales, es posible identificar patrones que indiquen un posible fallo estructural. Esto permite a los ingenieros realizar mantenimientos preventivos y mejorar la seguridad de las infraestructuras.
  • Optimización de recursos en construcción: en la planificación de proyectos, el aprendizaje supervisado optimiza el uso de recursos como, por ejemplo, materiales y mano de obra. Al predecir la demanda de recursos en función de variables como el clima y la evolución del proyecto, es posible reducir costes y mejorar la eficiencia.
  • Análisis de riesgos: los modelos de aprendizaje supervisado son útiles para evaluar riesgos en proyectos de ingeniería civil. Al analizar datos sobre desastres naturales, como inundaciones y terremotos, se pueden identificar zonas vulnerables y desarrollar estrategias de mitigación eficaces.
  • Control de infraestructuras: la incorporación de sensores en infraestructuras permite la recolección de datos en tiempo real. Los algoritmos de aprendizaje supervisado pueden analizar estos datos para detectar anomalías y prever el mantenimiento necesario, lo que contribuye a la sostenibilidad y durabilidad de las estructuras.

Por tanto, el aprendizaje supervisado se está consolidando como una herramienta esencial en ingeniería civil, ya que ofrece soluciones innovadoras para predecir, optimizar y controlar infraestructuras. Su capacidad para analizar grandes volúmenes de datos y ofrecer información valiosa está transformando la forma en que se gestionan los proyectos en este ámbito.

Os dejo un mapa mental acerca del aprendizaje supervisado.

También os dejo unos vídeos al respecto. Espero que os sean de interés.

Referencias

  1. Garcia, J., Villavicencio, G., Altimiras, F., Crawford, B., Soto, R., Minatogawa, V., Franco, M., Martínez-Muñoz, D., & Yepes, V. (2022). Machine learning techniques applied to construction: A hybrid bibliometric analysis of advances and future directions. Automation in Construction142, 104532.
  2. Kaveh, A. (2024). Applications of artificial neural networks and machine learning in civil engineering. Studies in computational intelligence1168, 472.
  3. Khallaf, R., & Khallaf, M. (2021). Classification and analysis of deep learning applications in construction: A systematic literature review. Automation in construction129, 103760.
  4. Mostofi, F., & Toğan, V. (2023). A data-driven recommendation system for construction safety risk assessment. Journal of Construction Engineering and Management149(12), 04023139.
  5. Naderpour, H., Mirrashid, M., & Parsa, P. (2021). Failure mode prediction of reinforced concrete columns using machine learning methods. Engineering Structures248, 113263.
  6. Reich, Y. (1997). Machine learning techniques for civil engineering problems. Computer‐Aided Civil and Infrastructure Engineering12(4), 295-310.
  7. Thai, H. T. (2022). Machine learning for structural engineering: A state-of-the-art review. In Structures (Vol. 38, pp. 448-491). Elsevier.

Descargar (PDF, 1.52MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Aprendizaje no supervisado en la ingeniería civil

El aprendizaje no supervisado es una rama del aprendizaje automático (Machine Learning) que se centra en analizar y estructurar datos sin etiquetas ni categorías predefinidas. A diferencia del aprendizaje supervisado, en el que los modelos se entrenan con datos etiquetados, en el aprendizaje no supervisado los algoritmos deben identificar de manera autónoma patrones, relaciones o estructuras ocultas dentro de los datos. Se trata de una herramienta poderosa para explorar y entender datos complejos sin la necesidad de etiquetas predefinidas, descubriendo patrones y estructuras ocultas que pueden ser de gran valor en diversas aplicaciones prácticas.

El aprendizaje no supervisado permite analizar datos sin un objetivo definido o sin conocimiento previo de su estructura. Este enfoque es ideal para explorar patrones latentes y reducir la dimensionalidad de grandes conjuntos de datos, lo que facilita una mejor comprensión de su estructura. Además, al no depender de etiquetas previamente asignadas, permite adaptarse de manera flexible a diversos tipos de datos, incluidos aquellos cuya estructura subyacente no es evidente. Esta característica lo hace especialmente valioso en ámbitos como la exploración científica y el análisis de datos de mercado, donde los datos pueden ser abundantes, pero carecer de categorías predefinidas.

A pesar de sus ventajas, el aprendizaje no supervisado plantea desafíos como la interpretación de los resultados, ya que sin etiquetas predefinidas puede ser difícil evaluar la precisión de los modelos. Además, la elección del número óptimo de grupos o la validación de las reglas de asociación descubiertas puede requerir la intervención de expertos y métodos adicionales de validación.

El aprendizaje no supervisado incluye diversas técnicas que permiten analizar y extraer patrones de grandes conjuntos de datos sin necesidad de etiquetas. Una de las principales técnicas es el agrupamiento (clustering), que busca dividir los datos en grupos basados en similitudes inherentes. Existen dos tipos de algoritmos de agrupamiento: el agrupamiento duro, que asigna un dato a un único grupo, y el agrupamiento suave, que permite que un dato pertenezca a varios grupos con diferentes grados de pertenencia. Técnicas como k-means y k-medoids se utilizan mucho en este contexto. Mientras que k-means busca minimizar la distancia entre los datos y los centros de los grupos, k-medoids es más robusto frente a valores atípicos y adecuado para datos categóricos. Por otro lado, el agrupamiento jerárquico genera un dendrograma que permite explorar relaciones jerárquicas en los datos. Los mapas autoorganizados, que emplean redes neuronales, se utilizan para reducir la dimensionalidad de los datos sin perder su estructura y facilitar su interpretación en campos como la bioinformática y la economía.

En situaciones donde los datos tienen relaciones difusas, el agrupamiento suave, como el fuzzy c-means, asigna grados de pertenencia a cada dato, lo que resulta útil en áreas como la biomedicina. Los modelos de mezcla gaussiana, que utilizan distribuciones normales multivariadas, también se aplican a problemas complejos como la segmentación de mercado o la detección de anomalías. Además, el aprendizaje no supervisado incluye técnicas de asociación que buscan descubrir relaciones entre variables en grandes bases de datos, como el análisis de la cesta de la compra, donde se identifican productos que suelen comprarse juntos. También se utilizan técnicas de reducción de la dimensionalidad, que simplifican los datos de alta dimensionalidad sin perder mucha variabilidad. El análisis de componentes principales (PCA) es una técnica común en este ámbito, ya que transforma los datos en combinaciones lineales que facilitan su visualización y análisis, especialmente en casos de datos ruidosos, como los procedentes de sensores industriales o dispositivos médicos. Otras técnicas, como el análisis factorial y la factorización matricial no negativa, también se utilizan para reducir la complejidad de los datos y hacerlos más manejables, y son útiles en áreas como la bioinformática, el procesamiento de imágenes y el análisis de textos.

El aprendizaje no supervisado tiene diversas aplicaciones, como el análisis de clientes, que permite identificar segmentos con características o comportamientos similares, lo que optimiza las estrategias de marketing y la personalización de los servicios. También se utiliza en la detección de anomalías, ya que ayuda a identificar datos atípicos que pueden indicar fraudes, fallos en los sistemas o comportamientos inusuales en áreas industriales y financieras; en este campo, el análisis factorial revela dinámicas compartidas entre sectores económicos, lo que mejora la predicción de tendencias de mercado. En el procesamiento de imágenes, facilita tareas como la segmentación, que consiste en agrupar píxeles con características similares para identificar objetos o regiones dentro de una imagen. Además, en el análisis de textos, técnicas como la factorización matricial no negativa permiten descubrir temas latentes en grandes colecciones de documentos, mejorando los sistemas de recomendación y el análisis de sentimientos. En la investigación genómica, el clustering suave ha permitido identificar genes implicados en el desarrollo de enfermedades, lo que ha contribuido a avanzar en la medicina personalizada. Esta capacidad para analizar patrones complejos en datos biológicos ha acelerado el descubrimiento de biomarcadores y posibles dianas terapéuticas. Este enfoque también permite identificar correlaciones entre variables macroeconómicas que de otra manera podrían pasar desapercibidas. Por otro lado, el PCA se ha aplicado con éxito en la monitorización de sistemas industriales, ya que permite predecir fallos y reducir costes operativos mediante el análisis de variaciones en múltiples sensores. En el ámbito de la minería de textos, la factorización no negativa permite descubrir temas latentes, lo que mejora los sistemas de recomendación y análisis de sentimiento. Esto resulta particularmente valioso en aplicaciones de marketing digital, donde la segmentación precisa del contenido puede aumentar la eficacia de las campañas.

El aprendizaje no supervisado ha encontrado diversas aplicaciones en el ámbito de la ingeniería civil, ya que permite optimizar procesos y mejorar la toma de decisiones. A continuación, se destacan algunas de ellas:

  • Clasificación de suelos y materiales de construcción: Mediante técnicas de agrupación (clustering), es posible agrupar muestras de suelo o materiales de construcción según sus propiedades físicas y mecánicas. Esto facilita la selección adecuada de materiales para proyectos específicos y optimiza el diseño de cimentaciones y estructuras.
  • Análisis de patrones de tráfico: El aprendizaje automático permite identificar patrones en los flujos de tráfico, detectando comportamientos anómalos o recurrentes. Esta información es esencial para diseñar infraestructuras viales más eficientes y aplicar medidas de control de tráfico.
  • Monitorización de estructuras: Mediante la reducción dimensional y el análisis de datos procedentes de sensores instalados en puentes, edificios y otras infraestructuras, se pueden detectar anomalías o cambios en el comportamiento estructural. Esto contribuye a la prevención de fallos y al mantenimiento predictivo.
  • Optimización de rutas para maquinaria pesada: En proyectos de construcción a gran escala, el aprendizaje no supervisado ayuda a determinar las rutas más eficientes para la maquinaria, considerando factores como el terreno, el consumo de combustible y la seguridad, lo que se traduce en una mayor productividad y reducción de costes.
  • Segmentación de imágenes por satélite y aéreas: Las técnicas de aprendizaje no supervisado permiten clasificar y segmentar imágenes obtenidas de satélites o drones, identificando áreas urbanas, vegetación, cuerpos de agua y otros elementos. Esto es útil para la planificación urbana y la gestión de recursos naturales.
  • Análisis de datos de sensores en tiempo real: En la construcción de túneles y excavaciones, el análisis en tiempo real de datos de sensores puede realizarse mediante algoritmos no supervisados para detectar condiciones peligrosas, como deslizamientos de tierra o acumulación de gases, lo que mejora la seguridad en las obras.

En conclusión, el aprendizaje no supervisado es una herramienta versátil y potente para abordar problemas complejos y descubrir patrones ocultos en datos sin etiquetar. Su aplicación trasciende sectores, ya que ofrece soluciones prácticas para la investigación, la industria y el análisis de datos. En un mundo impulsado por el crecimiento exponencial de la información, el dominio de estas técnicas se presenta como una ventaja competitiva fundamental. La capacidad para analizar grandes volúmenes de datos y extraer información útil sigue siendo un motor clave de innovación y progreso.

Os dejo un mapa mental acerca del aprendizaje no supervisado.

Para profundizar en este tema, puedes consultar la siguiente conferencia:

Descargar (PDF, 1.18MB)

Referencia:

GARCÍA, J.; VILLAVICENCIO, G.; ALTIMIRAS, F.; CRAWFORD, B.; SOTO, R.; MINTATOGAWA, V.; FRANCO, M.; MARTÍNEZ-MUÑOZ, D.; YEPES, V. (2022). Machine learning techniques applied to construction: A hybrid bibliometric analysis of advances and future directions. Automation in Construction, 142:104532. DOI:10.1016/j.autcon.2022.104532

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Construcción en América Latina y el Caribe: digitalización e innovación como claves para la sostenibilidad

El sector de la construcción en América Latina y el Caribe (ALC) es uno de los pilares fundamentales de la economía regional, pero también se enfrenta a desafíos significativos en términos de sostenibilidad, productividad y digitalización.

A continuación nos hacemos eco de un informe donde se detallan las claves para transformar el sector basándose en datos, análisis de tendencias y recomendaciones prácticas. El informe lo tenéis al final de este resumen.

 

1. Introducción: importancia del sector y sus retos

El sector de la construcción genera aproximadamente 300 000 millones de dólares en América Latina y el Caribe, lo que representa el 6 % del producto interior bruto (PIB) regional y más de 20 millones de empleos directos. A nivel mundial, contribuye al 13 % del PIB y da empleo a 250 millones de personas. Sin embargo, su productividad ha crecido solo un 1 % anual en las últimas dos décadas, lo que la sitúa muy por debajo de sectores como la manufactura (3,6 %) y la agricultura (2,8 %).

El sector de la construcción es uno de los mayores consumidores de recursos naturales y contribuye significativamente al cambio climático. Según el World Green Building Council (2023):

  • Representa el 50 % del consumo global de recursos extraídos.
  • Utiliza el 15 % del agua potable mundial.
  • Es responsable del 37 % de las emisiones globales de CO₂ relacionadas con la energía.
  • Genera el 35 % de los residuos sólidos producidos anualmente en el planeta.

Además, las proyecciones indican que el sector crecerá considerablemente en los próximos años. Se estima que para 2050 aún no se ha construido el 60 % de los edificios necesarios y que el 20 % de las estructuras existentes requieren renovaciones para cumplir los objetivos de sostenibilidad y cero emisiones netas.

2. Soluciones habilitantes para la construcción sostenible

El documento identifica seis categorías fundamentales de soluciones que pueden transformar el sector hacia la sostenibilidad. Estas soluciones integran tecnologías digitales, diseño innovador, materiales sostenibles y enfoques de gestión eficientes.

  • Tecnologías digitales avanzadas: Las tecnologías digitales son esenciales para mejorar la eficiencia, la transparencia y la sostenibilidad en todas las etapas del ciclo de vida de los proyectos de construcción.
    1. Building Information Modeling (BIM): permite el diseño colaborativo de infraestructuras en un entorno digital. Sus beneficios incluyen:
      • Incremento de la productividad en un 13%.
      • Reducción de costos en un 4% y de los plazos en un 6%.
      • Automatización de procesos como la simulación de consumo energético y la evaluación de impactos climáticos.
      • Caso de éxito: en Uruguay, el uso de BIM y LEAN Construction en el proyecto CAIF Aeroparque resultó en un ahorro del 50% en tiempos de respuesta y un 63% menos en sobrecostos durante la pandemia​.
    2. Inteligencia artificial (IA): mejora la planificación, el diseño y la operación de los activos construidos. Ejemplos:
      • Simulaciones para evaluar el rendimiento energético y el comportamiento estructural ante desastres.
      • Optimización de rutas de transporte y logística en obra, reduciendo costos y emisiones.
    3. Internet de las cosas (IoT):
      • Sensores inteligentes monitorean el uso de energía, agua y recursos en tiempo real, ajustando automáticamente los sistemas para maximizar la eficiencia.
      • Aplicaciones como Building Resilience ayudan a evaluar riesgos climáticos y seleccionar ubicaciones óptimas para proyectos.
    4. Impresión 3D:
      • Permite fabricar componentes en obra o en fábricas cercanas, reduciendo los residuos y las emisiones de transporte.
      • Facilita el uso de materiales reciclados, disminuyendo la dependencia de recursos vírgenes.
    5. Blockchain:
      • Asegura la trazabilidad de materiales, verifica certificaciones ambientales y gestiona residuos con mayor transparencia.
    6. Gestión en la nube:
      • Reduce el empleo de papel, mejora la colaboración en tiempo real y almacena datos clave para optimizar la sostenibilidad.

  • Diseño sostenible: El diseño sostenible aborda el impacto ambiental desde la concepción del proyecto, empleando enfoques como el diseño bioclimático, que optimiza la orientación solar, el aislamiento térmico y la ventilación pasiva para reducir la demanda energética. Un ejemplo de ello son los edificios pasivos, que minimizan el uso de climatización activa; la eficiencia energética y la generación de energía renovable mediante paneles solares, sistemas LED y edificaciones de carbono neutro o positivas que producen más energía de la que consumen; y la flexibilidad en el diseño, con espacios modulares que se adaptan a diferentes usos y disminuyen la necesidad de futuras demoliciones.
  • Materiales sostenibles: El uso de materiales con bajas emisiones de carbono es fundamental para reducir el impacto ambiental. Entre estos materiales destacan la madera certificada, que tiene una huella de carbono negativa, es renovable, reciclable y eficiente energéticamente, y constituye una alternativa clave al hormigón en Chile, que representa el 54 % de las emisiones de carbono de un edificio; el bambú, un material resistente y de rápido crecimiento utilizado en zonas tropicales; y los materiales reciclados, que disminuyen la extracción de recursos naturales y los residuos de construcción.
  • Sistemas de construcción industrializada: La prefabricación, la construcción modular y la impresión 3D contribuyen a reducir los residuos en obra y el tiempo de construcción, y permiten finalizar las obras hasta un 50 % más rápido que con los métodos tradicionales.
  • Medición y verificación del impacto ambiental: Certificaciones como LEED, EDGE y BREEAM permiten evaluar y validar la sostenibilidad de los proyectos.
  • Enfoques de gestión eficientes: Metodologías como LEAN Construction y Advanced Work Packaging optimizan los procesos y reducen retrasos.

3. Experiencias, retos y oportunidades en Latinoamérica y el Caribe

El análisis en Brasil, Chile, Costa Rica y Uruguay revela 44 iniciativas identificadas desde 2015, la mayoría lideradas por el sector público. Entre los retos a los que se enfrentan destacan la falta de integración entre soluciones digitales y sostenibles, la baja percepción del valor económico de la sostenibilidad y los altos niveles de informalidad en el sector. Entre las buenas prácticas destacan el uso de estrategias internacionales de benchmarking, la capacitación técnica en metodologías digitales y la compra pública innovadora y ecológica para estimular la demanda de tecnologías sostenibles.

4. Claves para el futuro

Para transformar el sector, se recomiendan políticas de liderazgo público que promuevan la digitalización y la sostenibilidad, así como incentivos financieros y no financieros, como subsidios, créditos y regulaciones, para fomentar la adopción de prácticas sostenibles. También se recomienda fomentar la colaboración multisectorial mediante alianzas entre los sectores público, privado y académico para compartir conocimientos y recursos, y ofrecer programas de capacitación y educación en habilidades digitales para los trabajadores del sector.

5. Conclusión

La adopción masiva de tecnologías digitales, materiales sostenibles y enfoques innovadores puede situar a Latinoamérica y el Caribe a la vanguardia de la construcción sostenible a escala mundial. Para transformar el sector de la construcción, es necesario adoptar un enfoque holístico que combine innovación tecnológica, gestión eficiente y políticas públicas. La adopción generalizada de soluciones digitales y sostenibles no solo mejorará la productividad, sino que también reducirá el impacto ambiental, lo que hará que el sector sea más resiliente y competitivo en el contexto global.

Os dejo el siguiente documento, donde tenéis toda la información. Espero que os sea de interés.

Descargar (PDF, 4.11MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Investigación reciente muestra cómo la inteligencia artificial optimiza la gestión del agua

En un estudio pionero, investigadores de la Universitat Politècnica de València y la Pontificia Universidad Católica de Valparaíso (Chile) han revelado el enorme potencial del aprendizaje automático (Machine Learning, ML) en la mejora de la integridad y calidad de las infraestructuras hídricas.

Publicado en la Applied Sciences, revista del primer cuartil del JCR, el estudio analiza en profundidad la literatura científica reciente sobre el tema, para lo cual revisa 1087 artículos con el fin de identificar las áreas más prometedoras en la aplicación de estas tecnologías a la gestión del agua. Esta revisión va más allá de lo convencional al aplicar modelos avanzados de procesamiento del lenguaje natural (NLP), específicamente BERTopic, que permiten comprender el contexto y los temas emergentes en esta área de investigación.

Contexto y relevancia del estudio

El mantenimiento de infraestructuras de agua seguras y eficientes es un desafío global, especialmente en un contexto de cambio climático, urbanización creciente y escasez de recursos hídricos. A medida que aumentan los eventos climáticos extremos, las infraestructuras se ven sometidas a un estrés adicional. Estas condiciones afectan al acceso y a la distribución de agua de calidad, clave para la salud pública, el medio ambiente y sectores estratégicos como la agricultura, la industria y la energía.

En este contexto, el aprendizaje automático se presenta como una herramienta potente para gestionar y optimizar la calidad y el suministro del agua. Los algoritmos de ML pueden procesar grandes volúmenes de datos de sensores y otras fuentes para mejorar las predicciones y la toma de decisiones en tiempo real. Además, permiten diseñar protocolos de tratamiento del agua más eficientes, reducir las pérdidas en las redes de distribución y anticiparse a los problemas antes de que se conviertan en fallos significativos.

Metodología y clasificación de temas

Para explorar el uso del ML en la gestión de infraestructuras hídricas, el equipo realizó una búsqueda sistemática en la base de datos Scopus, centrada en artículos en inglés publicados desde 2015. Los investigadores aplicaron el modelo BERTopic, una técnica de NLP que utiliza redes neuronales (transformers) entrenadas para identificar y organizar los principales temas en la literatura. Esto permitió clasificar con precisión los estudios en cuatro grandes áreas de aplicación:

  1. Detección de contaminantes y erosión del suelo: El uso de ML en esta área permite la detección avanzada de contaminantes como los nitratos y los metales pesados en las aguas subterráneas. Mediante imágenes satelitales y sensores en campo, estos modelos analizan factores ambientales y condiciones del suelo para predecir y mapear zonas de riesgo de contaminación y erosión.
  2. Predicción de niveles de agua: El estudio destaca cómo las técnicas de aprendizaje automático, incluidas las redes neuronales y los modelos de series temporales, pueden prever las fluctuaciones en los niveles de agua de ríos, lagos y acuíferos. Esto resulta crucial para la gestión de los recursos hídricos en situaciones climáticas extremas, como las inundaciones y las sequías, y también para optimizar el uso del agua en la agricultura y la industria.
  3. Detección de fugas en redes de agua: Las pérdidas de agua suponen un problema significativo en las redes de distribución, especialmente en las zonas urbanas. El estudio descubrió que el ML, junto con tecnologías de sensores IoT, permite la detección precisa de fugas mediante el análisis de patrones de flujo y presión en las tuberías. Los algoritmos pueden identificar y localizar fugas, lo que reduce el desperdicio y mejora la eficiencia de la distribución.
  4. Evaluación de la potabilidad y calidad del agua: Garantizar el acceso a agua potable es fundamental para la salud pública, y el estudio subraya la utilidad del aprendizaje profundo en el control de la calidad del agua. Los algoritmos analizan parámetros de calidad como la turbidez, el pH y la presencia de sustancias químicas nocivas, con el fin de asegurar la potabilidad. Estos modelos también permiten automatizar los sistemas de alerta temprana en zonas con infraestructuras hídricas vulnerables.

Implicaciones y futuros pasos

Este estudio concluye que el uso de aprendizaje automático en la gestión del agua permite una mayor eficiencia y sostenibilidad, y supone un paso adelante en la administración de los recursos hídricos frente a los desafíos ambientales en aumento. Los autores señalan que la combinación de ML con sistemas de monitoreo avanzado puede transformar la forma en que gestionamos las infraestructuras hídricas, permitiendo predicciones precisas y decisiones basadas en datos en tiempo real.

En el futuro, se centrarán en mejorar la precisión de los modelos para áreas específicas, así como en implementar estos sistemas a gran escala. Además, se abren nuevas oportunidades para optimizar las redes de distribución mediante sistemas automatizados, algo vital en un contexto donde el agua es un recurso cada vez más valioso y escaso.

Este estudio no solo aporta conocimiento a la comunidad científica, sino que también proporciona una base sólida para que gestores y responsables de políticas públicas integren el aprendizaje automático en sus prácticas de gestión del agua, avanzando así hacia una gestión hídrica más sostenible y resiliente.

Referencia:

GARCÍA, J.; LEIVA-ARAOS, A.; DÍAZ-SAAVEDRA, E.; MORAGA, P.; PINTO, H.; YEPES, V. (2023). Relevance of Machine Learning Techniques in Water Infrastructure Integrity and Quality: A Review Powered by Natural Language Processing. Applied Sciences, 13(22):12497. DOI:10.3390/app132212497

Descargar (PDF, 23.87MB)

Los motivos por los que se equivocan estudiantes y profesionales de ingeniería al abordar la resolución de problemas

Resolver problemas en el ámbito universitario o profesional, en áreas tecnológicas, de ingeniería y ciencias, puede plantear una serie de desafíos que pueden conducir a errores. Estos fallos pueden surgir por diversas razones que van desde no comprender el concepto subyacente hasta confiar demasiado en la tecnología.

En un artículo anterior mencioné algunos ejemplos de problemas teóricamente sencillos, pero que marean a nuestros estudiantes. Ahora vamos a analizar detalladamente algunas de estas razones y cómo se relacionan entre sí. También he incluido enlaces a otros artículos del blog donde reflexiono sobre este tipo de cuestiones.

La falta de comprensión del concepto subyacente a un problema es una preocupación fundamental. Esto puede manifestarse de diversas formas, ya sea a través de errores conceptuales, una aplicación incorrecta del concepto o una interpretación errónea del mismo. Esta falta de entendimiento puede empeorar si se carece de experiencia o conocimientos específicos en el campo correspondiente. Cuando un estudiante o profesional se enfrenta a un problema para el que no tiene experiencia previa, puede tener dificultades para aplicar correctamente los principios necesarios para resolverlo.

Los datos son fundamentales para encontrar soluciones, sin embargo, su calidad y disponibilidad pueden ser problemáticos. La falta de datos adecuados, la presencia de información contradictoria o sesgada pueden conducir a conclusiones incorrectas. Asimismo, centrarse excesivamente en utilizar todos los datos disponibles puede distraer de la información realmente importante, al tiempo que validar datos sesgados o inventados puede conducir a conclusiones incorrectas.

El manejo inadecuado de las bases matemáticas también puede ser una fuente de errores (geometría, trigonometría, cálculo o álgebra). Esto puede incluir errores en el cálculo, así como el uso inapropiado de fórmulas o modelos matemáticos. Los problemas reales rara vez tienen una sola solución, lo que requiere habilidades para evaluar y decidir entre múltiples enfoques posibles. Además, el uso excesivo de la memoria en lugar de la comprensión de los principios subyacentes puede conducir a errores conceptuales y de selección de modelos de cálculo.

Los aspectos psicológicos también son importantes. El estrés, la falta de confianza en uno mismo, la presión por terminar a tiempo y la falta de concentración pueden afectar a la capacidad de resolver problemas de manera efectiva. La falta de atención a los detalles, la fatiga y el agotamiento también pueden provocar errores en la resolución de problemas.

Es crucial comprender que los problemas reales pueden ser complejos y no tener necesariamente una solución única. Esto implica la necesidad de tomar decisiones informadas y comprender las limitaciones de los modelos o fórmulas utilizados. Además, la propagación de errores en las operaciones y el uso incorrecto de datos, fórmulas o software pueden dar lugar a resultados erróneos.

La falta de retroalimentación o revisión de los errores cometidos puede perpetuar la repetición de los mismos una y otra vez. La falta de comunicación o colaboración entre profesionales en entornos de trabajo también puede provocar errores en la resolución de problemas. Confiar ciegamente en la tecnología o en herramientas automatizadas sin comprender en profundidad los principios subyacentes puede ser un problema.

En resumen, resolver problemas en el ámbito universitario o profesional de la ingeniería y las ciencias puede ser un proceso complejo y propenso a errores debido a una variedad de factores interrelacionados. Desde la comprensión del concepto hasta la calidad y disponibilidad de los datos, así como los aspectos psicológicos y técnicos relacionados con la resolución de problemas, es crucial abordar estos desafíos con atención y comprensión para lograr soluciones precisas y efectivas. Desde las universidades debe hacerse todo lo posible para superar este tipo de dificultades y conseguir que nuestros estudiantes adquieran las competencias necesarias para su posterior desarrollo profesional.

Sin querer ser exhaustivo, y sin que estén ordenadas por importancia, aquí os dejo una lista de 30 posibles causas por las cuales nuestros estudiantes en los exámenes o los técnicos en su ámbito profesional, suelen cometer errores al resolver los problemas. Estoy convencido de que hay más causas, pero esto puede ser un buen punto de partida para el debate y la reflexión. En el vídeo que he grabado, me extiendo y explico algo más lo que aquí recojo como una simple lista.

  1. La falta de comprensión del concepto subyacente en un problema puede conducir a errores conceptuales al aplicarlo incorrectamente o interpretarlo de manera errónea.
  2. La inexperiencia o la falta de conocimientos específicos pueden surgir cuando una persona afronta por primera vez un tipo de problema, ya sea durante un examen o en la práctica profesional.
  3. Los problemas relacionados con la disponibilidad de datos pueden presentarse de varias formas, como datos insuficientes, necesarios, innecesarios o contradictorios. A menudo, existe una obsesión por utilizar todos los datos disponibles en el enunciado del problema.
  4. La calidad de los datos también es un factor importante, con la posibilidad de incertidumbre o error en los datos disponibles. Además, dar por válidos datos sesgados, interesados o inventados puede llevar a conclusiones incorrectas. Es necesario un control de calidad de los datos.
  5. Intentar resolver un problema utilizando el enfoque típico visto en clase puede marear a nuestros estudiantes. Los alumnos prefieren resolver un problema típico explicado en clase, a ser posible, con datos parecidos.
  6. El manejo inadecuado de las bases matemáticas, que incluye errores en el cálculo, el uso incorrecto de fórmulas o modelos matemáticos, y la falta de comprensión de los principios subyacentes, puede ser una fuente común de errores. La falta de conocimientos básicos de geometría, trigonometría, álgebra o cálculo básicos son, en ocasiones, escollos. A veces hay dificultades en saber dibujar un esquema para resolver el problema.
  7. Los problemas reales generalmente no tienen una sola solución, lo que requiere habilidades para evaluar y decidir entre múltiples enfoques posibles. Esta distinción, que se da claramente entre los estudios de grado y los de máster, es importante tenerla en cuenta.
  8. Los aspectos psicológicos, como el estrés, la falta de confianza en uno mismo, la presión por terminar a tiempo y la falta de concentración, pueden afectar negativamente la capacidad para resolver problemas de manera efectiva.
  9. La falta de atención o interés, así como la fatiga o el agotamiento, pueden contribuir a errores en la resolución de problemas, al igual que la prisa por resolver el problema.
  10. La complejidad de los problemas puede aumentar cuando se trata de situaciones poco comunes o rebuscadas, lo que requiere un enfoque cuidadoso y creativo para su resolución.
  11. Es crucial comprender la diferencia entre una ley general y una fórmula particular al aplicar normas técnicas que pueden estar basadas en hipótesis o casos específicos.
  12. Utilizar modelos de cálculo inadecuados, ya sean demasiado refinados o demasiado simples para los datos disponibles, puede conducir a soluciones incorrectas.
  13. Carecer de números estimativos para prever el resultado final puede resultar en una falta de comprensión del orden de magnitud del resultado. En este sentido, el uso de nomogramas en la docencia facilita la adquisición de este tipo de habilidad en los estudiantes. Los estudiantes y los profesionales deberían tener un conocimiento del “número gordo” y saber predimensionar.
  14. Es importante ser consciente de la propagación de errores en las operaciones, ya que incluso pequeños errores pueden magnificarse y llevar a resultados incorrectos.
  15. Utilizar fórmulas, datos o tablas en un contexto diferente al que dieron origen puede llevar a interpretaciones incorrectas o a soluciones erróneas.
  16. La extrapolación de resultados a límites no contemplados puede conducir a conclusiones incorrectas o poco realistas.
  17. Utilizar fórmulas empíricas con datos expresados en unidades diferentes a las que funcionan puede generar resultados inconsistentes o incorrectos.
  18. La dependencia excesiva de la memoria en lugar de comprender los principios subyacentes puede conducir a errores en la selección de modelos o fórmulas de cálculo.
  19. Errores conceptuales pueden llevar a la selección incorrecta de modelos o fórmulas de cálculo, lo que resulta en soluciones erróneas.
  20. El uso de software defectuoso o poco contrastado, así como la falta de habilidades para calcular manualmente un problema, pueden resultar en resultados incorrectos. A esto se une un uso inapropiado de la inteligencia artificial.
  21. El mal uso de ecuaciones o fórmulas, como cambiar el nombre de una variable sin entender el concepto subyacente, puede conducir a errores en la resolución de problemas.
  22. La falta de competencia o experiencia en una materia determinada puede resultar en una resolución incorrecta del problema.
  23. Repetir la resolución de problemas de un contexto a otro sin pensar en su validez puede conducir a soluciones inapropiadas.
  24. La falta de comprensión del problema, la pregunta o el tipo de resultado esperado puede resultar en soluciones incorrectas debido a la falta de comprensión lectora, capacidad analítica o de síntesis.
  25. La utilización de unidades defectuosas, notaciones o convenciones específicas puede llevar a interpretaciones erróneas o a soluciones incorrectas.
  26. La falta de retroalimentación o revisión de los errores cometidos puede perpetuar la repetición de los mismos errores una y otra vez.
  27. La falta de comunicación o colaboración en entornos de trabajo entre profesionales puede contribuir a errores en la resolución de problemas.
  28. La confianza excesiva en la tecnología o herramientas automatizadas puede llevar a la falta de comprensión de los principios subyacentes y a la comisión de errores.
  29. La falta de revisión o verificación de los cálculos realizados por parte de un tercero independiente puede resultar en soluciones incorrectas.
  30. La falta de conocimiento del contexto del problema, incluyendo las restricciones, puede conducir a soluciones subóptimas o incorrectas.

Os paso un vídeo donde he desarrollado las ideas anteriores, con ejemplos, y he dejado algunas de mis reflexiones al respecto. Espero que os guste.

Os dejo un podcast sobre este tema (en inglés), generado por una IA sobre el vídeo.

Aquí tenéis un mapa conceptual que también os puede ayudar.

Artículos relacionados en el blog:

Los ingenieros, los ordenadores y mil un indios

De la regla de cálculo al ordenador: olvidarse de cómo se calculaba antes

Cifras significativas y errores de medición

¿Cómo predimensionar un muro sin calculadora?

La inteligencia artificial en la ingeniería civil

Introducción a la toma de decisiones

Problemas teóricamente sencillos pero que marean a nuestros estudiantes

Referencias de libros de problemas:

MARTÍNEZ-PAGÁN, P.; YEPES, V.; MARTÍNEZ-SEGURA, M.A. (2023). Ejercicios resueltos de sistemas de transporte continuo: bombas y cintas transportadoras. Ediciones UPCT. Universidad Politécnica de Cartagena, 284 pp. ISBN: 978-84-17853-62-4

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 253 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Revisión de estado del conocimiento en infraestructuras hídricas usando técnicas de aprendizaje automático

Acabamos de recibir la noticia de la publicación de nuestro artículo en la revista Applied Sciences, la cual está indexada en el JCR. Este estudio explora las diversas aplicaciones del aprendizaje automático (Machine Learning, ML) en relación con la integridad y calidad de las infraestructuras hidráulicas, identificando cuatro áreas clave donde se ha implementado con éxito. Estas áreas abarcan desde la detección de contaminantes en el agua y la erosión del suelo, hasta la predicción de niveles hídricos, la identificación de fugas en redes de agua y la evaluación de la calidad y potabilidad del agua.

Cabe destacar que esta investigación se llevó a cabo en el marco de una colaboración fructífera entre nuestro grupo de investigación e investigadores chilenos, liderados por el profesor José Antonio García Conejeros. El proyecto en sí, denominado HYDELIFE, forma parte de las iniciativas que superviso como investigador principal en la Universitat Politècnica de València.

Se realizó un análisis bibliográfico de artículos científicos a partir de 2015, que arrojó un total de 1087 artículos, para explorar las aplicaciones de las técnicas de aprendizaje automático en la integridad y la calidad de la infraestructura hídrica. Entre las contribuciones realizadas por el trabajo, caben destacar las siguientes:

  • Se identificaron cuatro áreas clave en las que el aprendizaje automático se ha aplicado a la gestión del agua: los avances en la detección de contaminantes del agua y la erosión del suelo, la previsión de los niveles del agua, las técnicas avanzadas para la detección de fugas en las redes de agua y la evaluación de la calidad y potabilidad del agua.
  • Destacó el potencial de las técnicas de aprendizaje automático (Random Forest, Support Vector Regresion, Convolutional Neural Networks y Gradient Boosting) combinadas con sistemas de monitoreo de vanguardia en múltiples aspectos de la infraestructura y la calidad del agua.
  • Proporcionó información sobre el impacto transformador del aprendizaje automático en la infraestructura hídrica y sugirió caminos prometedores para continuar con la investigación.
  • Empleó un enfoque semiautomático para realizar análisis bibliográficos, aprovechando las representaciones codificadas bidireccionales de Transformers (BERTopic), para abordar las limitaciones y garantizar una representación precisa de los documentos.
  • Las técnicas de aprendizaje automático ofrecen una alta precisión, un tiempo de procesamiento reducido y datos valiosos para la toma de decisiones en materia de gestión sostenible de los recursos y sistemas de alerta temprana.
  • La colaboración interdisciplinaria, los marcos integrados y las tecnologías avanzadas, como la teledetección y la IoT, son esenciales para avanzar en la investigación sobre la integridad y la calidad de la infraestructura hídrica.

Abstract:

Water infrastructure integrity, quality, and distribution are fundamental for public health, environmental sustainability, economic development, and climate change resilience. Ensuring the robustness and quality of water infrastructure is pivotal for sectors like agriculture, industry, and energy production. Machine learning (ML) offers the potential for bolstering water infrastructure integrity and quality by analyzing extensive data from sensors and other sources, optimizing treatment protocols, minimizing water losses, and improving distribution methods. This study delves into ML applications in water infrastructure integrity and quality by analyzing English-language articles from 2015 onward, compiling 1087 articles. A natural language processing approach centered on topic modeling was initially adopted to classify salient topics. From each identified topic, key terms were extracted and utilized in a semi-automatic selection process, pinpointing the most relevant articles for further scrutiny. At the same time, unsupervised ML algorithms can assist in extracting themes from the documents, generating meaningful topics often requires intricate hyperparameter adjustments. Leveraging the Bidirectional Encoder Representations from Transformers (BERTopic) enhanced the study’s contextual comprehension in topic modeling. This semi-automatic methodology for bibliographic exploration begins with broad categorizing topics, advancing to an exhaustive analysis. The insights drawn underscore ML’s instrumental role in enhancing water infrastructure’s integrity and quality, suggesting promising future research directions. Specifically, the study has identified four key areas where ML has been applied to water management: (1) advancements in the detection of water contaminants and soil erosion; (2) forecasting of water levels; (3) advanced techniques for leak detection in water networks; and (4) evaluation of water quality and potability. These findings underscore the transformative impact of ML on water infrastructure and suggest promising paths for continued investigation.

Keywords:

Water infrastructure integrity; machine learning; environmental sustainability; natural language processing; BERTopic

Reference:

GARCÍA, J.; LEIVA-ARAOS, A.; DÍAZ-SAAVEDRA, E.; MORAGA, P.; PINTO, H.; YEPES, V. (2023). Relevance of Machine Learning Techniques in Water Infrastructure Integrity and Quality: A Review Powered by Natural Language Processing. Applied Sciences, 13(22):12497. DOI:10.3390/app132212497

Descargar (PDF, 23.87MB)

La inteligencia artificial en la ingeniería civil: oportunidades y desafíos

Tengo el placer de compartir un artículo que se ha publicado en la revista IC Ingeniería Civil, que es una publicación mensual editada por el Colegio de Ingenieros Civiles de México. En este artículo se analiza el uso de la inteligencia artificial en la ingeniería civil, incluyendo la toma de decisiones, gestión de proyectos y monitorización de infraestructura. Destaca las oportunidades de la IA para elevar la calidad y la seguridad de las infraestructuras, reducir costos y acelerar la resolución de problemas complejos. También se señalan los desafíos y la necesidad de una colaboración interdisciplinaria para garantizar su utilización responsable y efectiva.

El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.

Referencia:

YEPES, V.; KRIPKA, M.; YEPES-BELLVER, L.; GARCÍA, J. (2023). La inteligencia artificial en la ingeniería civil: oportunidades y desafíos. IC Ingeniería Civil, 642:20-23.

Como se trata de un artículo en abierto, os lo paso para su lectura. Espero que os interese.

Descargar (PDF, 380KB)

Objetivos y metodología del proyecto de investigación HYDELIFE

Figura 1. Instituto de Ciencia y Tecnología del Hormigón (ICITECH)
Figura 1. Laboratorio de materiales del Instituto de Ciencia y Tecnología del Hormigón (ICITECH)

En varios artículos anteriores detallamos los antecedentes, la motivación, las hipótesis de partida, así como la trascendencia del proyecto de investigación HYDELIFE. Ahora vamos a explicar los objetivos y la metodología de este proyecto, del cual soy investigador principal: Optimización híbrida del ciclo de vida de puentes y estructuras mixtas y modulares de alta eficiencia social y medioambiental bajo presupuestos restrictivos (PID2020-117056RB-I00). Los investigadores de este proyecto pertenemos al Instituto de Ciencia y Tecnología del Hormigón (ICITECH).

El objetivo general perseguido se basa en afrontar el reto social que supone la creación y la conservación de las construcciones modulares y puentes mixtos en escenarios de fuertes restricciones presupuestarias, mediante la resolución de los problemas complejos planteados en el ámbito de las decisiones públicas y privadas. Para ello se precisa un salto científico capaz de integrar a los distintos actores y grupos de expertos en la toma de decisiones considerando criterios de sostenibilidad social y ambiental a lo largo de todo el ciclo de vida de las infraestructuras considerando la variabilidad inherente al mundo real. Para integrar las incertidumbres que afectan al sistema, se propone aplicar técnicas metaheurísticas híbridas basadas en fiabilidad, aplicadas no sólo al proyecto de nuevas estructuras, sino al mantenimiento de las actuales. Un estudio de sensibilidad de los escenarios presupuestarios y de las hipótesis tomadas en los inventarios del análisis del ciclo de vida proporcionará conocimiento no trivial sobre las mejores prácticas. Esta metodología será aplicable también a otro tipo de infraestructuras.

El objetivo general se desarrollará mediante los objetivos específicos mostrados en la Figura 2 y que se describen a continuación, de los cuales será responsable el investigador principal:

  • OE-1: Análisis de funciones de distribución específicas para el diseño óptimo basado en fiabilidad que integre aspectos ambientales, sociales y económicos que sirva para la toma de decisión multicriterio.
  • OE-2: Determinación de indicadores clave basados en redes bayesianas y lógica neutrosófica para garantizar una efectiva integración de la sostenibilidad ambiental y social en la licitación de proyectos mantenimiento de construcciones modulares, puentes mixtos e híbridos.
  • OE-3: Identificación de estrategias de mantenimiento robusto óptimo de construcciones modulares y puentes mixtos y estructuras híbridas.
  • OE-4: Formulación y resolución del problema de optimización multiobjetivo que contemple el ciclo completo de construcciones modulares, puentes mixtos y estructuras híbridas mediante metaheurísticas híbridas.
  • OE-5: Comparación del diseño robusto óptimo respecto a la optimización heurística considerando incertidumbres en los escenarios presupuestarios y en las hipótesis del análisis del ciclo de vida.
  • OE-6: Difusión de resultados y redacción de informes.
Figura 2.- Objetivos específicos del proyecto HYDELIFE

Metodología propuesta en relación con los objetivos y con el estado del arte

El análisis del estado del arte alumbró dos huecos en la investigación, el empleo de metaheurísticas híbridas con Deep Learning y su aplicación a construcciones modulares, puentes mixtos y estructuras híbridas. Además, el empleo de la lógica neutrosófica y las redes bayesianas abre puertas en el ámbito de la decisión multicriterio. Estas novedades se combinan en la metodología con técnicas y disciplinas ya empleadas en otros proyectos: análisis del ciclo de vida, análisis basado en fiabilidad, diseño óptimo robusto, metamodelos y técnicas de minería de datos. Por tanto, se trata de una combinación integrada cuyo objetivo es la priorización del tipo de diseño, en el caso de estructuras de nueva planta, o bien de su mantenimiento, basándose en criterios de sostenibilidad social y ambiental bajo presupuestos restrictivos, considerando la variabilidad inherente a los problemas reales.

La Figura 3 muestra el esquema metodológico propuesto para HYDELIFE, relacionando las fases con los objetivos propuestos. Se utiliza un enfoque mixto e interactivo, donde el decisor proporciona información sobre las preferencias al analista que, tras una optimización multiobjetivo basada en fiabilidad y metamodelos, aporta un conjunto de soluciones eficientes que el responsable debe evaluar antes de tomar su decisión. Por tanto, la novedad de la propuesta metodológica trifase se basa en la integración de técnicas de información a priori, donde el decisor (grupos de interés) informa de las preferencias al analista (en cuanto a tipologías, métodos constructivos, conservación, etc.), produciéndose con esta información una optimización multiobjetivo capaz de generar alternativas eficientes utilizando la variabilidad en los parámetros, variables y restricciones. La última fase pasa por un proceso de información a posteriori para que el decisor contemple aspectos no considerados en la optimización para dar la solución final completa.

Figura 3.- Esquema metodológico diseñado para HYDELIFE en relación con los objetivos

Proyecto de Investigación:

  • Optimización híbrida del ciclo de vida de puentes y estructuras mixtas y modulares de alta eficiencia social y medioambiental bajo presupuestos restrictivos. (HYDELIFE). [Hybrid life cycle optimization of bridges and mixed and modular structures with high social and environmental efficiency under restrictive budgets]. PID2020-117056RB-I00. Financiado por el Ministerio de Ciencia e Innovación con fondos FEDER. Investigador Principal: Víctor Yepes.

En este momento llevamos seis meses de trabajo, pues el proyecto comenzó en septiembre del 2021. Pero ya podemos dar algunos resultados que se pueden ver en la siguiente lista de referencias.

Referencias:

MARTÍNEZ FERNÁNDEZ, P.; VILLALBA SANCHIS, I.; INSA FRANCO, R.; YEPES, V. (2022). Slab track optimisation using metamodels to improve rail construction sustainabilityJournal of Construction Engineering and Management, (accepted, in press).

MATHERN, A.; PENADÉS-PLÀ, V.; ARMESTO BARROS, J.; YEPES, V. (2022). Practical metamodel-assisted multi-objective design optimization for improved sustainability and buildability of wind turbine foundations. Structural and Multidisciplinary Optimization, 65:46. DOI:10.1007/s00158-021-03154-0

SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2022). Multi-criteria decision-making applied to the sustainability of building structures based on Modern Methods of Construction. Journal of Cleaner Production, 330:129724. DOI:10.1016/j.jclepro.2021.129724

YEPES, V.; LOPEZ, S. (2021). Knowledge management in the construction industry: Current state of knowledge and future research. Journal of Civil Engineering and Management, 27(8):671-680. DOI:10.3846/jcem.2021.16006

SIERRA, L.; ARAYA, F.; YEPES, V. (2021). Consideration of uncertainty and multiple disciplines in the determination of sustainable criteria for rural roads using neutrosophic logic.  Sustainability, 13(17):9854. DOI:10.3390/su13179854

ATA-ALI, N.; PENADÉS-PLÀ, V.; MARTÍNEZ-MUÑOZ, D.; YEPES, V. (2021). Recycled versus non-recycled insulation alternatives LCA analysis for different climatic conditions in Spain. Resources, Conservation and Recycling, 175, 105838. DOI:10.1016/j.resconrec.2021.105838

HOOSE, A.; YEPES, V.; KRIPKA, M. (2021). Selection of Production Mix in the Agricultural Machinery Industry considering Sustainability in Decision Making. Sustainability, 13(16), 9110. DOI:10.3390/su13169110

MAUREIRA, C.; PINTO, H.; YEPES, V.; GARCÍA, J. (2021). Towards an AEC-AI industry optimization algorithmic knowledge mapping. IEEE Access, 9:110842-110879. DOI:10.1109/ACCESS.2021.3102215

MARTÍN, R.; YEPES, V. (2021). Bridging the gap between landscape and management within marinas: A review. Land, 10(8), 821. DOI:10.3390/land10080821

MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; YEPES, V. (2021). Comparative life cycle analysis of concrete and composite bridges varying steel recycling ratio. Materials, 14(15):4218. DOI:10.3390/ma14154218

ZHOU, Z.; ALCALÁ, J.; YEPES, V. (2021). Optimized application of sustainable development strategy in international engineering project management. Mathematics, 9(14):1633. DOI:10.3390/math9141633

ZHOU, Z.; ALCALÁ, J.; KRIPKA, M.; YEPES, V. (2021). Life cycle assessment of bridges using Bayesian Networks and Fuzzy Mathematics. Applied Sciences, 11(11):4916. DOI:10.3390/app11114916

BIANCHI, P.F.; YEPES, V.; VITORIO, P.C., Jr.; KRIPKA, M. (2021). Study of alternatives for the design of sustainable low-income housing in BrazilSustainability, 13(9):4757. DOI:10.3390/su13094757

SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2021). Neutrosophic multi-criteria evaluation of sustainable alternatives for the structure of single-family homesEnvironmental Impact Assessment Review, 89:106572. DOI:10.1016/j.eiar.2021.106572

NAVARRO, I.J.; MARTÍ, J.V.; YEPES, V. (2021). Neutrosophic completion technique for incomplete higher-order AHP comparison matrices. Mathematics, 9(5):496. DOI:10.3390/math9050496

TANG, M.; LIAO, H.; YEPES, V.; LAURINAVICIUS, A.; TUPENAITE, L. (2021). Quantifiying and mapping the evolution of a leader journal in the field of civil engineering. Journal of Civil Engineering and Management, 27(2):100-116. DOI:10.3846/jcem.2021.14365

MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; GARCÍA, J.; YEPES, V. (2021). Embodied energy optimization of buttressed earth-retaining walls with hybrid simulated annealing. Applied Sciences, 11(4):1800. DOI:10.3390/app11041800

GARCÍA, J.; ASTORGA, G.; YEPES, V. (2021). An analysis of a KNN perturbation operator: an application to the binarization of continuous metaheuristics. Mathematics, 9(3):225. DOI:10.3390/math9030225.

ZHOU, Z.; ALCALÁ, J.; YEPES, V. (2021). Environmental, economic and social impact assessment: study of bridges in China’s five major economic regions. International Journal of Environmental Research and Public Health, 18(1):122. DOI:10.3390/ijerph18010122

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Hacia un mapa de conocimiento algorítmico de optimización de la industria AEC-AI (Arquitectura, Ingeniería, Construcción e Inteligencia Artificial)

Acaban de publicarnos un artículo en la revista IEEE Access, revista de alto impacto indexada en el JCR. En este caso se ha realizado un análisis conceptual macroscópico de la industria AEC-AI (Arquitectura, Ingeniería, Construcción e Inteligencia Artificial). El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.

La industria de la arquitectura, la ingeniería y la construcción (AEC) constituye uno de los sectores productivos más relevantes, por lo que también produce un alto impacto en los equilibrios económicos, la estabilidad de la sociedad y los desafíos globales en el cambio climático. En cuanto a su adopción de tecnologías, aplicaciones y procesos también se reconoce por su status-quo, su lento ritmo de innovación, y los enfoques conservadores. Sin embargo, una nueva era tecnológica -la Industria 4.0 alimentada por la IA- está impulsando los sectores productivos en un panorama sociopolítico y de competencia tecnológica global altamente presionado. En este trabajo, desarrollamos un enfoque adaptativo para la minería de contenido textual en el corpus de investigación de la literatura relacionada con las industrias de la AEC y la IA (AEC-AI), en particular en su relación con los procesos y aplicaciones tecnológicas. Presentamos un enfoque de primera etapa para una evaluación adaptativa de los algoritmos de IA, para formar una plataforma integradora de IA en la industria AEC, la industria AEC-AI 4.0. En esta etapa, se despliega un método adaptativo macroscópico para caracterizar la “Optimización”, un término clave en la industria AEC-AI, utilizando una metodología mixta que incorpora el aprendizaje automático y el proceso de evaluación clásico. Nuestros resultados muestran que el uso eficaz de los metadatos, las consultas de búsqueda restringidas y el conocimiento del dominio permiten obtener una evaluación macroscópica del concepto objetivo. Esto permite la extracción de un mapeo de alto nivel y la caracterización de la estructura conceptual del corpus bibliográfico. Los resultados son comparables, a este nivel, a las metodologías clásicas de revisión de la literatura. Además, nuestro método está diseñado para una evaluación adaptativa que permita incorporar otras etapas.

Abstract:

The Architecture, Engineering, and Construction (AEC) Industry is one of the most important productive sectors, hence also produce a high impact on the economic balances, societal stability, and global challenges in climate change. Regarding its adoption of technologies, applications and processes is also recognized by its status-quo, its slow innovation pace, and the conservative approaches. However, a new technological era – Industry 4.0 fueled by AI- is driving productive sectors in a highly pressurized global technological competition and sociopolitical landscape. In this paper, we develop an adaptive approach to mining text content in the literature research corpus related to the AEC and AI (AEC-AI) industries, in particular on its relation to technological processes and applications. We present a first stage approach to an adaptive assessment of AI algorithms, to form an integrative AI platform in the AEC industry, the AEC-AI industry 4.0. At this stage, a macroscopic adaptive method is deployed to characterize “Optimization,” a key term in AEC-AI industry, using a mixed methodology incorporating machine learning and classical evaluation process. Our results show that effective use of metadata, constrained search queries, and domain knowledge allows getting a macroscopic assessment of the target concept. This allows the extraction of a high-level mapping and conceptual structure characterization of the literature corpus. The results are comparable, at this level, to classical methodologies for the literature review. In addition, our method is designed for an adaptive assessment to incorporate further stages.

Keywords:

Architecture, engineering and construction, AEC, artificial intelligence, literature corpus, machine learning, optimization algorithms, knowledge mapping and structure

Reference:

MAUREIRA, C.; PINTO, H.; YEPES, V.; GARCÍA, J. (2021). Towards an AEC-AI industry optimization algorithmic knowledge mapping. IEEE Access, 9:110842-110879. DOI:10.1109/ACCESS.2021.3102215

Descargar (PDF, 6.14MB)