El arte de predecir lo invisible: claves para entender la inferencia estadística

¿Cómo podemos determinar la intención de voto de toda una nación o evaluar la eficacia de un nuevo fármaco sin entrevistar a todos los ciudadanos ni tratar a todos los pacientes del planeta? En nuestra vida cotidiana, nos enfrentamos constantemente al reto de tomar decisiones globales basadas en información limitada. Medir el total de elementos suele ser física o económicamente inviable.

Como expertos en comunicación de datos, consideramos la inferencia estadística como el puente intelectual definitivo. Es la disciplina que nos permite pasar de lo que vemos —una pequeña muestra— a la realidad oculta de la población total. En esencia, es la herramienta científica que transforma la observación de unos pocos en el conocimiento preciso de la mayoría.

Población frente a muestra: la ventana hacia la verdad

Para descifrar la realidad, primero debemos distinguir entre los dos protagonistas del análisis: la población y la muestra. La población es el conjunto total que deseamos estudiar y la muestra es un subconjunto extraído de forma aleatoria que nos sirve de ventana para observar la población.

En este proceso, manejamos conceptos que debemos diferenciar con rigor:

  • Parámetro: Es el número «secreto» que describe la población. En la práctica, su valor es desconocido porque no podemos examinar a cada individuo. Usamos símbolos como la media poblacional (μ), la desviación típica (σ), la varianza (σ²) o el porcentaje o la proporción poblacional (p).
  • Estadístico: Es el número que calculamos directamente a partir de los datos muestrales. En este ámbito operamos con la media muestral, la desviación típica muestral, la varianza o la proporción muestral.

Dado que no podemos conocer el parámetro real, nos vemos obligados a operar en el mundo de los estadísticos para realizar estimaciones. El objetivo es claro:

«Extraer conclusiones sobre una población a partir de los datos de una muestra».

El intervalo de confianza: ¿qué tan cerca estamos de la realidad?

Dado que trabajar con muestras implica un error aleatorio inevitable, la estadística no ofrece un único número como verdad absoluta. En su lugar, construimos un intervalo de confianza de nivel C.

Conceptualmente, este rango se define mediante una estructura lógica: estimación ± error de la estimación.

No proporcionamos un único valor porque, en la práctica, el parámetro no se conoce. Por ello, el nivel de confianza C no es solo un porcentaje, sino la respuesta a una pregunta vital sobre la fiabilidad de nuestro trabajo: «¿Con qué frecuencia daría una respuesta correcta este método si lo utilizara muchas veces?». Si afirmamos que tenemos un 95 % de confianza, estamos diciendo que, si repitiéramos el muestreo el 95 % de las veces, nuestro intervalo contendría el verdadero valor del parámetro.

Inocente hasta que se demuestre lo contrario: la hipótesis nula (H0)

Como expertos, empleamos el contraste de hipótesis para evaluar si la evidencia de la muestra es suficiente para inferir una condición en toda la población. Este mecanismo examina dos afirmaciones opuestas:

La hipótesis nula (H0) representa el estado «habitual» o lo que cabría esperar si no hubiera cambios. Es una afirmación de «ausencia de efecto» o de «no diferencia». Algunos ejemplos críticos de H₀ son:

  • El acusado no es culpable (es inocente).
  • No hay embarazo.
  • No hay presencia de cáncer.

Para decidir si rechazamos la hipótesis nula, calculamos el p-valor (o significación muestral). A diferencia de lo que se cree popularmente, el p-valor no es un corte arbitrario, sino la probabilidad de obtener nuestros resultados si la hipótesis nula fuera cierta. Comparamos este p-valor con el nivel de significación (α), que es el límite preestablecido. Si p ≤ α, la evidencia es tan fuerte que rechazamos la situación «habitual» en favor de la hipótesis alternativa.

El dilema del error: falsos positivos y falsos negativos

En cualquier prueba estadística, asumimos el riesgo de tomar una decisión equivocada. Estos errores se dividen en dos categorías fundamentales:

  • Error tipo I (α): el «falso positivo» o riesgo del fabricante. Ocurre cuando rechazamos la hipótesis nula cuando esta es verdadera (por ejemplo, operar a una persona sana o condenar a un inocente).
  • Error tipo II (β): el «falso negativo». Sucede cuando aceptamos la hipótesis nula cuando es falsa (por ejemplo, declarar inocente a un asesino o no detectar una enfermedad).

Para minimizar estos riesgos, no solo tenemos en cuenta el nivel de significación (típicamente fijado en el 5 %), sino que también buscamos maximizar la potencia de la prueba (1 – β). Esta potencia representa nuestra capacidad para detectar un efecto cuando realmente existe y depende directamente del tamaño de la muestra y del nivel de significación. Decimos que un resultado tiene significación estadística cuando es tan improbable que no puede atribuirse razonablemente al azar (p ≤ α).

Propiedades del buen estimador

Para que nuestras conclusiones sean robustas, los métodos que utilizamos deben poseer cuatro pilares técnicos extraídos de la teoría de la probabilidad:

  • Sesgo: el estimador debe carecer de desviaciones sistemáticas; su media debe coincidir con el parámetro real.
  • Eficiencia: buscamos la menor variabilidad posible en los resultados.
  • Convergencia y consistencia: estas propiedades garantizan la fiabilidad del método a largo plazo.

La lógica matemática que hay detrás de la eficiencia es poderosa: si aumenta el tamaño de la muestra, disminuye la varianza del estimador. Esta es la razón técnica por la que una encuesta con miles de personas es más «eficiente» y nos acerca más a la verdad que una consulta informal: al reducir la varianza, estrechamos el margen de error y ganamos precisión.

Conclusión: una mirada al futuro de las decisiones

La inferencia estadística es la ciencia que se ocupa de gestionar la incertidumbre para alcanzar la precisión. Nos enseña que, si bien es imposible tener certeza absoluta sobre una población masiva, el rigor matemático nos permite actuar con una seguridad asombrosa.

Aceptar que nuestras conclusiones conviven con un nivel de confianza y un riesgo de error no debilita el conocimiento, sino que lo fortalece al hacerlo verificable y científico. La próxima vez que lea el titular de una encuesta electoral o el estudio de un nuevo tratamiento, no se quede en la superficie. Pregúntese: ¿cuál es el margen de error?, ¿es el p-valor realmente significativo? Si posee estas cinco claves, pasará de ser un consumidor pasivo de datos a ser un pensador crítico capaz de ver lo invisible.

En esta conversación puedes escuchar las ideas más interesantes sobre inferencia estadística.

El vídeo resume bien los conceptos más importantes de este tema.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Crecimiento infinito en un planeta finito?

Introducción: El despertar de una conciencia colectiva.

Durante dos siglos, el modelo industrial funcionó como un motor ciego que ignoraba el agotamiento de su propio combustible. Según la lógica de la Revolución Industrial, el progreso se concebía como una expansión lineal e inagotable, en la que la naturaleza era una reserva infinita de materias primas y un vertedero sin fondo.

La teoría económica tradicional se limitaba a buscar un «equilibrio de mercado» basado estrictamente en el precio, la oferta y la demanda. Sin embargo, este enfoque falló al no considerar los límites biofísicos del planeta. Hoy sabemos que ignorar el capital natural no solo es un error ecológico, sino también una imprudencia financiera y social.

El propósito de este análisis es explorar los puntos de inflexión que nos obligaron a despertar. Desde las advertencias del MIT hasta la Agenda 2030, estos hitos narran cómo la humanidad ha intentado rediseñar su futuro ante la evidencia de que el crecimiento material no puede ser eterno.

El error de Malthus y la trampa de las revoluciones agrícolas.

A finales del siglo XVIII, Thomas Malthus planteó una advertencia: mientras la producción de alimentos avanzaba en progresión aritmética, la población lo hacía en progresión exponencial. Esta brecha, conocida como la «catástrofe maltusiana», sugería que el hambre era el freno inevitable de nuestra especie.

Sin embargo, la Revolución Agraria y la posterior Revolución Verde de los años sesenta introdujeron un arsenal de semillas de alto rendimiento, fertilizantes químicos y riego intensivo. Parecíamos haber «vencido» a Malthus, pero en realidad solo aumentamos el consumo de recursos finitos y de energía.

Desde una perspectiva estratégica, la tecnología actuó como un analgésico que invisibilizó los límites biofísicos del planeta. Al aumentar artificialmente la capacidad de carga del suelo, ocultamos el problema de fondo: seguimos operando bajo un sistema que exige una expansión material infinita en un entorno limitado.

1972: El despertar político y la confirmación de la ciencia.

1972 fue el año en que la diplomacia y el pensamiento sistémico convergieron. Mientras 113 naciones se reunían en la Cumbre de Estocolmo para crear el PNUMA, un think tank pionero, el Club de Roma, publicaba Los límites del crecimiento, un informe del MIT que desafiaba el dogma del progreso ilimitado.

El modelo científico analizó cinco variables críticas: población, producción industrial, alimentos, contaminación y recursos naturales. La conclusión fue un jarro de agua fría para la clase política de la época, ya que por primera vez se introducía la noción de que el crecimiento exponencial colapsaría a corto plazo.

«Si el incremento actual de la población mundial, la industrialización, la contaminación, la producción de alimentos y la explotación de los recursos naturales se mantienen sin variar, se alcanzarán los límites absolutos del crecimiento de la Tierra en los próximos cien años».

Esta tesis resultó disruptiva, pues demostró que no podíamos gestionar el planeta como compartimentos estancos. El año 1972 marcó el inicio de la conciencia política moderna al establecer que la salud de los ecosistemas es la infraestructura básica sobre la que se asienta cualquier economía viable.

La crisis del petróleo: el catalizador de la eficiencia y de la brecha social.

Entre 1973 y 1980, la «edad de oro» de los combustibles baratos llegó a su fin. El precio del barril de crudo aumentó de 1,8 a 11,6 dólares, lo que desencadenó una inflación global que no solo afectó al sector energético, sino que también tuvo profundas repercusiones sociales. La crisis agravó la brecha entre ricos y pobres y provocó recortes masivos en los programas de salud, educación y bienestar.

La recesión y el desempleo en el sector manufacturero obligaron a la industria a reinventarse bajo el lema de la eficiencia. Lo que comenzó como una medida de supervivencia económica terminó sentando las bases de la sostenibilidad energética moderna y del diseño industrial consciente.

  • Eficiencia en el transporte: fabricación de vehículos con menor consumo y emisiones.
  • Fomento de lo colectivo: impulso estratégico del transporte público frente al vehículo privado.
  • Renovables: nacimiento de la industria fotovoltaica y la búsqueda de alternativas al petróleo.
  • Geopolítica de la finitud: reconocimiento oficial de que la dependencia de los recursos fósiles constituye una vulnerabilidad estratégica.

Informe Brundtland: redefinición de la calidad del «progreso».

En 1983, la Comisión Brundtland recibió el encargo de replantear un modelo de desarrollo global que estaba devorando su propio entorno. El informe final de 1987, Nuestro futuro común, no proponía dejar de crecer, sino transformar radicalmente la «calidad del crecimiento» para hacerlo menos materialista y menos intensivo en energía.

Este documento consagró la definición que hoy constituye el pilar de nuestra disciplina:

«El desarrollo sostenible es aquel que satisface las necesidades del presente sin comprometer la capacidad de las generaciones futuras para satisfacer las suyas».

El cambio de paradigma fue absoluto: la sostenibilidad dejó de ser una preocupación ambientalista para convertirse en una tríada en la que lo económico, lo social y lo ecológico son interdependientes. La equidad se convirtió en un requisito técnico para el progreso y no solo en una aspiración ética.

De los Objetivos de Desarrollo del Milenio a la Agenda 2030: una evolución necesaria.

Los Objetivos de Desarrollo del Milenio (ODM) de 2000 fueron un intento loable, pero limitado. Se centraron únicamente en los países en desarrollo y fueron diseñados por un grupo reducido de expertos. El resultado fue desigual: a pesar de los esfuerzos realizados, millones de personas (925 millones pasaban hambre) se quedaron fuera del progreso debido a la falta de indicadores claros y de participación local.

En 2015, la transición a los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030 corrigió estos fallos. Por primera vez, se creó una agenda de «aplicación universal» mediante consultas públicas y encuestas globales que involucraron a la ciudadanía en la definición de sus propias prioridades y metas.

La diferencia crítica radica en la participación ciudadana y la visión sistémica. Los ODS reconocen que la pobreza en un país y el cambio climático en otro son dos caras de la misma moneda. Esta legitimidad democrática es el factor que faltaba en los intentos anteriores para transformar la sostenibilidad en una misión colectiva.

Conclusión: la pregunta que define nuestra era.

La sostenibilidad no es una moda pasajera ni una concesión estética de las empresas; es la respuesta histórica acumulada ante las crisis de recursos, las desigualdades sociales y los límites científicos que ya no podemos ignorar. En esencia, es nuestra estrategia de supervivencia como civilización.

Nuestra responsabilidad generacional nos obliga a mirar hacia el pasado para comprender que el crecimiento tal y como lo conocimos en el siglo XX es una anomalía histórica. El éxito de la Agenda 2030 dependerá de si somos capaces de aplicar el rigor del pensamiento sistémico a cada decisión económica y política.

Al observar la velocidad a la que consumimos actualmente, es inevitable preguntarse si estamos actuando conforme a los principios de equidad del Informe Brundtland para proteger a las generaciones futuras o si seguimos ignorando deliberadamente los límites físicos que la ciencia nos señaló hace ya más de medio siglo.

En esta conversación puedes escuchar algunas de las ideas más importantes.

El vídeo que os dejo resume bien la historia de la sostenibilidad.

En este documento podéis ver las ideas más relevantes.

Sostenibilidad_De_la_Revolución_Industrial_a_2030

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué nada en la ciencia es exacto? Cómo entender y calcular el error experimental

Jorge Luis Borges imaginó una vez un imperio en el que el arte de la cartografía alcanzó tal perfección que el mapa de una sola provincia ocupaba toda una ciudad. Finalmente, los cartógrafos trazaron un mapa del imperio que tenía el mismo tamaño que este y coincidía punto por punto con él. Por supuesto, aquel mapa era inútil.

En ciencia sucede algo similar: medir no es replicar la realidad, sino crear un mapa de ella. Estamos obsesionados con la exactitud, pero en el laboratorio pronto aprendemos que la «medida exacta» es una quimera. Medir no consiste en capturar una verdad absoluta, sino en gestionar con elegancia la incertidumbre. Un dato sin su margen de error no es una medida, sino una simple expresión de deseos.

1. La ilusión de la exactitud: el error es inevitable.

En metrología, la humildad es una competencia técnica. Debemos aceptar que nuestros sentidos y nuestros instrumentos están limitados por definición. La teoría de los errores nos enseña que el «valor verdadero» es un ideal matemático al que solo podemos aproximarnos. El error no es una equivocación del científico, sino una propiedad inherente al acto de medir.

Existen dos fuerzas que distorsionan nuestro «mapa» de la realidad:

  • El error sistemático es un sesgo constante. Aparece cuando la metodología es inadecuada, los instrumentos están mal calibrados o los patrones de medición son dudosos. Se trata de un error predecible que desplaza todas nuestras mediciones en la misma dirección, alejándolas de la realidad.
  • El error accidental o aleatorio es el «ruido» del universo. Se debe al azar, a variaciones microscópicas y a factores incontrolables. Se manifiestan como pequeñas fluctuaciones al repetir una medición y, aunque no pueden eliminarse, la estadística es nuestra herramienta para controlarlas.

Para navegar por esta complejidad, distinguimos entre exactitud (cuán cerca está nuestra flecha del centro de la diana) y precisión (cuán cerca están las flechas entre sí, independientemente de dónde hayan caído).

«El error se define como la diferencia entre el valor verdadero y el obtenido experimentalmente».

2. El drama de los ceros: el límite de nuestro conocimiento.

En el lenguaje técnico, los números no solo indican cantidades, sino que también expresan confianza. No es lo mismo informar de un peso de «1,5 g» que de uno de «1,500 g». Las cifras significativas son los dígitos que realmente aportan información sobre la precisión de nuestra medición.

Para entenderlas, seguimos unas reglas claras:

  • Cualquier dígito distinto de cero es significativo.
  • Los ceros situados entre dígitos significativos (por ejemplo, 2,054) siempre cuentan.
  • Los ceros a la izquierda (por ejemplo, 0,076) son solo marcadores de posición decimal.
  • Los ceros situados a la derecha del punto decimal (por ejemplo, 0,0540) son fundamentales, ya que indican que el instrumento fue capaz de medir esa posición.

El número «1500» es el ejemplo clásico de ambigüedad: ¿es una aproximación a la centena o una medida exacta en gramos? La notación científica resuelve el misterio: 1,5 × 10^(3) indica dos cifras significativas, mientras que 1,500 × 10^(3) indica cuatro. Aquí reside una reflexión profunda: la última cifra significativa siempre es incierta. Es el límite de nuestra visión, el punto en el que nuestra capacidad de observación se desvanece en la duda.

3. La paradoja de la resta: el «caso más desfavorable».

Uno de los conceptos más fascinantes y contraintuitivos es la propagación de errores. Imaginemos que pesamos una tetera colocando pesas en un platillo. Si la masa de la tetera se obtiene restando la masa del plato de la masa total, podrías pensar que los errores también se restan. Sin embargo, la ciencia es conservadora por necesidad.

En metrología, trabajamos bajo la filosofía del caso más desfavorable. Si la medida A presenta un error por exceso y la medida B, por defecto, al restarlas (A – B) el error total resultante no disminuye, sino que aumenta. Las incertidumbres nunca se anulan; siempre se acumulan.

  • En sumas y restas, las cotas de error absoluto se suman.
  • En multiplicaciones y divisiones, lo que sumamos son los errores relativos.

Cuando multiplicamos, no solo añadimos «milímetros» de duda, sino que también multiplicamos la incertidumbre de la proporción misma, lo que amplía el margen de error de nuestro mapa original.

4. La regla de oro: la estética del rigor.

La honestidad metrológica tiene una regla estética: el error absoluto generalmente se expresa con una sola cifra significativa. No tiene sentido decir que una montaña mide 2000,432 metros, con un error de 12,45 metros. La duda en las decenas anula cualquier certeza en los milímetros.

Sin embargo, existen dos excepciones en las que se permiten dos cifras significativas en el error:

  • Si la primera cifra es un 1.
  • Si la primera cifra es un 2 seguido de una cifra menor que 5 (es decir, hasta 24).

La regla del redondeo es estricta: se redondea por exceso en una unidad si la segunda cifra es 5 o superior. Finalmente, el valor y su error deben tener el mismo número de decimales.

Corrección de estilo metrológico

5. El criterio de dispersión: ¿cuándo es suficiente?

¿Cuántas mediciones necesitamos para que nuestra media sea fiable? Si solo realizamos una medición, el error dependerá directamente del instrumento.

  • En los instrumentos digitales, el error se expresa como la sensibilidad (S).
  • En los instrumentos analógicos, el error es la mitad de la sensibilidad (S/2).

Pero cuando la precisión es crítica, recurrimos a la estadística. A continuación, comento un criterio usado en algunas publicaciones, como la de Fernando Senent, aunque también se pueden consultar otros criterios en este otro documento. En cualquier caso, el proceso siempre comienza con 3 medidas iniciales para calcular el criterio de dispersión (T):

Para series largas (N ≥ 15), utilizamos el error cuadrático medio (ECM). Este cálculo parte de la suposición de que nuestros datos siguen una distribución gaussiana (la famosa campana de Gauss), según la cual el 68,3 % de las medidas se encontrarán dentro de un margen de error cuadrático medio respecto a la media. Es el reconocimiento matemático de que el azar tiene una estructura.

Conclusión: la honestidad de la incertidumbre.

La ciencia no es el dominio de las verdades absolutas, sino el territorio de la incertidumbre controlada. Aceptar el error, nombrarlo y calcularlo no es una debilidad, sino la máxima expresión de la integridad técnica. Al acotar lo que no sabemos, protegemos la validez de lo que sí sabemos.

¿Cómo cambiaría nuestra percepción del mundo si aceptáramos que cada «dato real» que consumimos, desde las estadísticas económicas hasta los resultados de un análisis clínico, viene acompañado de un margen de error invisible? Quizás dejaríamos de buscar certezas absolutas y empezaríamos a valorar la honestidad de la duda bien calculada.

En esta conversación puedes escuchar las ideas más interesantes de este artículo.

Aquí tienes un resumen en formato de vídeo sobre los aspectos clave de la medición.

Por último, creo que este resumen puede resultar de interés.

Medición_y_error_La_guía_maestra

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Clasificación y principios fundamentales del diseño experimental

Cuando pensamos en un experimento, solemos imaginar una prueba simple para ver qué opción es “mejor”. Sin embargo, esta visión apenas roza la superficie de una disciplina profunda y estratégica. Existen principios sorprendentes que rigen el diseño experimental y son cruciales no solo para la ciencia, sino también para cualquier toma de decisiones informada. A continuación, se describen brevemente los tipos de experimentos que pueden utilizarse en la investigación científica.

El diseño experimental se clasifica en dos categorías principales, según la propuesta de Anscombe (1947): el experimento absoluto y el experimento comparativo. El experimento absoluto se enfoca en la medición de propiedades físicas constantes para ampliar el conocimiento científico, utilizando un modelo estadístico de efectos aleatorios (Modelo II de Eisenhart), ya que los tratamientos se seleccionan al azar de una población más amplia. Por el contrario, el experimento comparativo está orientado a la toma de decisiones en ciencias aplicadas, con el fin de determinar cuál de varios tratamientos predefinidos es “mejor”. Este enfoque utiliza un modelo de efectos fijos (Modelo I de Eisenhart) y exige una definición precisa del problema para garantizar su validez.

El éxito de un experimento, especialmente el comparativo, depende del cumplimiento de cinco principios fundamentales: simplicidad, nivel de precisión adecuado, ausencia de error sistemático, amplio rango de validez de las conclusiones y una correcta cuantificación de la incertidumbre. La elección del diseño y el modelo estadístico asociado (fijo, aleatorio o mixto) determinan directamente el alcance y la naturaleza de las inferencias que pueden extraerse, vinculando de manera inseparable la planificación experimental con las conclusiones científicas y las decisiones de gestión.

La clasificación propuesta por Anscombe distingue los experimentos en dos grandes tipos según su objetivo fundamental: la adquisición de conocimiento puro o la fundamentación de decisiones prácticas.

Uno de ellos es el llamado experimento absoluto. En este tipo de experimento, el interés principal es medir y conocer las propiedades físicas de una población. Se asume que dichas propiedades permanecen constantes, lo que justifica el uso del término absoluto. El objetivo no es comparar alternativas concretas, sino ampliar el conocimiento científico sobre el fenómeno estudiado.

Los experimentos absolutos suelen centrarse en un solo factor y consideran un número limitado de tratamientos o niveles de ese factor. Estos tratamientos suelen elegirse de forma aleatoria. Por esta razón, si el experimento se repite, no es obligatorio utilizar exactamente los mismos tratamientos en cada ocasión.

Debido a esta forma de selección, los tratamientos se consideran variables aleatoriasEn consecuencia, el análisis se basa en un modelo de efectos aleatorios, también conocido como el Modelo II de Eisenhart (1947). Este tipo de modelo permite identificar y estimar los distintos componentes de la variación aleatoria presentes en una población compuesta, lo que constituye un enfoque especialmente útil para muchos problemas de ingeniería.

El experimento comparativo es el segundo tipo de experimento descrito por Anscombe. Este enfoque se utiliza cuando se analizan varios tratamientos y se observa que, aunque los valores absolutos de los resultados pueden fluctuar de forma irregular, las comparaciones relativas entre tratamientos suelen mantenerse estables. En este contexto, es posible concluir que, bajo condiciones similares, algunos tratamientos ofrecen resultados claramente mejores que otros.

Brownlee (1957) sitúa este tipo de experimentos en el ámbito de las ciencias aplicadas, y no es casualidad: la teoría estadística del diseño de experimentos se desarrolló originalmente para responder a las necesidades de este tipo de estudios.

En un experimento comparativo, los tratamientos se evalúan según su efecto promedio sobre una variable de respuesta, con el objetivo principal de determinar cuál es “mejor” según un criterio definido. A diferencia de los experimentos orientados al conocimiento fundamental, aquí el propósito central es apoyar la toma de decisiones prácticas, especialmente las administrativas o de gestión.

Una característica fundamental de los experimentos comparativos es que todos los tratamientos de interés están incluidos explícitamente en el estudio. Por esta razón, el análisis se basa en un modelo de efectos fijos, también conocido como el Modelo I de Eisenhart (1947). Si el experimento se repite, se utilizan exactamente los mismos tratamientos, ya que no se considera una muestra aleatoria. El interés principal radica en detectar y estimar relaciones constantes entre las medias de los tratamientos, lo que conduce naturalmente a la evaluación de hipótesis estadísticas sobre dichas medias.

Para que un experimento comparativo sea válido, debe comenzar con una definición clara y precisa del problema. No basta con plantear de manera general la idea de “comparar tratamientos”. Es imprescindible especificar con detalle los objetivos del estudio y formular con precisión las hipótesis que se probarán. Esta definición inicial determina la población a la que se aplicarán las conclusiones, identifica los factores, los tratamientos y sus niveles, establece las variables de respuesta que se medirán y define qué diferencias entre tratamientos se consideran relevantes. Sin estas especificaciones, no es posible diseñar un experimento adecuado.

Finalmente, una consecuencia natural de los experimentos comparativos es que casi siempre conducen a decisiones concretas. Dado un nivel suficiente de recursos, la hipótesis nula de igualdad entre tratamientos puede rechazarse, lo que obliga a actuar: mantener la situación actual o cambiar a un nuevo tratamiento. Este proceso de decisión consta de dos etapas bien definidas:

  1. Análisis estadístico de los datos, en el que se evalúan las probabilidades asociadas a los resultados y se extraen conclusiones técnicas.
  2. Decisión de gestión en la que, con base en esas conclusiones, se define la acción a realizar.

Esta conexión directa entre el análisis estadístico y la toma de decisiones explica por qué los experimentos comparativos son una herramienta central en la divulgación y la práctica de la ingeniería y de las ciencias aplicadas.

El estadístico cumple un rol clave en el proceso experimental: su responsabilidad es presentar, con la mayor precisión posible, las probabilidades obtenidas en la etapa de análisis, de manera que se reduzca al mínimo la posibilidad de tomar decisiones equivocadas cuando llegue el momento de actuar.

Dado que las decisiones sobre las hipótesis dependen directamente de experimentos cuidadosamente planificados, es esencial que dichos ensayos cumplan con una serie de principios básicos. A continuación se resumen los más importantes, con un enfoque práctico para la ingeniería:

  • Simplicidad: Tanto la selección de los tratamientos como la organización del experimento deben ser lo más simples posible. Un diseño sencillo facilita el análisis estadístico y la interpretación de los resultados y reduce el riesgo de errores innecesarios.
  • Nivel de precisión: El experimento debe permitir detectar diferencias entre tratamientos con el grado de precisión que el investigador considere relevante. Para lograrlo, se requiere un diseño experimental adecuado y un número suficiente de repeticiones que garanticen mediciones confiables.
  • Ausencia de error sistemático: El experimento debe planearse de modo que las unidades experimentales que reciben distintos tratamientos no difieran sistemáticamente entre sí antes de aplicarlos. Este cuidado es fundamental para obtener estimaciones insesgadas del efecto real de cada tratamiento, evitando que factores externos distorsionen los resultados.
  • Rango de validez de las conclusiones: Las conclusiones del experimento deben ser aplicables a un rango de situaciones lo más amplio posible. Los experimentos replicados y los diseños factoriales ayudan a ampliar este rango de validez, ya que permiten evaluar la consistencia de los resultados bajo diferentes condiciones.
  • Cuantificación de la incertidumbre: Todo experimento conlleva cierto grado de incertidumbre. Por ello, el diseño debe permitir calcular la probabilidad de que los resultados observados se deban únicamente al azar. Esta cuantificación es esencial para evaluar la solidez de las conclusiones.

Estos principios conducen a una clasificación clásica de los modelos estadísticos, propuesta por Eisenhart (1947), que conecta el diseño del experimento con el tipo de inferencia que se desea realizar:

  • Modelo de efectos fijos: se utiliza cuando las conclusiones se formulan sobre un conjunto específico y previamente definido de tratamientos. En este caso, el interés estadístico se centra en comparar los efectos medios de dichos tratamientos.
  • Modelo de efectos aleatorios: se aplica cuando los tratamientos evaluados representan una muestra aleatoria de una población más amplia de tratamientos. Aquí, las conclusiones se extienden más allá de los tratamientos observados y la inferencia se centra en las varianzas asociadas a dichos tratamientos.
  • Modelo de efectos mixtos: surge cuando el experimento combina tratamientos de efectos fijos y aleatorios en un mismo estudio.

Esta clasificación permite comprender cómo las decisiones sobre el diseño experimental influyen directamente en el tipo de conclusiones que pueden extraerse, un aspecto fundamental tanto en la práctica como en la divulgación de la ingeniería.

En este archivo de audio puedes escuchar una conversación sobre los tipos de experimentos.

En este vídeo se resumen las ideas más importantes sobre este tema.

Referencias:

Anscombe, F. J. (1947). The validity of comparative experiments. Journal of the Royal Statistical Society, 61, 181–211.

Brownlee, K. A. (1957). The principles of experimental design. Industrial Quality Control, 13, 1–9.

Eisenhart, C. (1947). The assumptions underlying the analysis of variance. Biometrics, 3, 1–21.

Melo, O. O., López, L. A., & Melo, S. E. (2007). Diseño de experimentos: métodos y aplicaciones. Universidad Nacional de Colombia. Facultad de Ciencias.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Crees que la ciencia «transfiere» conocimiento a la sociedad? 4 revelaciones que cambiarán tu perspectiva.

Introducción: de la torre de marfil al diálogo abierto.

A menudo imaginamos la ciencia como un proceso aislado: un grupo de expertos en una torre de marfil que, una vez finalizado su trabajo, «transfiere» su conocimiento empaquetado a una sociedad que lo recibe pasivamente. Esta imagen de un flujo unidireccional en el que el conocimiento fluye desde el laboratorio hasta la calle ha dominado nuestra percepción durante décadas. Sin embargo, esta visión está profundamente obsoleta. La relación entre la ciencia y la sociedad es, en realidad, un ecosistema vibrante, un diálogo complejo y multidireccional que enriquece a ambas partes de formas que apenas empezamos a comprender.

Este artículo se sumerge en el corazón de esta nueva perspectiva basándose en un profundo análisis del documento de trabajo de la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA). A continuación, revelaremos las claves más impactantes y sorprendentes sobre cómo el conocimiento científico crea realmente valor social, desmontando viejos mitos y abriendo la puerta a una nueva forma de entender la ciencia.

1. No es «transferencia», sino «intercambio». Y el cambio es enorme.

El primer gran cambio es conceptual, pero tiene implicaciones transformadoras. La anterior Ley Orgánica de Universidades de 2001 entendía la «transferencia» como un flujo que siempre partía de la universidad hacia la sociedad, con un enfoque casi exclusivo en el valor económico o tecnológico. Era un monólogo en el que la ciencia hablaba y la sociedad escuchaba.

El nuevo paradigma, impulsado por las recientes leyes del Sistema Universitario y de la Ciencia, habla de «transferencia e intercambio de conocimiento». Este término enriquece radicalmente la perspectiva. Reconoce que los flujos de conocimiento son multidireccionales, ya que la sociedad también aporta saberes, necesidades y contextos cruciales para la investigación. Se valora la interacción con actores no académicos y los procesos de cocreación, en los que el valor ya no es solo económico, sino también social, artístico y cultural. Este cambio es significativo, puesto que transforma la relación de un monólogo a un diálogo y reconoce que el conocimiento y las necesidades de la sociedad son fundamentales para enriquecer la propia ciencia.

La valorización del conocimiento consiste en crear valor social y económico a partir de él, vinculando diferentes ámbitos y sectores, y transformando datos, conocimientos técnicos y resultados de la investigación en productos, servicios, soluciones y políticas basadas en el conocimiento, sostenibles y que beneficien a la sociedad.

2. Las patentes son solo la punta del iceberg (y muy pequeña, además).

Cuando pensamos en la ciencia aplicada a la sociedad, suele venirnos a la mente la imagen de una patente que se convierte en un producto comercial o la creación de una empresa spin-off a partir de una investigación universitaria. Estas se han considerado durante mucho tiempo como el máximo exponente de la transferencia de tecnología.

Sin embargo, la realidad es muy diferente. El informe de la ANECA pone de manifiesto que solo una minoría de investigadores e instituciones participa activamente en estas actividades. Los datos del estudio EXTRA son reveladores: la comercialización de resultados (que incluye patentes y empresas derivadas) es una práctica mucho menos frecuente (12 %) que la colaboración formal mediante contrato (63 %) o la colaboración informal (80 %). Esto significa que, durante décadas, los sistemas de evaluación han premiado y medido la actividad de una minoría (el 12 %), mientras que el vasto ecosistema de colaboración real (el 80 %) que genera valor social ha permanecido en la sombra, sin ser reconocido ni incentivado.

Esta obsesión por lo comercial no es solo teórica. En una evaluación piloto de la «transferencia» realizada en 2018, los resultados favorecieron abrumadoramente un modelo económico y tecnológico que premiaba perfiles muy específicos (hombres de mayor edad con trayectorias consolidadas) y actividades como las spin-offs y las patentes, mientras que la divulgación y la transferencia con valor social obtuvieron resultados muy inferiores. Este sesgo sistémico demostró que el antiguo modelo no solo era incompleto, sino también excluyente.

La mayor parte del intercambio real se produce a través de un «espectro oculto» de mecanismos menos visibles, pero muy valiosos, como la investigación conjunta con empresas u ONG, la consultoría especializada, la formación a medida o la participación directa en la elaboración de políticas públicas.

«Intercambio de conocimientos» es el nombre que damos a la amplia gama de actividades que las instituciones de educación superior emprenden con socios (…) para explorar datos y explicaciones sobre las diferentes maneras en que trabajan con sus socios externos, desde empresas hasta grupos comunitarios, en beneficio de la economía y la sociedad.

3. El valor de la ciencia no es intrínseco, sino que lo crean quienes la utilizan.

Medir el «impacto social» de la investigación es un gran desafío. De hecho, la literatura citada en el documento de ANECA señala que ni siquiera existe una definición consensuada de qué es exactamente. Esto ha llevado a un cambio de enfoque radical: la «valorización y el uso social».

La idea es sencilla, pero potente: el valor no reside inherentemente en los resultados científicos, como un artículo o un descubrimiento. El valor se crea y materializa cuando los agentes sociales —empresas, administraciones públicas, ONG, asociaciones de pacientes o ciudadanos— utilizan ese conocimiento para resolver problemas, mejorar procesos o enriquecer contextos. La investigación, por sí sola, no tiene valor social; lo adquiere cuando alguien la pone en práctica.

En la práctica, son los actores sociales que usan o apoyan el uso de la investigación quienes le confieren valor, ya que este no es intrínseco a los resultados científicos, sino que depende de su materialización efectiva por parte de los usuarios en sus respectivos entornos.

Esta perspectiva empodera a la sociedad y transforma por completo el enfoque de la evaluación. La pregunta clave ya no es «¿qué ha producido el científico?», sino «¿cómo y quién ha utilizado el conocimiento generado para crear valor real en el mundo?».

4. La ciencia del futuro debe ser inclusiva, abierta y responsable.

La idea de una ciencia completamente neutral y objetiva, inmune a los problemas sociales, es otro mito que se desmorona. El documento de ANECA deja claro que la ciencia, al igual que cualquier actividad humana, no está exenta de sesgos sistémicos como el sexismo, el racismo o la discriminación por clase social. Reconocer esto es el primer paso para construir una ciencia mejor, guiada por tres pilares fundamentales:

  • Ciencia inclusiva: supera el «modelo del déficit», que asume que el público es un receptor vacío de conocimiento. En su lugar, incorpora activamente las voces, experiencias y preocupaciones de comunidades diversas e históricamente excluidas en el propio proceso científico. En esencia, es la puesta en práctica del verdadero «intercambio» del que hablamos al principio y garantiza que el diálogo sea real y representativo.
  • Ciencia abierta: promueve el acceso libre y gratuito a los datos, las metodologías y los resultados de la investigación. El objetivo es maximizar su reutilización, transparencia y beneficio para toda la sociedad, no solo para quienes pueden pagarlo.
  • Ciencia responsable: implica considerar proactivamente las implicaciones éticas, sociales y medioambientales de la investigación. Se trata de anticipar consecuencias para garantizar que el «valor» creado por la sociedad, como vimos antes, se oriente siempre hacia el bien común.

Integrar estos principios no es solo una cuestión de justicia social. Se trata de una estrategia indispensable para mejorar la calidad y la relevancia de la propia investigación, fortalecer la confianza pública en la ciencia y garantizar que sus beneficios lleguen a todos.

Conclusión: una conversación, no un monólogo.

El viaje ha sido revelador. Hemos pasado de la idea de una «transferencia» unidireccional y centrada en las patentes a un ecosistema de «intercambio», en el que el verdadero valor no radica en el descubrimiento científico en sí, sino en cómo la sociedad lo utiliza y lo transforma. Este cambio nos obliga a replantearnos qué es lo que realmente importa. La ciencia del futuro no puede medirse por sus productos aislados, sino por la riqueza y la calidad de sus relaciones con la sociedad. Su éxito no radica en un monólogo desde la autoridad, sino en su capacidad para crear, conjuntamente, un valor tangible y equitativo mediante un diálogo inclusivo, abierto y responsable.

Ahora que entendemos la ciencia no como un monólogo desde una torre de marfil, sino como una conversación continua, ¿qué pregunta urgente le harías tú a la comunidad científica?

En esta conversación se descubre gran parte de las ideas anteriores.

En este vídeo tenéis un resumen del tema.

El documento de ANECA lo podéis ver en este enlace: https://www.aneca.es/web/guest/-/documento-transferencia-e-intercambio-de-conocimiento

Pero también lo podéis descargar aquí:

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Joseph Louis Lagrange: El arte de la matemática aplicada a la mecánica

Joseph-Louis Lagrange (1736-1813). https://es.wikipedia.org/wiki/Joseph-Louis_Lagrange

Joseph-Louis Lagrange, inscrito al nacer como Giuseppe Lodovico Lagrangia, nació en Turín el 25 de enero de 1736, en el entonces Reino de Cerdeña. Fue un matemático, físico y astrónomo que desarrolló la mayor parte de su carrera en Prusia y Francia. Falleció en París el 10 de abril de 1813. Lagrange fue una de las mentes más brillantes del siglo XVIII en el ámbito de las matemáticas y la mecánica. Su legado, aún vigente en numerosos campos de la ingeniería y la ciencia, lo sitúa como una figura clave en la historia de la mecánica teórica. Es considerado uno de los científicos más influyentes de todos los tiempos gracias a la profundidad y el volumen de sus contribuciones.

Provenía de una familia de origen parisino asentada en Turín. Su padre era tesorero del Departamento de Obras Públicas y Fortificaciones, pero su afición al juego arruinó la fortuna familiar. Esto le impidió seguir una carrera militar. Estudió en la Universidad de Turín y no mostró interés por las matemáticas hasta los 17 años, cuando la lectura de un ensayo de Edmund Halley despertó su vocación científica.

Con tan solo 19 años, en 1755, se convirtió en profesor de la Escuela Real de Artillería de Turín. Ese mismo año publicó sus primeros trabajos matemáticos independientes, en los que introdujo innovaciones basadas en las teorías de Robins y Euler. No obstante, su enfoque teórico y abstracto fue criticado por su escasa conexión con la práctica militar.

Poco después, en 1757, fundó junto a un grupo de estudiantes la Academia de Ciencias de Turín. El primer volumen de sus Mémoires, publicado en 1759, contenía artículos que ya le situaban entre los grandes científicos del siglo XVIII. Uno de sus alumnos más destacados fue François Daviet de Foncenex, quien se especializó más adelante en análisis dimensional. Durante estos primeros años, centró su trabajo en el estudio de ecuaciones diferenciales, el cálculo de variaciones y sus aplicaciones a la mecánica celeste.

La fama de Lagrange creció rápidamente. En 1757 fue admitido como miembro correspondiente de la Academia de Ciencias de Berlín, gracias a la recomendación de Leonhard Euler. En 1766, tras la marcha de Euler a San Petersburgo, el rey Federico II de Prusia, animado por Jean le Rond d’Alembert, lo invitó a ocupar su lugar. A sus 30 años, Lagrange se instaló en Berlín, donde permaneció dos décadas.

Durante su estancia en Prusia, escribió más de cincuenta tratados sobre matemáticas, mecánica y astronomía. Entre sus avances más notables se encuentran sus contribuciones a la teoría de pandeo en estructuras (Sur la figure des colonnes, 1770–1773), desarrollando la teoría de la estabilidad iniciada por Euler y determinando los modos propios del segundo caso de Euler. Su obra magna, Mécanique analytique, empezó a tomar forma durante este periodo. También dirigió la Academia de Ciencias de Berlín, sucediendo al propio Euler.

La muerte de Federico II en 1786 y el nuevo clima poco favorable a la ciencia le llevaron a aceptar la invitación de Luis XVI para trasladarse a París en 1787 e integrarse en la Academia de Ciencias de Francia. Instalado en el Louvre, continuó su labor científica a pesar de un nuevo episodio depresivo que le llevó a ignorar la publicación de su Mécanique analytique, que había terminado en Berlín y que vio la luz en 1788 gracias a la ayuda de Adrien-Marie Legendre. Esta obra supuso una revolución en la forma de entender la mecánica, ya que Lagrange logró derivar toda la teoría a partir de un único principio: el de las velocidades virtuales.

Curiosamente, la publicación de esta obra coincidió con un periodo de agotamiento personal. Afectado por lo que hoy denominaríamos síndrome de burnout, Lagrange ni siquiera abrió los ejemplares impresos cuando llegaron. Durante un tiempo, se refugió en la teología y la filosofía.

Durante la Revolución Francesa, que marcó un punto de inflexión en su vida, Lagrange permaneció en París. Participó activamente en la reforma del sistema de pesos y medidas, siendo clave en la adopción del sistema métrico decimal en 1799. Fue nombrado profesor de la École Normale en 1795 y, en 1797, pasó a formar parte del claustro de la recién fundada École Polytechnique, donde impartió clases de cálculo diferencial e integral. Sus clases dieron origen a importantes obras como Théorie des fonctions analytiques (1797) y Leçons sur le calcul des fonctions (1799), aunque no logró dotar al análisis matemático de una base plenamente axiomática.

Lagrange llevó una vida metódica y discreta, y siempre evitó la polémica. Era reservado y tímido, y su frágil salud mental le acompañó durante toda su vida, alternando períodos de intensa actividad intelectual con episodios de melancolía.

A pesar de su timidez, su matrimonio en 1792 con una joven que simpatizaba con su carácter reservado marcó un período de estabilidad personal. Recibió numerosos reconocimientos, entre ellos la Gran Cruz de la Orden Imperial de la Reunión, que le concedió Napoleón Bonaparte dos días antes de su muerte.

Joseph Louis Lagrange falleció en París el 10 de abril de 1813. Tres días después fue enterrado en el Panteón, junto a otras grandes figuras de la historia de Francia. En su elogio fúnebre, Pierre-Simon Laplace destacó que, al igual que Newton, Lagrange poseía “el más alto grado de maestría en la medida más afortunada, lo que le permitió descubrir los principios generales que constituyen la verdadera esencia de la ciencia”.

Sus escritos, especialmente Mécanique analytique y sus estudios sobre estructuras y cálculo de variaciones, considerados clásicos de las matemáticas y de la mecánica teórica, siguen siendo valorados no solo por su profundidad conceptual, sino también por su elegancia formal. En palabras del matemático Hamel, su estilo es “profundo, transparente, prudente, puro, claro, encantador, e incluso elegante”: una muestra de lo que puede ser la auténtica belleza matemática.

Principales aportaciones a la teoría de estructuras y la mecánica:

  • Sur la figure des colonnes (1770–1773): desarrollo de la teoría del pandeo.

  • Mécanique analytique (1788): reformulación de la mecánica clásica desde principios variacionales.

  • Analytische Mechanik (edición póstuma de 1887): versión alemana con gran influencia posterior.

Os dejo un enlace a un vídeo sobre este personaje.

https://www.youtube.com/watch?v=av5WgKdOAd8

Jornada sobre infraestructuras resilientes al clima

El Colegio de Ingenieros de Caminos, Canales y Puertos organizó una jornada sobre Infraestructuras Resilientes al Clima el 4 de abril en el Auditorio Agustín de Betancourt. Estas jornadas tan interesantes se grabaron en un vídeo, que ahora os dejo.

El vídeo, titulado «Jornada sobre Infraestructuras Resilientes al Clima», es un recurso muy valioso que aborda la creciente necesidad de desarrollar infraestructuras que puedan resistir y adaptarse a los efectos del cambio climático.

Durante la jornada, se presentaron diferentes puntos de vista sobre cómo la ingeniería civil puede hacer frente a estos desafíos, resaltando la importancia de la resiliencia climática en la planificación y gestión de infraestructuras. Y ahora, vamos a echar un vistazo más de cerca a todo lo que se habló en la jornada.

 

 

 

1. Importancia de la resiliencia climática

La resiliencia climática se ha convertido en un concepto central en la planificación de infraestructuras, debido a la creciente vulnerabilidad de las comunidades ante eventos climáticos extremos.

Los impactos del cambio climático, tales como huracanes, inundaciones y sequías, han aumentado en frecuencia e intensidad. Estos fenómenos no solo afectan a las infraestructuras físicas, sino que también tienen repercusiones sociales y económicas significativas, que incluyen la pérdida de vidas, desplazamientos forzados y daños económicos.

A modo ilustrativo, en la jornada se expusieron ejemplos de comunidades que han adoptado soluciones resilientes, tales como sistemas de drenaje mejorados, infraestructura verde y edificaciones diseñadas para resistir eventos extremos. Estos ejemplos ponen de manifiesto los beneficios tangibles a largo plazo que conlleva la inversión en resiliencia.

2. Oportunidades profesionales en ingeniería civil

La jornada puso de manifiesto que la búsqueda de infraestructuras resilientes está generando nuevas oportunidades profesionales para los ingenieros civiles.

Se evidenció una demanda de especialistas debido a la necesidad imperante de adaptación al cambio climático, lo que ha generado una demanda de expertos en diversas áreas, tales como la gestión de recursos hídricos, la planificación urbana sostenible y la ingeniería de infraestructuras.

Se subrayó la relevancia de la educación continua y la formación especializada para que los profesionales puedan afrontar los desafíos emergentes en este campo. Los programas de capacitación y certificación en resiliencia climática son de vital importancia para la preparación de los ingenieros del futuro.

3. Retos normativos y de implementación

Uno de los asuntos más críticos que se ha planteado es la necesidad imperativa de adaptar las normativas vigentes para facilitar la implementación de infraestructuras resilientes.

Un número significativo de normativas vigentes no han sido concebidas para hacer frente a los riesgos asociados al cambio climático. Esta situación puede generar obstáculos para la implementación de soluciones innovadoras y efectivas.

En este sentido, se destacó la importancia de la colaboración interdisciplinaria entre ingenieros, urbanistas, arquitectos y responsables políticos. Un enfoque interdisciplinario puede ayudar a crear un marco normativo que apoye la resiliencia y facilite la implementación de proyectos.

Finalmente, se presentan ejemplos de mejores prácticas de otras regiones que han logrado adaptar sus normativas con éxito, lo que puede servir de modelo para otras comunidades.

4. Ingeniería humanitaria y adaptación a emergencias

En las jornadas también se subrayó el rol de la ingeniería humanitaria en el desarrollo de infraestructuras resilientes.

En lo que respecta a los denominados «Proyectos de respuesta rápida», se debatieron enfoques para el diseño de infraestructuras que puedan ser implantadas con celeridad en situaciones de emergencia, garantizando que las comunidades afectadas tengan acceso a servicios básicos de manera inmediata.

Por último, se abordó la importancia de la capacitación y los recursos, así como la formación de equipos de respuesta a emergencias y la disponibilidad de recursos adecuados, elementos esenciales para asegurar que las infraestructuras puedan soportar eventos extremos y facilitar la recuperación.

5. Educación y conciencia social

La jornada puso de manifiesto la importancia de la educación y la comunicación en la promoción de infraestructuras resilientes.

Es imperativo que la sociedad comprenda la relevancia de invertir en infraestructuras resilientes. En este sentido, la educación desempeña un papel crucial, ya que permite a las comunidades identificar los beneficios a largo plazo de tales inversiones.

Se propusieron programas de sensibilización que involucren a la comunidad en la planificación y diseño de infraestructuras, fomentando un sentido de propiedad y responsabilidad.

6. Financiación de infraestructuras resilientes

La financiación constituye uno de los desafíos más significativos en el desarrollo de infraestructuras resilientes.

En lo que respecta a las fuentes de financiación, se presentan diversas estrategias para asegurar fondos, tales como la colaboración entre los sectores público y privado, así como la búsqueda de fondos internacionales destinados a proyectos de adaptación y mitigación del cambio climático.

También se presentaron ejemplos de modelos de inversión exitosos que han permitido financiar proyectos de infraestructura resiliente, destacando la importancia de demostrar el retorno de inversión a largo plazo.

7. Implementación de directivas y normativas en España

La jornada abordó la implantación de la directiva de gestión de avenidas en España, cuyo objetivo es el de mejorar la preparación y respuesta ante inundaciones.

Se abordó la cuestión de las dificultades que enfrentan las autoridades para aplicar estas directivas de manera efectiva, así como las adaptaciones necesarias para enfrentar fenómenos climáticos inesperados.

Finalmente, se presentaron las lecciones aprendidas de la implantación de estas directivas, así como recomendaciones para mejorar la efectividad de las políticas existentes.

8. Innovaciones tecnológicas y soluciones sostenibles

La jornada destacó la importancia de la tecnología en el desarrollo de infraestructuras resilientes. También se abordó el tema de tecnologías emergentes, tales como la inteligencia artificial y el modelado predictivo, que tienen el potencial de ayudar a anticipar y gestionar los riesgos climáticos.

En lo que respecta a la Infraestructura Verde, se expusieron soluciones basadas en la integración de la naturaleza, como los techos verdes y los sistemas de drenaje sostenible, que se presentan como una estrategia eficaz para aumentar la resiliencia de las infraestructuras.

9. Perspectivas futuras y llamado a la acción

La jornada concluyó con una exhortación a la acción dirigida a todos los profesionales implicados en la planificación y gestión de infraestructuras.

Se hizo especial hincapié en que la responsabilidad de hacer frente al cambio climático es compartida y requiere la colaboración de todos los sectores de la sociedad.

Asimismo, se instó a los profesionales a adoptar una visión a largo plazo en la planificación de infraestructuras, contemplando no solo las necesidades actuales, sino también los desafíos futuros que plantea el cambio climático.

Conclusión

La jornada sobre infraestructuras resilientes al clima constituye un llamamiento a la acción dirigido a los profesionales de la ingeniería civil y otros actores implicados en la planificación y gestión de infraestructuras. La adaptación al cambio climático no solo es una responsabilidad, sino una oportunidad para innovar y crear un futuro más seguro y sostenible. Para ello, resulta imprescindible la colaboración, la educación y la inversión, que son pilares fundamentales para lograr infraestructuras que no solo resistan los desafíos actuales, sino que también estén preparadas para los retos del futuro. Este enfoque integral resulta imperativo para asegurar que las comunidades no solo sobrevivan, sino que prosperen en un mundo cada vez más afectado por el cambio climático.

Aquí tenéis un mapa conceptual de la jornada.

Pero creo que lo mejor es que, si tenéis un rato, oigáis de primera mano todas y cada una de las intervenciones en este vídeo. Espero que os sea de interés.

Glosario de términos clave

  • Adaptación al Cambio Climático: Proceso de ajuste a los impactos actuales o esperados del cambio climático. En el contexto de las infraestructuras, implica modificar su diseño, construcción y operación para soportar condiciones climáticas extremas.
  • Resiliencia (Climática): Capacidad de un sistema, comunidad o infraestructura para anticipar, resistir, adaptarse y recuperarse de eventos adversos del clima.
  • Dana (Depresión Aislada en Niveles Altos): Fenómeno meteorológico que puede causar lluvias torrenciales e inundaciones severas, mencionado en el texto como causa de trágicas consecuencias.
  • Niveles Preindustriales: Periodo de referencia (antes de la Revolución Industrial) utilizado para medir el aumento de la temperatura global debido a las actividades humanas.
  • Fenómenos Meteorológicos Extremos: Eventos climáticos de intensidad inusual, como olas de calor, sequías, inundaciones torrenciales y tormentas severas.
  • Infraestructuras Críticas: Infraestructuras esenciales para el funcionamiento de la sociedad y la economía, como las de transporte, energía, agua y telecomunicaciones, cuya afectación tiene consecuencias significativas.
  • Plan Nacional de Adaptación al Cambio Climático (PNACC): Marco de acción en España para integrar el cambio climático en la planificación sectorial, incluyendo las infraestructuras.
  • Ley de Cambio Climático y Transición Energética (2021): Ley española que establece objetivos de reducción de emisiones y promueve la adaptación al cambio climático en diversos sectores.
  • Directiva de Resiliencia de Infraestructuras Críticas: Normativa de la Unión Europea que obliga a los Estados miembros a adoptar estrategias para mejorar la resiliencia de sus infraestructuras esenciales.
  • Seopán: Asociación de Empresas Constructoras y Concesionarias de Infraestructuras, mencionada por su análisis de inversión en infraestructuras prioritarias.
  • CEDEX (Centro de Estudios y Experimentación de Obras Públicas): Organismo técnico español que realiza estudios y análisis relacionados con la ingeniería civil y el medio ambiente.
  • Cuencas Hidráulicas: Áreas geográficas donde el agua drena hacia un río principal, mencionadas en relación con la planificación hidrológica y la gestión de inundaciones.
  • Soluciones Basadas en la Naturaleza: Enfoques para abordar los desafíos ambientales que utilizan o imitan procesos naturales para proporcionar beneficios tanto para el medio ambiente como para la sociedad.
  • Sistemas de Saneamiento: Infraestructuras urbanas destinadas a la recogida y tratamiento de aguas residuales y pluviales.
  • Vías Separativas: Sistemas de saneamiento en los que las aguas residuales y las aguas pluviales se recogen y transportan por redes de tuberías separadas.
  • Resiliencia Estructural: Capacidad de una estructura para mantener su función y recuperarse después de ser sometida a eventos extremos o perturbaciones.
  • Robustez: Capacidad de una infraestructura o sistema para resistir un evento adverso sin una pérdida significativa de funcionalidad.
  • Rapidez (en Resiliencia): Velocidad con la que un sistema o infraestructura puede recuperarse y restaurar su funcionalidad después de una perturbación.
  • Análisis de Riesgos Climáticos: Evaluación de la probabilidad e impacto potencial de los eventos climáticos adversos sobre las infraestructuras.
  • Marco de Sendai para la Reducción del Riesgo de Desastres (2015-2030): Acuerdo internacional que establece un marco global para la reducción del riesgo de desastres, incluyendo la importancia de invertir en resiliencia.
  • Predicción y Modelos Predictivos: Uso de datos y herramientas para anticipar futuros eventos climáticos y sus posibles impactos.
  • Incertidumbre Profunda: Situación en la que hay una falta de conocimiento sobre las probabilidades o los posibles resultados de un evento.
  • Cisne Negro (Teoría): Término utilizado para describir eventos altamente improbables, de gran impacto y que solo se pueden explicar o predecir en retrospectiva.
  • Disponibilidad: Capacidad de una infraestructura para estar operativa y proporcionar su servicio.
  • Capacidad (en Infraestructura): Volumen o nivel de servicio que una infraestructura puede soportar o manejar.
  • Vulnerabilidad: Susceptibilidad de una infraestructura a sufrir daños o perder funcionalidad debido a un evento climático adverso.
  • Exposición: Grado en que una infraestructura está situada en un área propensa a eventos climáticos adversos.
  • Sensibilidad: Grado en que una infraestructura se ve afectada por un evento climático adverso una vez expuesta a él.
  • Escenarios de Cambio Climático: Proyecciones de posibles futuras condiciones climáticas basadas en diferentes supuestos sobre las emisiones de gases de efecto invernadero.
  • Trayectorias Socioeconómicas Compartidas (SSP): Marcos utilizados en la investigación del cambio climático para describir posibles futuros socioeconómicos y sus implicaciones para las emisiones y la adaptación.
  • Análisis Coste-Beneficio: Método para evaluar la rentabilidad de diferentes opciones de inversión, comparando los costos y beneficios esperados.
  • Gobernanza: Procesos y estructuras para tomar decisiones e implementar acciones, en este contexto, relacionadas con la resiliencia de las infraestructuras.
  • Inventario de Activos: Base de datos que contiene información detallada sobre las infraestructuras y sus componentes.
  • Sistemas de Ayuda a la Decisión: Herramientas informáticas y modelos que asisten en la toma de decisiones complejas, como la gestión de inundaciones o sequías.
  • Llanuras de Inundación Controlada: Áreas designadas para ser inundadas de manera planificada durante eventos de crecida para reducir el riesgo en otras zonas.
  • Probable Maximum Flood (PMF) / Avenida Máxima Probable: Estimación del evento de inundación más severo que es razonablemente posible en un lugar dado.
  • Flash Floods / Crecidas Repentinas: Inundaciones rápidas y violentas que ocurren con poca o ninguna advertencia, a menudo causadas por lluvias torrenciales intensas.
  • Six Sigma: Metodología de gestión de procesos que busca reducir al mínimo la probabilidad de defectos o errores.
  • Poka-yoke: Sistemas a prueba de errores diseñados para prevenir o detectar errores humanos.
  • Consorcio Administrativo: Entidad legal formada por varias administraciones públicas para coordinar y ejecutar acciones conjuntas.
  • Gemelos Digitales: Réplicas virtuales de sistemas o infraestructuras físicas que permiten la simulación y el análisis.
  • Big Data: Conjuntos de datos muy grandes y complejos que pueden ser analizados para revelar patrones y tendencias.
  • Ingeniería Humanitaria: Aplicación de principios y habilidades de ingeniería para abordar crisis humanitarias y promover el bienestar humano.
  • Estacionariedad Climática: Suposición de que las propiedades estadísticas del clima (como las distribuciones de precipitación o temperatura) permanecen constantes a lo largo del tiempo.
  • Análisis Probabilístico: Enfoque para evaluar la probabilidad de ocurrencia de eventos y sus posibles consecuencias.
  • Métodos Semiprobalísticos: Métodos de diseño estructural que utilizan factores de seguridad parciales basados en consideraciones probabilísticas.
  • Trayectorias Adaptativas: Secuencias de medidas de adaptación que se pueden implementar a lo largo del tiempo para hacer frente a los impactos cambiantes del cambio climático.
  • KPIs Financieros (Indicadores Clave de Rendimiento Financiero): Métricas utilizadas para evaluar el desempeño financiero, que pueden incorporarse en el análisis de la resiliencia de las infraestructuras.

Finalista a la divulgación científica en la Universitat Politècnica de València

Me llena de alegría y gratitud compartir con ustedes que este año soy finalista al Premio a la Divulgación Científica de la Universitat Politècnica de València en la edición de los Premios de Investigación de 2023. Este reconocimiento es muy especial para mí, ya que en mi labor de divulgación busco acercar el fascinante mundo de la ingeniería y la construcción a un público cada vez más amplio y curioso.

El año pasado, tuve el privilegio de recibir dos de los máximos galardones de la UPV: el Premio a la Trayectoria Excelente en Investigación y el Premio al Impacto Excelente en Investigación. Estos premios, que reconocen no solo el trabajo en investigación, sino también el impacto y el compromiso de una carrera dedicada a la ingeniería, se otorgan una sola vez cada 5 años. Esto ha supuesto un gran alivio al saber que, aunque fui nominado este año de nuevo, no soy finalista en ambas categorías al haber recibido ya estos honores en la edición anterior. Además, en 2023 también fui galardonado con el Premio Excelencia Docente del Consejo Social de la Universidad Politécnica de Valencia, un premio que igualmente solo se puede recibir una vez en la trayectoria profesional.

La entrega de premios de este año tendrá lugar el próximo 12 de noviembre a las 18:00 horas en el edificio Nexus del campus de Vera, y la gala estará repleta de ciencia, música y teatro, un evento con el inconfundible sello de la UPV. Desde aquí quiero felicitar a todos los finalistas de este año por su destacada labor en investigación y divulgación.

Aprovecho para agradecer a cada uno de ustedes, quienes han hecho posible que esta labor de divulgación científica sea una realidad. ¡Nos vemos en el camino, y gracias por su apoyo constante!

Los nominados a este premio en esta edición han sido los siguientes 18 investigadores:

• COS GAYÓN, Fernando
• ESCOBAR RAMÓN, Santiago
• ESTEBAN GONZÁLEZ, Héctor
• GARCÍA MARTÍNEZ, Antonio
• GARCÍA SEGOVIA, Purificación
• HERNÁNDEZ FRANCO, Carlos
• HOYAS CALVO, Sergio
• LÓPEZ PÉREZ, Miguel
• MONSORIU SERRA, Juan Antonio
• MULET SALORT, José Miguel
• PEDROCHE Sánchez, Francisco
• PINILLA CIENFUEGOS, Elena
• PORCEL ROLDÁN, Rosa
• REMIRO BUENAMAÑANA, Sonia
• ROJAS BRIALES, Eduardo
• SERRANO CRUZ, José Ramón
• SOLER ALEIXANDRE, Salvador
• YEPES PIQUERAS, Víctor

De entre los nominados, tengo el gran honor de compartir ser finalista con dos grandes en el mundo de la divulgación científica. Para que os hagáis una idea del calibre, tanto de José Miguel Mulet como de Rosa Porcel, os dejo un breve resumen de sus méritos en el ámbito de la divulgación. Este año estoy más que satisfecho de saber que me he rodeado de compañeros de esta relevancia. Para mí es mi mayor premio estar con ellos.

José Miguel Mulet Salort: destacado divulgador científico en el ámbito nacional, ha publicado nueve libros en los últimos 12 años. Este curso ha participado en numerosas charlas y jornadas de divulgación y ha sido invitado al Parlamento Europeo y por el gobierno de México para hablar sobre nuevas herramientas de edición genética. Su labor se extiende a una activa presencia en redes sociales y colaboraciones constantes con medios de comunicación, como su columna de ciencia en El País. Además, es miembro del comité de asesoramiento científico de Mercadona.

Rosa Porcel Roldán: divulgadora especializada en biotecnología vegetal desde 2011 y autora del blog La Ciencia de Amara. Su ensayo Eso no estaba en mi libro de Botánica fue galardonado con el Premio Prismas en 2021 al mejor libro de divulgación científica editado. Recientemente, publicó su segundo libro, Plantas que nos ayudan. Ganadora del Premio Antama de Divulgación Científica, este año ha organizado y participado en diversas conferencias y eventos de divulgación científica, como la Noche Europea de la Investigación, el proyecto Mednight y el Día Internacional de la Mujer y la Niña en la Ciencia.

Víctor Yepes Piqueras: su blog, enfocado en la ingeniería de la construcción, es un referente en el sector tanto en España como en Latinoamérica. Creado en 2012, ha alcanzado casi dos millones de visitas solo en el último año. Cuenta con aproximadamente 34,000 seguidores en X y más de 22,000 en LinkedIn. Su labor divulgativa también incluye colaboraciones en medios de comunicación. Durante el curso 2023/24, ha participado en iniciativas como el podcast UPV Revisado por pares y ha publicado en medios como TechXplore, Apunt, Valencia Plaza y El Confidencial, entre otros.

 

Los motivos por los que se equivocan estudiantes y profesionales de ingeniería al abordar la resolución de problemas

Resolver problemas en el ámbito universitario o profesional, en áreas tecnológicas, de ingeniería y ciencias, puede plantear una serie de desafíos que pueden conducir a errores. Estos fallos pueden surgir por diversas razones que van desde no comprender el concepto subyacente hasta confiar demasiado en la tecnología.

En un artículo anterior mencioné algunos ejemplos de problemas teóricamente sencillos, pero que marean a nuestros estudiantes. Ahora vamos a analizar detalladamente algunas de estas razones y cómo se relacionan entre sí. También he incluido enlaces a otros artículos del blog donde reflexiono sobre este tipo de cuestiones.

La falta de comprensión del concepto subyacente a un problema es una preocupación fundamental. Esto puede manifestarse de diversas formas, ya sea a través de errores conceptuales, una aplicación incorrecta del concepto o una interpretación errónea del mismo. Esta falta de entendimiento puede empeorar si se carece de experiencia o conocimientos específicos en el campo correspondiente. Cuando un estudiante o profesional se enfrenta a un problema para el que no tiene experiencia previa, puede tener dificultades para aplicar correctamente los principios necesarios para resolverlo.

Los datos son fundamentales para encontrar soluciones, sin embargo, su calidad y disponibilidad pueden ser problemáticos. La falta de datos adecuados, la presencia de información contradictoria o sesgada pueden conducir a conclusiones incorrectas. Asimismo, centrarse excesivamente en utilizar todos los datos disponibles puede distraer de la información realmente importante, al tiempo que validar datos sesgados o inventados puede conducir a conclusiones incorrectas.

El manejo inadecuado de las bases matemáticas también puede ser una fuente de errores (geometría, trigonometría, cálculo o álgebra). Esto puede incluir errores en el cálculo, así como el uso inapropiado de fórmulas o modelos matemáticos. Los problemas reales rara vez tienen una sola solución, lo que requiere habilidades para evaluar y decidir entre múltiples enfoques posibles. Además, el uso excesivo de la memoria en lugar de la comprensión de los principios subyacentes puede conducir a errores conceptuales y de selección de modelos de cálculo.

Los aspectos psicológicos también son importantes. El estrés, la falta de confianza en uno mismo, la presión por terminar a tiempo y la falta de concentración pueden afectar a la capacidad de resolver problemas de manera efectiva. La falta de atención a los detalles, la fatiga y el agotamiento también pueden provocar errores en la resolución de problemas.

Es crucial comprender que los problemas reales pueden ser complejos y no tener necesariamente una solución única. Esto implica la necesidad de tomar decisiones informadas y comprender las limitaciones de los modelos o fórmulas utilizados. Además, la propagación de errores en las operaciones y el uso incorrecto de datos, fórmulas o software pueden dar lugar a resultados erróneos.

La falta de retroalimentación o revisión de los errores cometidos puede perpetuar la repetición de los mismos una y otra vez. La falta de comunicación o colaboración entre profesionales en entornos de trabajo también puede provocar errores en la resolución de problemas. Confiar ciegamente en la tecnología o en herramientas automatizadas sin comprender en profundidad los principios subyacentes puede ser un problema.

En resumen, resolver problemas en el ámbito universitario o profesional de la ingeniería y las ciencias puede ser un proceso complejo y propenso a errores debido a una variedad de factores interrelacionados. Desde la comprensión del concepto hasta la calidad y disponibilidad de los datos, así como los aspectos psicológicos y técnicos relacionados con la resolución de problemas, es crucial abordar estos desafíos con atención y comprensión para lograr soluciones precisas y efectivas. Desde las universidades debe hacerse todo lo posible para superar este tipo de dificultades y conseguir que nuestros estudiantes adquieran las competencias necesarias para su posterior desarrollo profesional.

Sin querer ser exhaustivo, y sin que estén ordenadas por importancia, aquí os dejo una lista de 30 posibles causas por las cuales nuestros estudiantes en los exámenes o los técnicos en su ámbito profesional, suelen cometer errores al resolver los problemas. Estoy convencido de que hay más causas, pero esto puede ser un buen punto de partida para el debate y la reflexión. En el vídeo que he grabado, me extiendo y explico algo más lo que aquí recojo como una simple lista.

  1. La falta de comprensión del concepto subyacente en un problema puede conducir a errores conceptuales al aplicarlo incorrectamente o interpretarlo de manera errónea.
  2. La inexperiencia o la falta de conocimientos específicos pueden surgir cuando una persona afronta por primera vez un tipo de problema, ya sea durante un examen o en la práctica profesional.
  3. Los problemas relacionados con la disponibilidad de datos pueden presentarse de varias formas, como datos insuficientes, necesarios, innecesarios o contradictorios. A menudo, existe una obsesión por utilizar todos los datos disponibles en el enunciado del problema.
  4. La calidad de los datos también es un factor importante, con la posibilidad de incertidumbre o error en los datos disponibles. Además, dar por válidos datos sesgados, interesados o inventados puede llevar a conclusiones incorrectas. Es necesario un control de calidad de los datos.
  5. Intentar resolver un problema utilizando el enfoque típico visto en clase puede marear a nuestros estudiantes. Los alumnos prefieren resolver un problema típico explicado en clase, a ser posible, con datos parecidos.
  6. El manejo inadecuado de las bases matemáticas, que incluye errores en el cálculo, el uso incorrecto de fórmulas o modelos matemáticos, y la falta de comprensión de los principios subyacentes, puede ser una fuente común de errores. La falta de conocimientos básicos de geometría, trigonometría, álgebra o cálculo básicos son, en ocasiones, escollos. A veces hay dificultades en saber dibujar un esquema para resolver el problema.
  7. Los problemas reales generalmente no tienen una sola solución, lo que requiere habilidades para evaluar y decidir entre múltiples enfoques posibles. Esta distinción, que se da claramente entre los estudios de grado y los de máster, es importante tenerla en cuenta.
  8. Los aspectos psicológicos, como el estrés, la falta de confianza en uno mismo, la presión por terminar a tiempo y la falta de concentración, pueden afectar negativamente la capacidad para resolver problemas de manera efectiva.
  9. La falta de atención o interés, así como la fatiga o el agotamiento, pueden contribuir a errores en la resolución de problemas, al igual que la prisa por resolver el problema.
  10. La complejidad de los problemas puede aumentar cuando se trata de situaciones poco comunes o rebuscadas, lo que requiere un enfoque cuidadoso y creativo para su resolución.
  11. Es crucial comprender la diferencia entre una ley general y una fórmula particular al aplicar normas técnicas que pueden estar basadas en hipótesis o casos específicos.
  12. Utilizar modelos de cálculo inadecuados, ya sean demasiado refinados o demasiado simples para los datos disponibles, puede conducir a soluciones incorrectas.
  13. Carecer de números estimativos para prever el resultado final puede resultar en una falta de comprensión del orden de magnitud del resultado. En este sentido, el uso de nomogramas en la docencia facilita la adquisición de este tipo de habilidad en los estudiantes. Los estudiantes y los profesionales deberían tener un conocimiento del «número gordo» y saber predimensionar.
  14. Es importante ser consciente de la propagación de errores en las operaciones, ya que incluso pequeños errores pueden magnificarse y llevar a resultados incorrectos.
  15. Utilizar fórmulas, datos o tablas en un contexto diferente al que dieron origen puede llevar a interpretaciones incorrectas o a soluciones erróneas.
  16. La extrapolación de resultados a límites no contemplados puede conducir a conclusiones incorrectas o poco realistas.
  17. Utilizar fórmulas empíricas con datos expresados en unidades diferentes a las que funcionan puede generar resultados inconsistentes o incorrectos.
  18. La dependencia excesiva de la memoria en lugar de comprender los principios subyacentes puede conducir a errores en la selección de modelos o fórmulas de cálculo.
  19. Errores conceptuales pueden llevar a la selección incorrecta de modelos o fórmulas de cálculo, lo que resulta en soluciones erróneas.
  20. El uso de software defectuoso o poco contrastado, así como la falta de habilidades para calcular manualmente un problema, pueden resultar en resultados incorrectos. A esto se une un uso inapropiado de la inteligencia artificial.
  21. El mal uso de ecuaciones o fórmulas, como cambiar el nombre de una variable sin entender el concepto subyacente, puede conducir a errores en la resolución de problemas.
  22. La falta de competencia o experiencia en una materia determinada puede resultar en una resolución incorrecta del problema.
  23. Repetir la resolución de problemas de un contexto a otro sin pensar en su validez puede conducir a soluciones inapropiadas.
  24. La falta de comprensión del problema, la pregunta o el tipo de resultado esperado puede resultar en soluciones incorrectas debido a la falta de comprensión lectora, capacidad analítica o de síntesis.
  25. La utilización de unidades defectuosas, notaciones o convenciones específicas puede llevar a interpretaciones erróneas o a soluciones incorrectas.
  26. La falta de retroalimentación o revisión de los errores cometidos puede perpetuar la repetición de los mismos errores una y otra vez.
  27. La falta de comunicación o colaboración en entornos de trabajo entre profesionales puede contribuir a errores en la resolución de problemas.
  28. La confianza excesiva en la tecnología o herramientas automatizadas puede llevar a la falta de comprensión de los principios subyacentes y a la comisión de errores.
  29. La falta de revisión o verificación de los cálculos realizados por parte de un tercero independiente puede resultar en soluciones incorrectas.
  30. La falta de conocimiento del contexto del problema, incluyendo las restricciones, puede conducir a soluciones subóptimas o incorrectas.

Os paso un vídeo donde he desarrollado las ideas anteriores, con ejemplos, y he dejado algunas de mis reflexiones al respecto. Espero que os guste.

Os dejo un podcast sobre este tema (en inglés), generado por una IA sobre el vídeo.

Aquí tenéis un mapa conceptual que también os puede ayudar.

Artículos relacionados en el blog:

Los ingenieros, los ordenadores y mil un indios

De la regla de cálculo al ordenador: olvidarse de cómo se calculaba antes

Cifras significativas y errores de medición

¿Cómo predimensionar un muro sin calculadora?

La inteligencia artificial en la ingeniería civil

Introducción a la toma de decisiones

Problemas teóricamente sencillos pero que marean a nuestros estudiantes

Referencias de libros de problemas:

MARTÍNEZ-PAGÁN, P.; YEPES, V.; MARTÍNEZ-SEGURA, M.A. (2023). Ejercicios resueltos de sistemas de transporte continuo: bombas y cintas transportadoras. Ediciones UPCT. Universidad Politécnica de Cartagena, 284 pp. ISBN: 978-84-17853-62-4

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 253 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Premio a la Trayectoria Excelente en Investigación y Premio al Impacto Excelente en Investigación

Ayer, jueves 9 de noviembre de 2023, recibí dos de los premios más importantes en el ámbito de la investigación en nuestra universidad. Se trata del Premio a la Trayectoria Excelente en Investigación y el Premio al Impacto Excelente en Investigación, ambos otorgados por la Universitat Politècnica de València.

Son premios muy especiales, pues se otorgan a nivel personal y constituyen un reconocimiento valorado por quienes nos dedicamos a la investigación. Además, solo se conceden una vez cada cinco años, como premio para quien no debe presentar ninguna candidatura, por lo que fue una auténtica sorpresa. El prestigio de estos premios lo aportan los excelentes finalistas que han competido conmigo, que, en mi modesta opinión, tienen méritos más que merecidos para ello. Teniendo en cuenta que la Universitat Politècnica de València cuenta con casi 3.000 investigadores, el haber sido premiado en dos de las categorías más relevantes es un logro que agradezco mucho. Muy agradecido por ello.

El Premio a la Trayectoria Excelente en Investigación reconoce al personal investigador de la UPV que cuente con un índice de actividad investigadora en al menos los últimos años (2018 al 2021) dentro de su área de conocimiento. El Premio al Impacto Excelente en Investigación reconoce al personal investigador de la UPV cuyo conjunto de publicaciones científicas de los últimos 10 años haya obtenido un alto grado de reconocimiento en la comunidad científica internacional. Estos reconocimientos se unen al recibido en el mes de junio de este mismo año al Premio Excelencia Docente 2023 del Consejo Social de la Universitat Politècnica de València. Este año, desde luego, es irrepetible.

El esfuerzo ha sido enorme durante estos últimos años, y nada de esto hubiera sido posible sin el equipo de investigación que ha trabajado conmigo en la realización de sus respectivas tesis doctorales. No hay mayor satisfacción que ver cómo muchas carreras académicas y profesionales han surgido de nuestro pequeño grupo. A diferencia de otros grupos, el nuestro realiza investigación “artesanal”, muy cuidada y con medios muy ajustados a nuestro trabajo.

Y como no, se lo agradezco a mi familia, sin cuyo apoyo constante y paciencia, no hubiera sido posible dedicar el tiempo necesario a este menester.

Os dejo algunas fotografías y un vídeo del evento. Muchas gracias a todos.

 

Aquí os dejo los enlaces a algunos medios de comunicación que han hecho eco de estos premios.

https://www.upv.es/noticias-upv/noticia-14377-ii-premios-inv-es.html

https://www.lasprovincias.es/comunitat/cientificos-brillantes-universitat-politecnica-20231110003549-nt.html

https://www.europapress.es/valencia/noticia-upv-reconeix-les-seues-33-cientifics-mes-excellents-els-ii-premis-dinvestigacio-20231110133651.html