Clasificación y principios fundamentales del diseño experimental

Cuando pensamos en un experimento, solemos imaginar una prueba simple para ver qué opción es “mejor”. Sin embargo, esta visión apenas roza la superficie de una disciplina profunda y estratégica. Existen principios sorprendentes que rigen el diseño experimental y son cruciales no solo para la ciencia, sino también para cualquier toma de decisiones informada. A continuación, se describen brevemente los tipos de experimentos que pueden utilizarse en la investigación científica.

El diseño experimental se clasifica en dos categorías principales, según la propuesta de Anscombe (1947): el experimento absoluto y el experimento comparativo. El experimento absoluto se enfoca en la medición de propiedades físicas constantes para ampliar el conocimiento científico, utilizando un modelo estadístico de efectos aleatorios (Modelo II de Eisenhart), ya que los tratamientos se seleccionan al azar de una población más amplia. Por el contrario, el experimento comparativo está orientado a la toma de decisiones en ciencias aplicadas, con el fin de determinar cuál de varios tratamientos predefinidos es “mejor”. Este enfoque utiliza un modelo de efectos fijos (Modelo I de Eisenhart) y exige una definición precisa del problema para garantizar su validez.

El éxito de un experimento, especialmente el comparativo, depende del cumplimiento de cinco principios fundamentales: simplicidad, nivel de precisión adecuado, ausencia de error sistemático, amplio rango de validez de las conclusiones y una correcta cuantificación de la incertidumbre. La elección del diseño y el modelo estadístico asociado (fijo, aleatorio o mixto) determinan directamente el alcance y la naturaleza de las inferencias que pueden extraerse, vinculando de manera inseparable la planificación experimental con las conclusiones científicas y las decisiones de gestión.

La clasificación propuesta por Anscombe distingue los experimentos en dos grandes tipos según su objetivo fundamental: la adquisición de conocimiento puro o la fundamentación de decisiones prácticas.

Uno de ellos es el llamado experimento absoluto. En este tipo de experimento, el interés principal es medir y conocer las propiedades físicas de una población. Se asume que dichas propiedades permanecen constantes, lo que justifica el uso del término absoluto. El objetivo no es comparar alternativas concretas, sino ampliar el conocimiento científico sobre el fenómeno estudiado.

Los experimentos absolutos suelen centrarse en un solo factor y consideran un número limitado de tratamientos o niveles de ese factor. Estos tratamientos suelen elegirse de forma aleatoria. Por esta razón, si el experimento se repite, no es obligatorio utilizar exactamente los mismos tratamientos en cada ocasión.

Debido a esta forma de selección, los tratamientos se consideran variables aleatoriasEn consecuencia, el análisis se basa en un modelo de efectos aleatorios, también conocido como el Modelo II de Eisenhart (1947). Este tipo de modelo permite identificar y estimar los distintos componentes de la variación aleatoria presentes en una población compuesta, lo que constituye un enfoque especialmente útil para muchos problemas de ingeniería.

El experimento comparativo es el segundo tipo de experimento descrito por Anscombe. Este enfoque se utiliza cuando se analizan varios tratamientos y se observa que, aunque los valores absolutos de los resultados pueden fluctuar de forma irregular, las comparaciones relativas entre tratamientos suelen mantenerse estables. En este contexto, es posible concluir que, bajo condiciones similares, algunos tratamientos ofrecen resultados claramente mejores que otros.

Brownlee (1957) sitúa este tipo de experimentos en el ámbito de las ciencias aplicadas, y no es casualidad: la teoría estadística del diseño de experimentos se desarrolló originalmente para responder a las necesidades de este tipo de estudios.

En un experimento comparativo, los tratamientos se evalúan según su efecto promedio sobre una variable de respuesta, con el objetivo principal de determinar cuál es “mejor” según un criterio definido. A diferencia de los experimentos orientados al conocimiento fundamental, aquí el propósito central es apoyar la toma de decisiones prácticas, especialmente las administrativas o de gestión.

Una característica fundamental de los experimentos comparativos es que todos los tratamientos de interés están incluidos explícitamente en el estudio. Por esta razón, el análisis se basa en un modelo de efectos fijos, también conocido como el Modelo I de Eisenhart (1947). Si el experimento se repite, se utilizan exactamente los mismos tratamientos, ya que no se considera una muestra aleatoria. El interés principal radica en detectar y estimar relaciones constantes entre las medias de los tratamientos, lo que conduce naturalmente a la evaluación de hipótesis estadísticas sobre dichas medias.

Para que un experimento comparativo sea válido, debe comenzar con una definición clara y precisa del problema. No basta con plantear de manera general la idea de “comparar tratamientos”. Es imprescindible especificar con detalle los objetivos del estudio y formular con precisión las hipótesis que se probarán. Esta definición inicial determina la población a la que se aplicarán las conclusiones, identifica los factores, los tratamientos y sus niveles, establece las variables de respuesta que se medirán y define qué diferencias entre tratamientos se consideran relevantes. Sin estas especificaciones, no es posible diseñar un experimento adecuado.

Finalmente, una consecuencia natural de los experimentos comparativos es que casi siempre conducen a decisiones concretas. Dado un nivel suficiente de recursos, la hipótesis nula de igualdad entre tratamientos puede rechazarse, lo que obliga a actuar: mantener la situación actual o cambiar a un nuevo tratamiento. Este proceso de decisión consta de dos etapas bien definidas:

  1. Análisis estadístico de los datos, en el que se evalúan las probabilidades asociadas a los resultados y se extraen conclusiones técnicas.
  2. Decisión de gestión en la que, con base en esas conclusiones, se define la acción a realizar.

Esta conexión directa entre el análisis estadístico y la toma de decisiones explica por qué los experimentos comparativos son una herramienta central en la divulgación y la práctica de la ingeniería y de las ciencias aplicadas.

El estadístico cumple un rol clave en el proceso experimental: su responsabilidad es presentar, con la mayor precisión posible, las probabilidades obtenidas en la etapa de análisis, de manera que se reduzca al mínimo la posibilidad de tomar decisiones equivocadas cuando llegue el momento de actuar.

Dado que las decisiones sobre las hipótesis dependen directamente de experimentos cuidadosamente planificados, es esencial que dichos ensayos cumplan con una serie de principios básicos. A continuación se resumen los más importantes, con un enfoque práctico para la ingeniería:

  • Simplicidad: Tanto la selección de los tratamientos como la organización del experimento deben ser lo más simples posible. Un diseño sencillo facilita el análisis estadístico y la interpretación de los resultados y reduce el riesgo de errores innecesarios.
  • Nivel de precisión: El experimento debe permitir detectar diferencias entre tratamientos con el grado de precisión que el investigador considere relevante. Para lograrlo, se requiere un diseño experimental adecuado y un número suficiente de repeticiones que garanticen mediciones confiables.
  • Ausencia de error sistemático: El experimento debe planearse de modo que las unidades experimentales que reciben distintos tratamientos no difieran sistemáticamente entre sí antes de aplicarlos. Este cuidado es fundamental para obtener estimaciones insesgadas del efecto real de cada tratamiento, evitando que factores externos distorsionen los resultados.
  • Rango de validez de las conclusiones: Las conclusiones del experimento deben ser aplicables a un rango de situaciones lo más amplio posible. Los experimentos replicados y los diseños factoriales ayudan a ampliar este rango de validez, ya que permiten evaluar la consistencia de los resultados bajo diferentes condiciones.
  • Cuantificación de la incertidumbre: Todo experimento conlleva cierto grado de incertidumbre. Por ello, el diseño debe permitir calcular la probabilidad de que los resultados observados se deban únicamente al azar. Esta cuantificación es esencial para evaluar la solidez de las conclusiones.

Estos principios conducen a una clasificación clásica de los modelos estadísticos, propuesta por Eisenhart (1947), que conecta el diseño del experimento con el tipo de inferencia que se desea realizar:

  • Modelo de efectos fijos: se utiliza cuando las conclusiones se formulan sobre un conjunto específico y previamente definido de tratamientos. En este caso, el interés estadístico se centra en comparar los efectos medios de dichos tratamientos.
  • Modelo de efectos aleatorios: se aplica cuando los tratamientos evaluados representan una muestra aleatoria de una población más amplia de tratamientos. Aquí, las conclusiones se extienden más allá de los tratamientos observados y la inferencia se centra en las varianzas asociadas a dichos tratamientos.
  • Modelo de efectos mixtos: surge cuando el experimento combina tratamientos de efectos fijos y aleatorios en un mismo estudio.

Esta clasificación permite comprender cómo las decisiones sobre el diseño experimental influyen directamente en el tipo de conclusiones que pueden extraerse, un aspecto fundamental tanto en la práctica como en la divulgación de la ingeniería.

En este archivo de audio puedes escuchar una conversación sobre los tipos de experimentos.

En este vídeo se resumen las ideas más importantes sobre este tema.

Referencias:

Anscombe, F. J. (1947). The validity of comparative experiments. Journal of the Royal Statistical Society, 61, 181–211.

Brownlee, K. A. (1957). The principles of experimental design. Industrial Quality Control, 13, 1–9.

Eisenhart, C. (1947). The assumptions underlying the analysis of variance. Biometrics, 3, 1–21.

Melo, O. O., López, L. A., & Melo, S. E. (2007). Diseño de experimentos: métodos y aplicaciones. Universidad Nacional de Colombia. Facultad de Ciencias.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Crees que la ciencia «transfiere» conocimiento a la sociedad? 4 revelaciones que cambiarán tu perspectiva.

Introducción: de la torre de marfil al diálogo abierto.

A menudo imaginamos la ciencia como un proceso aislado: un grupo de expertos en una torre de marfil que, una vez finalizado su trabajo, «transfiere» su conocimiento empaquetado a una sociedad que lo recibe pasivamente. Esta imagen de un flujo unidireccional en el que el conocimiento fluye desde el laboratorio hasta la calle ha dominado nuestra percepción durante décadas. Sin embargo, esta visión está profundamente obsoleta. La relación entre la ciencia y la sociedad es, en realidad, un ecosistema vibrante, un diálogo complejo y multidireccional que enriquece a ambas partes de formas que apenas empezamos a comprender.

Este artículo se sumerge en el corazón de esta nueva perspectiva basándose en un profundo análisis del documento de trabajo de la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA). A continuación, revelaremos las claves más impactantes y sorprendentes sobre cómo el conocimiento científico crea realmente valor social, desmontando viejos mitos y abriendo la puerta a una nueva forma de entender la ciencia.

1. No es «transferencia», sino «intercambio». Y el cambio es enorme.

El primer gran cambio es conceptual, pero tiene implicaciones transformadoras. La anterior Ley Orgánica de Universidades de 2001 entendía la «transferencia» como un flujo que siempre partía de la universidad hacia la sociedad, con un enfoque casi exclusivo en el valor económico o tecnológico. Era un monólogo en el que la ciencia hablaba y la sociedad escuchaba.

El nuevo paradigma, impulsado por las recientes leyes del Sistema Universitario y de la Ciencia, habla de «transferencia e intercambio de conocimiento». Este término enriquece radicalmente la perspectiva. Reconoce que los flujos de conocimiento son multidireccionales, ya que la sociedad también aporta saberes, necesidades y contextos cruciales para la investigación. Se valora la interacción con actores no académicos y los procesos de cocreación, en los que el valor ya no es solo económico, sino también social, artístico y cultural. Este cambio es significativo, puesto que transforma la relación de un monólogo a un diálogo y reconoce que el conocimiento y las necesidades de la sociedad son fundamentales para enriquecer la propia ciencia.

La valorización del conocimiento consiste en crear valor social y económico a partir de él, vinculando diferentes ámbitos y sectores, y transformando datos, conocimientos técnicos y resultados de la investigación en productos, servicios, soluciones y políticas basadas en el conocimiento, sostenibles y que beneficien a la sociedad.

2. Las patentes son solo la punta del iceberg (y muy pequeña, además).

Cuando pensamos en la ciencia aplicada a la sociedad, suele venirnos a la mente la imagen de una patente que se convierte en un producto comercial o la creación de una empresa spin-off a partir de una investigación universitaria. Estas se han considerado durante mucho tiempo como el máximo exponente de la transferencia de tecnología.

Sin embargo, la realidad es muy diferente. El informe de la ANECA pone de manifiesto que solo una minoría de investigadores e instituciones participa activamente en estas actividades. Los datos del estudio EXTRA son reveladores: la comercialización de resultados (que incluye patentes y empresas derivadas) es una práctica mucho menos frecuente (12 %) que la colaboración formal mediante contrato (63 %) o la colaboración informal (80 %). Esto significa que, durante décadas, los sistemas de evaluación han premiado y medido la actividad de una minoría (el 12 %), mientras que el vasto ecosistema de colaboración real (el 80 %) que genera valor social ha permanecido en la sombra, sin ser reconocido ni incentivado.

Esta obsesión por lo comercial no es solo teórica. En una evaluación piloto de la «transferencia» realizada en 2018, los resultados favorecieron abrumadoramente un modelo económico y tecnológico que premiaba perfiles muy específicos (hombres de mayor edad con trayectorias consolidadas) y actividades como las spin-offs y las patentes, mientras que la divulgación y la transferencia con valor social obtuvieron resultados muy inferiores. Este sesgo sistémico demostró que el antiguo modelo no solo era incompleto, sino también excluyente.

La mayor parte del intercambio real se produce a través de un «espectro oculto» de mecanismos menos visibles, pero muy valiosos, como la investigación conjunta con empresas u ONG, la consultoría especializada, la formación a medida o la participación directa en la elaboración de políticas públicas.

«Intercambio de conocimientos» es el nombre que damos a la amplia gama de actividades que las instituciones de educación superior emprenden con socios (…) para explorar datos y explicaciones sobre las diferentes maneras en que trabajan con sus socios externos, desde empresas hasta grupos comunitarios, en beneficio de la economía y la sociedad.

3. El valor de la ciencia no es intrínseco, sino que lo crean quienes la utilizan.

Medir el «impacto social» de la investigación es un gran desafío. De hecho, la literatura citada en el documento de ANECA señala que ni siquiera existe una definición consensuada de qué es exactamente. Esto ha llevado a un cambio de enfoque radical: la «valorización y el uso social».

La idea es sencilla, pero potente: el valor no reside inherentemente en los resultados científicos, como un artículo o un descubrimiento. El valor se crea y materializa cuando los agentes sociales —empresas, administraciones públicas, ONG, asociaciones de pacientes o ciudadanos— utilizan ese conocimiento para resolver problemas, mejorar procesos o enriquecer contextos. La investigación, por sí sola, no tiene valor social; lo adquiere cuando alguien la pone en práctica.

En la práctica, son los actores sociales que usan o apoyan el uso de la investigación quienes le confieren valor, ya que este no es intrínseco a los resultados científicos, sino que depende de su materialización efectiva por parte de los usuarios en sus respectivos entornos.

Esta perspectiva empodera a la sociedad y transforma por completo el enfoque de la evaluación. La pregunta clave ya no es «¿qué ha producido el científico?», sino «¿cómo y quién ha utilizado el conocimiento generado para crear valor real en el mundo?».

4. La ciencia del futuro debe ser inclusiva, abierta y responsable.

La idea de una ciencia completamente neutral y objetiva, inmune a los problemas sociales, es otro mito que se desmorona. El documento de ANECA deja claro que la ciencia, al igual que cualquier actividad humana, no está exenta de sesgos sistémicos como el sexismo, el racismo o la discriminación por clase social. Reconocer esto es el primer paso para construir una ciencia mejor, guiada por tres pilares fundamentales:

  • Ciencia inclusiva: supera el «modelo del déficit», que asume que el público es un receptor vacío de conocimiento. En su lugar, incorpora activamente las voces, experiencias y preocupaciones de comunidades diversas e históricamente excluidas en el propio proceso científico. En esencia, es la puesta en práctica del verdadero «intercambio» del que hablamos al principio y garantiza que el diálogo sea real y representativo.
  • Ciencia abierta: promueve el acceso libre y gratuito a los datos, las metodologías y los resultados de la investigación. El objetivo es maximizar su reutilización, transparencia y beneficio para toda la sociedad, no solo para quienes pueden pagarlo.
  • Ciencia responsable: implica considerar proactivamente las implicaciones éticas, sociales y medioambientales de la investigación. Se trata de anticipar consecuencias para garantizar que el «valor» creado por la sociedad, como vimos antes, se oriente siempre hacia el bien común.

Integrar estos principios no es solo una cuestión de justicia social. Se trata de una estrategia indispensable para mejorar la calidad y la relevancia de la propia investigación, fortalecer la confianza pública en la ciencia y garantizar que sus beneficios lleguen a todos.

Conclusión: una conversación, no un monólogo.

El viaje ha sido revelador. Hemos pasado de la idea de una «transferencia» unidireccional y centrada en las patentes a un ecosistema de «intercambio», en el que el verdadero valor no radica en el descubrimiento científico en sí, sino en cómo la sociedad lo utiliza y lo transforma. Este cambio nos obliga a replantearnos qué es lo que realmente importa. La ciencia del futuro no puede medirse por sus productos aislados, sino por la riqueza y la calidad de sus relaciones con la sociedad. Su éxito no radica en un monólogo desde la autoridad, sino en su capacidad para crear, conjuntamente, un valor tangible y equitativo mediante un diálogo inclusivo, abierto y responsable.

Ahora que entendemos la ciencia no como un monólogo desde una torre de marfil, sino como una conversación continua, ¿qué pregunta urgente le harías tú a la comunidad científica?

En esta conversación se descubre gran parte de las ideas anteriores.

En este vídeo tenéis un resumen del tema.

El documento de ANECA lo podéis ver en este enlace: https://www.aneca.es/web/guest/-/documento-transferencia-e-intercambio-de-conocimiento

Pero también lo podéis descargar aquí:

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Quién lidera la investigación científica española en ingeniería civil?

El Grupo DIH, (Grupo para la Difusión del Índice h) cuyo objetivo es la difusión del índice h, ha publicado una clasificación de investigadores científicos que residen en España y se basa en dicho índice. El ranking se elabora a partir de la base de datos de publicaciones científicas ISI Web of Knowledge y establece una clasificación específica para cada una de las diez áreas de conocimiento consideradas: agricultura, biología, ciencias de los materiales, ciencias de la salud, ciencias de la tierra, física, informática, ingeniería, matemáticas y química.

De acuerdo con la metodología utilizada, Fh se define como la relación entre el índice h del investigador y el promedio de los índices de otros autores que figuran en el ranking de su área. En el caso de que el autor aparezca en varias áreas, Fhm se calculará como la media de estos valores.

Aunque es posible que existan algunas críticas basadas en el índice h, este permite una evaluación objetiva de la carrera investigadora, si bien no es un indicador tan adecuado para investigadores jóvenes. Si deseáis ampliar detalles sobre este tema, podéis consultar un artículo que escribí previamente.

A continuación se presenta la tabla actualizada a febrero de 2023 en el área de ingeniería civil. Es un honor ocupar la tercera posición, detrás de dos figuras destacadas en nuestro país: Íñigo Losada y Enrique Castillo. Sin embargo, es importante mencionar que hay otros ingenieros de caminos que lideran en investigación en distintas áreas. Por ejemplo, Eugenio Oñate, del CIMNE, encabeza la lista en el área de aplicaciones interdisciplinarias de matemáticas; Jaime Gómez, de nuestra universidad, se encuentra en los primeros puestos en el área de recursos hídricos; Antonio Aguado, de la UPC, destaca en el área de tecnología de la construcción; y Alfredo García, también de nuestra universidad, sobresale en ciencia y tecnología del transporte. Seguramente, hay muchos más investigadores destacados que se han quedado fuera de esta lista. Les recomiendo explorar y conocer a todos ellos.

Rankings de investigadores científicos españoles en el área de ingeniería civil

El Grupo DIH, (Grupo para la Difusión del Índice h) publica la clasificación de investigadores científicos residentes en España basados en el índice h. El ranking, que se elabora a partir de la base de datos sobre publicaciones científicas ISI Web of Knowledge, establece una clasificación específica para cada una de las disciplinas enmarcadas dentro de las diez áreas de conocimiento consideradas: agricultura, biología, ciencias de los materiales, ciencias de la salud, ciencias de la tierra, física, informática, ingeniería, matemáticas y química.

Según la metodología seguida, Fh es la relación entre el índice h del investigador y el valor medio de los h de los otros autores presentes en el ranking de su área. Si el autor aparece en varias áreas, Fhm es la media de estos valores.

A pesar de que pueden existir algunas críticas a la evaluación mediante el índice h, lo cierto es que permite una evaluación objetiva de la carrera investigadora, aunque no es tan buen indicador para el caso de investigadores jóvenes. De este tema ya hablé en un artículo anterior, por si os interesa ampliar detalles.

En el caso del área de ingeniería civil, la tabla actualizada a diciembre de 2021 es la que aparece a continuación. Tengo el honor de ocupar la tercera posición, compartida con Raúl Medina, teniendo por delante a dos verdaderos hitos en nuestro país como son Íñigo Losada y Enrique Castillo. No obstante, hay más ingenieros de caminos que están en los primeros puestos en la investigación de nuestro país, pero en otras áreas de investigación. Por ejemplo, Eugenio Oñate, del CIMNE, es el primer situado en el área de aplicaciones interdisciplinarias de matemáticas; Jaime Gómez, de nuestra universidad, está en los primeros puestos en el área de recursos hídricos; Antonio Aguado, de la UPC, está destacado en el área de tecnología de la construcción; o Alfredo García, también de nuestra universidad, en ciencia y tecnología del transporte. Pero seguro que me dejo a más ingenieros de caminos investigadores en la lista. Os recomiendo recorrerla y conocerlos a todos ellos.

 

Cuando una «campaña experimental» se convierte en un desperdicio de tiempo y dinero

https://www.laensa.com/probetas-hormigon/

Reconozco abiertamente que me recorre cierto escalofrío cuando escucho por algún sitio que se está desarrollando una «campaña experimental«, a menudo en laboratorios donde, por desgracia, cada ensayo cuesta muchísimo tiempo y dinero. Me viene a la mente una campaña militar a gran escala donde, para conseguir un objetivo, se sacrifica lo que sea necesario. Cuando igual una pequeña fuerza de operaciones especiales sería suficiente.

Lo digo porque no es la primera vez que me encuentro con algún estudiante de máster o doctorado que quiere iniciar ensayos para cubrir, literalmente, las variaciones posibles en ciertos rangos, de un número de factores que influyen en un problema determinado. Y tampoco me es ajeno el típico estudiante que acude a mi despacho a pedirme consejo porque no sabe qué hacer con las montañas de datos generados, no siendo capaz de interpretar con herramientas estadísticas rigurosas.

Pero este problema no solo ocurre en determinados ámbitos científicos, sino que es habitual en empresas, procesos industriales y laboratorios de todo tipo. Cuento esto porque encuentro de vez en cuando a un doctorando que ha dedicado, por ejemplo, más de cinco años en recoger datos que luego, a la postre, se acumulan en hojas de cálculo y son difíciles de interpretar porque no se sabía exactamente cuál era la pregunta de investigación que se quería resolver.

También es muy típico encontrar en las empresas a técnicos expertos en un proceso determinado «con mucha experiencia», que realmente lo que ha hecho es aprender con los años, y sobre todo, de sufrir en sus carnes muchos errores. Este tipo de experiencia, basada en el error, no es la más barata, ni mucho menos.

Afortunadamente, cada vez son menos los que se enfrascan directamente a ensayar todas las combinaciones posibles en los valores de ciertas variables. Para eso disponemos de una rama del conocimiento denominada diseño de experimentos que permite no solo ahorrar recursos (tiempo, espacio de laboratorio, dinero, etc.), sino también es capaz de sacar muchísima más información de los datos cuando se dedica algo de tiempo a hacer un buen diseño experimental. No digo con esto que existan campañas experimentales bien diseñadas, sino que aún perviven prácticas que, por puro desconocimiento, son utilizadas aún en demasiadas ocasiones.

Veamos un ejemplo sencillo que nos permite aclarar las ideas. Imaginemos un proceso que solo depende de 4 factores. Si de cada factor queremos analizar 5 niveles, una «campaña experimental» exhaustiva nos obligaría a tomar 5^4 = 625 observaciones. Este número tan elevado puede ser inviable. ¿Cómo podemos reducir el número de observaciones? Se podría reducir el número de factores o el número de niveles a estudiar .

Un buen diseño de experimentos puede reducir muchísimo el número de observaciones necesarias ofreciendo, a su vez, información muy valiosa. Por ejemplo, un diseño factorial a dos niveles, ya sea completo o fraccionado, sería suficiente en la mayoría de los casos para estudiar los efectos, las interacciones entre los factores, etc. Invito al lector a revisar en este mismo blog algunos artículos que he escrito al respecto:

¿Qué es el diseño de experimentos?

Definiciones básicas del diseño de experimentos

Incluso, en el caso de que no exista una interacción entre los factores, por ejemplo un diseño en cuadrado grecolatino, para cuatro factores y cuatro niveles, podríamos obtener información valiosa con 16 observaciones en vez de las 256 que serían las necesarias para cubrir todas las combinaciones posibles. En este blog podéis encontrar muchos ejemplos resueltos buscando «diseño de experimentos» en la columna de la izquierda, donde aparece el buscador.

Resumiendo, estoy a favor de las «campañas experimentales», pero siempre que se basen en un diseño de experimentos previo. Pero mi consejo es que antes de hacer nada, tengamos muy clara la pregunta de investigación que queremos resolver. De hecho, la ciencia experimental trata de llegar a conclusiones generales con datos procedentes de casos particulares, y para eso necesitamos la estadística.

Parafraseando la frase que, según la tradición, estaba grabada a la entrada de la Academia de Platón, yo pondría el siguiente letrero a la puerta de cualquier laboratorio: «NO ENTRE NADIE QUE NO SEPA ESTADÍSTICA».

Os dejo una conferencia del profesor Xabier Barber de la Universidad Miguel Hernández que os aclarará muchas cosas. Espero que os guste.

Referencias:

  • Box, G.E.; Hunter, J.S.; Hunter, W.G. (2008). Estadística para investigadores. Diseño, innovación y descubrimiento. Segunda Edición, Ed. Reverté, Barcelona.
  • Gutiérrez, H.; de la Vara, R. (2003). Análisis y diseño de experimentos. McGraw-Hill, México.
  • Vicente, M.L.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de experimentos. Soluciones con SAS y SPSS. Pearson Educación, Madrid.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

32 científicos de la Universidad Politécnica de Valencia, entre los 10 mejores de España en 21 disciplinas (incluida la ingeniería civil)

Avelino Corma, investigador de la UPV con el mejor índice h de España (h=152)

Avelino Corma, investigador con mejor índice h de España, Jaime Lloret y Rubén Ruiz, números 1 en sus respectivas disciplinas

Aparece hoy como noticia de portada en la web de la Universitat Politècnica de València la noticia de que 32 científicos de la UPV se encuentran en la élite nacional atendiendo a sus índices h de investigación. Es un auténtico orgullo comprobar que soy el único investigador de nuestra universidad que se encuentra en el top 10 del área de «ingeniería civil». En el cuadro que os dejo a continuación se encuentra el ranking de esta disciplina. Os paso, por su interés, el contenido de esta noticia.

 

Los investigadores Avelino Corma, Jaime Lloret y Rubén Ruiz, que desarrollan su actividad en la Universitat Politècnica de València (UPV), son los mejores de España en sus respectivas disciplinas según el índice h, sistema que mide su calidad científica a partir del número de citaciones de sus artículos.

El ranking, elaborado por el Grupo para la Difusión del Índice h (DIH) a partir de la base de datos sobre publicaciones científicas ISI Web of Knowledge, establece una clasificación específica para cada una de las disciplinas enmarcadas dentro de las diez áreas de conocimiento consideradas: agricultura, biología, ciencias de los materiales, ciencias de la salud, ciencias de la tierra, física, informática, ingeniería, matemáticas y química.

La citada clasificación, cuya última actualización tuvo lugar durante el recién finalizado primer trimestre de 2021 en las ramas de agricultura, ciencias de los materiales, ciencias de la tierra, informática, ingeniería y matemáticas, detalla tanto el índice h de cada investigador como su factor h, es decir, la relación entre el valor h del científico y la media de los del ranking del campo al que pertenece.

Avelino Corma (UPV-CSIC), científico español con mejor índice h

Avelino Corma, profesor de investigación del Consejo Superior de Investigaciones Científicas en el Instituto de Tecnología Química (ITQ, centro mixto UPV-CSIC), no solo encabeza el campo de química física sino que, además, es el científico español con mejor índice h. No en vano, su índice h de 152 es el único superior, en toda España, a 130.

También son líderes nacionales en sus respectivos ámbitos Jaime Lloret, investigador del Instituto de Investigación para la Gestión Integrada de Zonas Costeras (IGIC) del campus de Gandia UPV (en telecomunicaciones), y Rubén Ruiz, investigador del Instituto Universitario Mixto de Tecnología Informática y director del Área de Tecnologías y Recursos de la Información UPV (en investigación operativa y gestión).

3 investigadores más de la UPV, en segunda posición, y otros 4, terceros

Junto a los tres investigadores que lideran sus disciplinas, otros tantos científicos de la UPV aparecen en segunda posición de sus respectivos campos: Raúl Payri, del Instituto CMT-Motores Térmicos (en ingeniería mecánica); Sebastián Martorell, investigador del Grupo de Medioambiente y Seguridad Industrial (en ingeniería industrial); y Juan Carlos Cano, del Grupo de Redes de Computadores (en telecomunicaciones).

Completando los podios nacionales en sus disciplinas, figuran también Hermenegildo García (con un destacado índice h de 102, lo que le sitúa en el top 20 nacional), del ITQ (en química física); Francisco Javier Salvador, del CMT-Motores Térmicos (en ingeniería mecánica); José Duato, del Grupo de Arquitecturas Paralelas (en teoría informática y métodos); y Sandra Sendra, del IGIC (en telecomunicaciones).

A ellos hay que añadir a Jordi Payá, del Instituto de Ciencia y Tecnología del Hormigón (ICITECH), (en tecnologías de la construcción y la edificación); José Ramón Serrano, del CMT-Motores Térmicos (en ingeniería mecánica); y Josefa Mula Bru, del Centro de Investigación en Gestión e Ingeniería de la Producción (en ingeniería industrial); cuartos, los tres, en sus respectivos ámbitos.

Junto a todos los anteriores, en el top 5 nacional figuran también otros 6 científicos UPV: Luis María Guanter, del Instituto Universitario de Ingeniería del Agua y del Medio Ambiente (IIAMA), (en teledetección); José Capmany, del Instituto Universitario de Telecomunicación y Aplicaciones Multimedia (en óptica); Mª Victoria Borrachero, del ICITECH (en tecnologías de la construcción y la edificación); Jaime Gómez, del IIAMA (en recursos hídricos); Francisco Payri, del CMT-Motores Térmicos (en ingeniería mecánica); y Alberto José Ferrer, del Grupo de Ingeniería Estadística Multivariante (en probabilidad y estadística).

Un total de 32 científicos UPV, entre los 10 mejores de España en 21 disciplinas

Si se amplía la lista al top ten de cada disciplina, la UPV cuenta con 13 científicos clasificados más al margen de los ya citados, lo que supone un total de 32 entre los 10 mejores de España en 21 disciplinas (Martí, Lloret, Martorell y Ferrer aparecen, cada uno, en la élite de dos campos distintos).

Sextos a nivel nacional son Amparo Chiralt, del Instituto Universitario de Ingeniería de Alimentos para el Desarrollo (en ciencia y tecnología de la alimentación); Javier Martí, del Instituto Universitario de Tecnología Nanofotónica (en electrónica e ingeniería eléctrica); Víctor Yepes Piqueras, del ICITECH (en ingeniería civil); Alfred Peris, del Instituto Universitario de Matemática Pura y Aplicada (en matemáticas); y Alberto José Ferrer, del Grupo de Ingeniería Estadística Multivariante (en aplicaciones matemáticas interdisciplinares).

En séptimo lugar aparecen Ricardo Flores, del Instituto de Biología Molecular y Celular de Plantas (IBMCP), (en virología); Manuel Agustí, del Instituto Agroforestal Mediterráneo (en horticultura); Jaime Gimeno, del CMT-Motores Térmicos (en ingeniería mecánica); y Pedro Albertos, del Departamento de Ingeniería de Sistemas, Computadores y Automática (en sistemas de control y automatización); y en octavo, Ramón Martínez Máñez, secretario del Instituto Interuniversitario de Investigación de Reconocimiento Molecular y Desarrollo Tecnológico (en química multidisciplinar); y José María Monzó, del ICITECH (en tecnologías de la construcción y la edificación).

Completan la lista de investigadores UPV destacados a nivel nacional José Luis Gómez, del Centro de Biomateriales e Ingeniería Tisular (en ciencia polimérica); y Javier Martí, del Instituto Universitario de Tecnología Nanofotónica (en óptica); ambos novenos en las disciplinas consideradas; y Jaime Lloret, del IGIC (en electrónica e ingeniería eléctrica); Sebastián Martorell, investigador del Grupo de Medioambiente y Seguridad Industrial (en investigación operativa y gestión); y José María Desantes y José Galindo, ambos del CMT-Motores Térmicos, en décimo lugar a nivel nacional.

Ranking de investigadores en ingeniería civil 2021

https://es.wikipedia.org/wiki/%C3%8Dndice_h

Hoy día se hacen listas de todo tipo, especialmente en las redes sociales. Se catalogan a las universidades, a las empresas, a las personas. También se hace lo mismo con los investigadores. Son listas en las que los criterios de evaluación son a veces discutibles, especialmente en el ámbito científico.

En un artículo anterior discutí brevemente el índice h como indicador de la calidad investigadora de un científico. Basándose en este índice, viene siendo habitual que a principios de cada año se publiquen listados sobre los “influencers” en investigación científica en España. Una de las páginas más famosas es http://indice-h.webcindario.com/indice.html

Lo interesante de esta página es su metodología de evaluación, que se puede consultar aquí:  http://indice-h.webcindario.com/P+F.html. Se trata de una página elaborada por el Grupo para la Difusión del Índice h (DIH), que intenta dar a conocer a los científicos con mayor índice h de entre los que trabajan en España. Según sus autores, este índice aumenta con la calidad de la investigación que se publica y, por tanto, permite establecer rankings de los mejores investigadores. La información la elaboran de una base de datos de gran prestigio (ISI Web of Knowledge).

Pues bien, en el ámbito de la ingeniería civil, los investigadores con mayor índice h en España, a fecha de hoy, son los siguientes (se limita el número de investigadores a aquellos que tengan un valor mínimo de h que sea la mitad del que encabeza la lista):

 

 

Ranking de investigadores en ingeniería civil 2020

https://labibliotecainforma.wordpress.com/

Hoy día se hacen listas de todo tipo, especialmente en las redes sociales. Se catalogan a las universidades, a las empresas, a las personas. También se hace lo mismo con los investigadores. Son listas en las que los criterios de evaluación son a veces discutibles, especialmente en el ámbito científico.

En un artículo anterior discutí brevemente el índice h como indicador de la calidad investigadora de un científico. Basándose en este índice, viene siendo habitual que a principios de cada año se publiquen listados sobre los «influencers» en investigación científica en España. Una de las páginas más famosas es http://indice-h.webcindario.com/

Lo interesante de esta página es su metodología de evaluación, que se puede consultar aquí:  http://indice-h.webcindario.com/P+F.html. Se trata de una página elaborada por el Grupo para la Difusión del Índice h (DIH), que intenta dar a conocer a los científicos con mayor índice h de entre los que trabajan en España. Según sus autores, este índice aumenta con la calidad de la investigación que se publica y, por tanto, permite establecer rankings de los mejores investigadores. La información la elaboran de una base de datos de gran prestigio (ISI Web of Knowledge).

Pues bien, en el ámbito de la ingeniería civil, los investigadores con mayor índice h en España, a fecha de hoy, son los siguientes (se limita el número de investigadores a aquellos que tengan un valor mínimo de h que sea la mitad del que encabeza la lista):

 

¿Es el índice h la mejor forma de medir a un investigador?

Índice h a partir de un gráfico de citas decrecientes para artículos estimados. Wikipedia

En algunos artículos anteriores he comentado las dificultades que se tienen para medir de una forma objetiva, por ejemplo, a las universidades. Resulta una tarea muy compleja, pues la calidad de una institución de este tipo es poliédrica, depende de muchos indicadores y resulta difícil ponderar y comparar resultados para establecer listas ordenadas que reflejen la calidad final.

Lo mismo ocurre con la valoración que se tendría que dar a los profesores universitarios, pues éstos conjugan labores docentes, investigadoras, de gestión y de transferencia tecnológica. El problema es que estas mediciones presentan consecuencias importantes. Por ejemplo, un estudiante puede disponer de una beca para determinada institución en función de su posición en el ranking correspondiente a su área de conocimiento. Del mismo modo, un profesor universitario puede promocionar en su carrera profesional dependiendo de la forma en que se mida su curriculum. Y como siempre, estas medidas pueden ser cuantitativas, pero también cualitativas. Y ahí está el principal problema.

En este artículo me voy a centrar en la medición de la calidad de los investigadores científicos. Esta tarea ya se presupone que va a ser difícil y depende, como no puede ser de otra forma, del área de conocimiento y perfil de cada uno de los investigadores. Voy a centrarme en el índice h propuesto por Jorge Hirsch, de la Universidad de California.  Se trata de medir la calidad de los trabajos realizados por los científicos, en función de la cantidad de citas que han recibido sus artículos científicos. Un científico o investigador tiene índice h si ha publicado h trabajos con al menos h citas cada uno.

Este índice, muy extendido a nivel internacional, presenta debilidades o inconvenientes, sobre todo cuando se trata de evaluar a los investigadores jóvenes. Una forma de paliar este problema es el uso del índice m, también propuesto por Hirsch, que es la relación h/n, donde n es el número de años transcurridos desde la fecha de la primera publicación hasta el momento actual. Sin embargo, no sirve para medir lo mismo que el índice h.

Otras críticas del índice es que éste depende del área de conocimiento. Esto sería fácilmente subsanable si se realizan comparaciones entre científicos del mismo área de conocimiento. De esta forma, el índice h se valora de forma relativa y no absoluta. Para aquellos de vosotros que queráis una discusión a fondo sobre las ventajas e inconvenientes de este indicador, os recomiendo la página https://grupodih.info/, realizada por el Grupo DIH (Grupo para la Difusión del Índice h) en base a la versión ISI Web of Knowledge) que la FECYT ofrece gratuitamente a las universidades españolas. Es evidente que el índice h depende de la base de datos utilizada, por tanto un ranking solo tiene sentido si se usa la misma base de datos para todos los investigadores. En los trabajos realizados por el Grupo DIH, el protocolo «Web of Science Core Collection» («Colección principal de Web of Science«) y la base de datos «Science Citation Index Expanded (SCI-EXPANDED) –1900-present». En las áreas de COMPUTER SCIENCE, PSICOLOGY, PSYCHIATRY y BEHAVIORAL SCIENCES, se usa, además, «Social Sciences Citation Index (SSCI)».

Para poner un ejemplo de cómo se pueden ver los listados de científicos de un área determinada, voy a utilizar la relativa a CIVIL ENGINEERING, que es a la que pertenezco por mis líneas de investigación. En la imagen de abajo se puede ver el listado correspondiente a los investigadores residentes en España de este área de conocimiento. En dicha lista solo aparecen los investigadores con un índice h igual o superior a 19. En este caso, aparecen 13 investigadores, cuyo índice h medio es de 25. En cambio, en otra área como es CONSTRUCTION & BUILDING TECHNOLOGY, el indicador h medio es de 30. De esta forma, se puede calcular un índice relativo Fh, como cociente entre el índice h de este campo respecto a la media de esta lista. De esta forma, se pueden comparar investigadores de distintas áreas de conocimiento (por ejemplo, un investigador con h=21 en CIVIL ENGINEERING, está mejor posicionado de forma relativa en su Fh que otro con h=25 en CONSTRUCTION & BUILDING TECHNOLOGY). Os recomiendo que visitéis la página del Grupo DIH para que veáis todo el estudio y los detalles.

Como siempre, nunca este tipo de indicadores gustan a todos, especialmente a aquellos cuyo perfil no se adapta a lo que se está midiendo. Por ejemplo, un profesor universitario no puede medirse exclusivamente con este índice. Pero igual sí que se pueden establecer criterios de calidad para seleccionar, en ambientes muy competitivos de proyectos de investigación, qué tipo de puntuación se puede dar a la calidad científica de un equipo. Os dejo, por tanto, con la reflexión.

«Whether you like it or not, … the h-index is here to stay”. However, … “it is always a problem to reduce research work to one number. We should be careful using it and should be aware of its limitations.” (Michael Schreiber, citado por Phillip Ball, Nature 448, 16, 2007)

 

 

 

Ser profesionales, no solo técnicos

La filósofa Adela Cortina, investida ‘honoris causa’ por la Universitat Politècnica de València, diciembre de 2016

Me gustaría dedicar mi último artículo de 2016 a la profesora Adela Cortina, flamante doctora honoris causa por la Universitat Politècnica de València. Su visión sobre la ética, la ciencia y la tecnología nos permite encuadrar nuestro quehacer diario dentro un ámbito de conocimiento global que supera viejas barreras. A continuación os dejo una breve recensión de un capítulo de su libro “Para qué sirve realmente la ética” en lo tocante a la profesión y la técnica.  Un libro imprescindible para entender lo qué es la ética.

Educar con calidad supone formar ciudadanos justos, personas que sepan compartir valores morales propios de una sociedad pluralista y democrática, esos mínimos de justicia que permiten construir una buena sociedad. Supone formar buenos profesionales, pues no es lo mismo un buen técnico que un buen profesional. Transformar la vida pública no solo es cosa de políticos, sino también desde la sociedad civil, siendo un lugar privilegiado el mundo de las profesiones. Quien ingresa en una profesión se compromete a proporcionar un bien a la sociedad, tiene que prepararse para ello, adquiriendo las competencias adecuadas, y a la vez ingresa en una comunidad de profesionales que comparten la misma meta. Los profesionales se hacen responsables de los medios y de las consecuencias de sus acciones con vistas a alcanzar los fines mejores. Quien ingresa en una profesión no puede proponerse una meta cualquiera, sino que le viene dada y es la que comparte con el resto de colegas. Los motivos por los que se accede a la profesión se convierten en razones cuando concuerdan con las metas de la profesión, que les da auténtico sentido y legitimidad social. Se deben formar profesionales, no puros técnicos, recordado sus fines legítimos y qué hábitos hay que desarrollar para alcanzarlos. Parece que hay dos modelos educativos contrapuestos, promover la excelencia y no generar excluidos. Una tercera vía es la de la universalización de la excelencia, entendiendo por excelente la virtud de la persona que es fecunda para la sociedad a la que pertenece. El éxito consiste en competir con uno mismo, lo cual requiere esfuerzo, pues no se construye una sociedad justa con ciudadanos mediocres.

A continuación también os dejo un vídeo donde la propia filósofa explica con sus palabras qué es la ética. Espero que os guste.