Cuando una “campaña experimental” se convierte en un desperdicio de tiempo y dinero

https://www.laensa.com/probetas-hormigon/

Reconozco abiertamente que me recorre cierto escalofrío cuando escucho por algún sitio que se está desarrollando una “campaña experimental“, a menudo en laboratorios donde, por desgracia, cada ensayo cuesta muchísimo tiempo y dinero. Me viene a la mente una campaña militar a gran escala donde, para conseguir un objetivo, se sacrifica lo que sea necesario. Cuando igual una pequeña fuerza de operaciones especiales sería suficiente.

Lo digo porque no es la primera vez que me encuentro con algún estudiante de máster o doctorado que quiere iniciar ensayos para cubrir, literalmente, las variaciones posibles en ciertos rangos, de un número de factores que influyen en un problema determinado. Y tampoco me es ajeno el típico estudiante que acude a mi despacho a pedirme consejo porque no sabe qué hacer con las montañas de datos generados, no siendo capaz de interpretar con herramientas estadísticas rigurosas.

Pero este problema no solo ocurre en determinados ámbitos científicos, sino que es habitual en empresas, procesos industriales y laboratorios de todo tipo. Cuento esto porque encuentro de vez en cuando a un doctorando que ha dedicado, por ejemplo, más de cinco años en recoger datos que luego, a la postre, se acumulan en hojas de cálculo y son difíciles de interpretar porque no se sabía exactamente cuál era la pregunta de investigación que se quería resolver.

También es muy típico encontrar en las empresas a técnicos expertos en un proceso determinado “con mucha experiencia”, que realmente lo que ha hecho es aprender con los años, y sobre todo, de sufrir en sus carnes muchos errores. Este tipo de experiencia, basada en el error, no es la más barata, ni mucho menos.

Afortunadamente, cada vez son menos los que se enfrascan directamente a ensayar todas las combinaciones posibles en los valores de ciertas variables. Para eso disponemos de una rama del conocimiento denominada diseño de experimentos que permite no solo ahorrar recursos (tiempo, espacio de laboratorio, dinero, etc.), sino también es capaz de sacar muchísima más información de los datos cuando se dedica algo de tiempo a hacer un buen diseño experimental. No digo con esto que existan campañas experimentales bien diseñadas, sino que aún perviven prácticas que, por puro desconocimiento, son utilizadas aún en demasiadas ocasiones.

Veamos un ejemplo sencillo que nos permite aclarar las ideas. Imaginemos un proceso que solo depende de 4 factores. Si de cada factor queremos analizar 5 niveles, una “campaña experimental” exhaustiva nos obligaría a tomar 5^4 = 625 observaciones. Este número tan elevado puede ser inviable. ¿Cómo podemos reducir el número de observaciones? Se podría reducir el número de factores o el número de niveles a estudiar .

Un buen diseño de experimentos puede reducir muchísimo el número de observaciones necesarias ofreciendo, a su vez, información muy valiosa. Por ejemplo, un diseño factorial a dos niveles, ya sea completo o fraccionado, sería suficiente en la mayoría de los casos para estudiar los efectos, las interacciones entre los factores, etc. Invito al lector a revisar en este mismo blog algunos artículos que he escrito al respecto:

¿Qué es el diseño de experimentos?

Definiciones básicas del diseño de experimentos

Incluso, en el caso de que no exista una interacción entre los factores, por ejemplo un diseño en cuadrado grecolatino, para cuatro factores y cuatro niveles, podríamos obtener información valiosa con 16 observaciones en vez de las 256 que serían las necesarias para cubrir todas las combinaciones posibles. En este blog podéis encontrar muchos ejemplos resueltos buscando “diseño de experimentos” en la columna de la izquierda, donde aparece el buscador.

Resumiendo, estoy a favor de las “campañas experimentales”, pero siempre que se basen en un diseño de experimentos previo. Pero mi consejo es que antes de hacer nada, tengamos muy clara la pregunta de investigación que queremos resolver. De hecho, la ciencia experimental trata de llegar a conclusiones generales con datos procedentes de casos particulares, y para eso necesitamos la estadística.

Parafraseando la frase que, según la tradición, estaba grabada a la entrada de la Academia de Platón, yo pondría el siguiente letrero a la puerta de cualquier laboratorio: “NO ENTRE NADIE QUE NO SEPA ESTADÍSTICA”.

Os dejo una conferencia del profesor Xabier Barber de la Universidad Miguel Hernández que os aclarará muchas cosas. Espero que os guste.

Referencias:

  • Box, G.E.; Hunter, J.S.; Hunter, W.G. (2008). Estadística para investigadores. Diseño, innovación y descubrimiento. Segunda Edición, Ed. Reverté, Barcelona.
  • Gutiérrez, H.; de la Vara, R. (2003). Análisis y diseño de experimentos. McGraw-Hill, México.
  • Vicente, M.L.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de experimentos. Soluciones con SAS y SPSS. Pearson Educación, Madrid.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

32 científicos de la Universidad Politécnica de Valencia, entre los 10 mejores de España en 21 disciplinas (incluida la ingeniería civil)

Avelino Corma, investigador de la UPV con el mejor índice h de España (h=152)

Avelino Corma, investigador con mejor índice h de España, Jaime Lloret y Rubén Ruiz, números 1 en sus respectivas disciplinas

Aparece hoy como noticia de portada en la web de la Universitat Politècnica de València la noticia de que 32 científicos de la UPV se encuentran en la élite nacional atendiendo a sus índices h de investigación. Es un auténtico orgullo comprobar que soy el único investigador de nuestra universidad que se encuentra en el top 10 del área de “ingeniería civil”. En el cuadro que os dejo a continuación se encuentra el ranking de esta disciplina. Os paso, por su interés, el contenido de esta noticia.

 

Los investigadores Avelino Corma, Jaime Lloret y Rubén Ruiz, que desarrollan su actividad en la Universitat Politècnica de València (UPV), son los mejores de España en sus respectivas disciplinas según el índice h, sistema que mide su calidad científica a partir del número de citaciones de sus artículos.

El ranking, elaborado por el Grupo para la Difusión del Índice h (DIH) a partir de la base de datos sobre publicaciones científicas ISI Web of Knowledge, establece una clasificación específica para cada una de las disciplinas enmarcadas dentro de las diez áreas de conocimiento consideradas: agricultura, biología, ciencias de los materiales, ciencias de la salud, ciencias de la tierra, física, informática, ingeniería, matemáticas y química.

La citada clasificación, cuya última actualización tuvo lugar durante el recién finalizado primer trimestre de 2021 en las ramas de agricultura, ciencias de los materiales, ciencias de la tierra, informática, ingeniería y matemáticas, detalla tanto el índice h de cada investigador como su factor h, es decir, la relación entre el valor h del científico y la media de los del ranking del campo al que pertenece.

Avelino Corma (UPV-CSIC), científico español con mejor índice h

Avelino Corma, profesor de investigación del Consejo Superior de Investigaciones Científicas en el Instituto de Tecnología Química (ITQ, centro mixto UPV-CSIC), no solo encabeza el campo de química física sino que, además, es el científico español con mejor índice h. No en vano, su índice h de 152 es el único superior, en toda España, a 130.

También son líderes nacionales en sus respectivos ámbitos Jaime Lloret, investigador del Instituto de Investigación para la Gestión Integrada de Zonas Costeras (IGIC) del campus de Gandia UPV (en telecomunicaciones), y Rubén Ruiz, investigador del Instituto Universitario Mixto de Tecnología Informática y director del Área de Tecnologías y Recursos de la Información UPV (en investigación operativa y gestión).

3 investigadores más de la UPV, en segunda posición, y otros 4, terceros

Junto a los tres investigadores que lideran sus disciplinas, otros tantos científicos de la UPV aparecen en segunda posición de sus respectivos campos: Raúl Payri, del Instituto CMT-Motores Térmicos (en ingeniería mecánica); Sebastián Martorell, investigador del Grupo de Medioambiente y Seguridad Industrial (en ingeniería industrial); y Juan Carlos Cano, del Grupo de Redes de Computadores (en telecomunicaciones).

Completando los podios nacionales en sus disciplinas, figuran también Hermenegildo García (con un destacado índice h de 102, lo que le sitúa en el top 20 nacional), del ITQ (en química física); Francisco Javier Salvador, del CMT-Motores Térmicos (en ingeniería mecánica); José Duato, del Grupo de Arquitecturas Paralelas (en teoría informática y métodos); y Sandra Sendra, del IGIC (en telecomunicaciones).

A ellos hay que añadir a Jordi Payá, del Instituto de Ciencia y Tecnología del Hormigón (ICITECH), (en tecnologías de la construcción y la edificación); José Ramón Serrano, del CMT-Motores Térmicos (en ingeniería mecánica); y Josefa Mula Bru, del Centro de Investigación en Gestión e Ingeniería de la Producción (en ingeniería industrial); cuartos, los tres, en sus respectivos ámbitos.

Junto a todos los anteriores, en el top 5 nacional figuran también otros 6 científicos UPV: Luis María Guanter, del Instituto Universitario de Ingeniería del Agua y del Medio Ambiente (IIAMA), (en teledetección); José Capmany, del Instituto Universitario de Telecomunicación y Aplicaciones Multimedia (en óptica); Mª Victoria Borrachero, del ICITECH (en tecnologías de la construcción y la edificación); Jaime Gómez, del IIAMA (en recursos hídricos); Francisco Payri, del CMT-Motores Térmicos (en ingeniería mecánica); y Alberto José Ferrer, del Grupo de Ingeniería Estadística Multivariante (en probabilidad y estadística).

Un total de 32 científicos UPV, entre los 10 mejores de España en 21 disciplinas

Si se amplía la lista al top ten de cada disciplina, la UPV cuenta con 13 científicos clasificados más al margen de los ya citados, lo que supone un total de 32 entre los 10 mejores de España en 21 disciplinas (Martí, Lloret, Martorell y Ferrer aparecen, cada uno, en la élite de dos campos distintos).

Sextos a nivel nacional son Amparo Chiralt, del Instituto Universitario de Ingeniería de Alimentos para el Desarrollo (en ciencia y tecnología de la alimentación); Javier Martí, del Instituto Universitario de Tecnología Nanofotónica (en electrónica e ingeniería eléctrica); Víctor Yepes Piqueras, del ICITECH (en ingeniería civil); Alfred Peris, del Instituto Universitario de Matemática Pura y Aplicada (en matemáticas); y Alberto José Ferrer, del Grupo de Ingeniería Estadística Multivariante (en aplicaciones matemáticas interdisciplinares).

En séptimo lugar aparecen Ricardo Flores, del Instituto de Biología Molecular y Celular de Plantas (IBMCP), (en virología); Manuel Agustí, del Instituto Agroforestal Mediterráneo (en horticultura); Jaime Gimeno, del CMT-Motores Térmicos (en ingeniería mecánica); y Pedro Albertos, del Departamento de Ingeniería de Sistemas, Computadores y Automática (en sistemas de control y automatización); y en octavo, Ramón Martínez Máñez, secretario del Instituto Interuniversitario de Investigación de Reconocimiento Molecular y Desarrollo Tecnológico (en química multidisciplinar); y José María Monzó, del ICITECH (en tecnologías de la construcción y la edificación).

Completan la lista de investigadores UPV destacados a nivel nacional José Luis Gómez, del Centro de Biomateriales e Ingeniería Tisular (en ciencia polimérica); y Javier Martí, del Instituto Universitario de Tecnología Nanofotónica (en óptica); ambos novenos en las disciplinas consideradas; y Jaime Lloret, del IGIC (en electrónica e ingeniería eléctrica); Sebastián Martorell, investigador del Grupo de Medioambiente y Seguridad Industrial (en investigación operativa y gestión); y José María Desantes y José Galindo, ambos del CMT-Motores Térmicos, en décimo lugar a nivel nacional.

Ranking de investigadores en ingeniería civil 2021

https://es.wikipedia.org/wiki/%C3%8Dndice_h

Hoy día se hacen listas de todo tipo, especialmente en las redes sociales. Se catalogan a las universidades, a las empresas, a las personas. También se hace lo mismo con los investigadores. Son listas en las que los criterios de evaluación son a veces discutibles, especialmente en el ámbito científico.

En un artículo anterior discutí brevemente el índice h como indicador de la calidad investigadora de un científico. Basándose en este índice, viene siendo habitual que a principios de cada año se publiquen listados sobre los “influencers” en investigación científica en España. Una de las páginas más famosas es http://indice-h.webcindario.com/indice.html

Lo interesante de esta página es su metodología de evaluación, que se puede consultar aquí:  http://indice-h.webcindario.com/P+F.html. Se trata de una página elaborada por el Grupo para la Difusión del Índice h (DIH), que intenta dar a conocer a los científicos con mayor índice h de entre los que trabajan en España. Según sus autores, este índice aumenta con la calidad de la investigación que se publica y, por tanto, permite establecer rankings de los mejores investigadores. La información la elaboran de una base de datos de gran prestigio (ISI Web of Knowledge).

Pues bien, en el ámbito de la ingeniería civil, los investigadores con mayor índice h en España, a fecha de hoy, son los siguientes (se limita el número de investigadores a aquellos que tengan un valor mínimo de h que sea la mitad del que encabeza la lista):

 

 

Ranking de investigadores en ingeniería civil 2020

https://labibliotecainforma.wordpress.com/

Hoy día se hacen listas de todo tipo, especialmente en las redes sociales. Se catalogan a las universidades, a las empresas, a las personas. También se hace lo mismo con los investigadores. Son listas en las que los criterios de evaluación son a veces discutibles, especialmente en el ámbito científico.

En un artículo anterior discutí brevemente el índice h como indicador de la calidad investigadora de un científico. Basándose en este índice, viene siendo habitual que a principios de cada año se publiquen listados sobre los “influencers” en investigación científica en España. Una de las páginas más famosas es http://indice-h.webcindario.com/

Lo interesante de esta página es su metodología de evaluación, que se puede consultar aquí:  http://indice-h.webcindario.com/P+F.html. Se trata de una página elaborada por el Grupo para la Difusión del Índice h (DIH), que intenta dar a conocer a los científicos con mayor índice h de entre los que trabajan en España. Según sus autores, este índice aumenta con la calidad de la investigación que se publica y, por tanto, permite establecer rankings de los mejores investigadores. La información la elaboran de una base de datos de gran prestigio (ISI Web of Knowledge).

Pues bien, en el ámbito de la ingeniería civil, los investigadores con mayor índice h en España, a fecha de hoy, son los siguientes (se limita el número de investigadores a aquellos que tengan un valor mínimo de h que sea la mitad del que encabeza la lista):

 

¿Es el índice h la mejor forma de medir a un investigador?

Índice h a partir de un gráfico de citas decrecientes para artículos estimados. Wikipedia

En algunos artículos anteriores he comentado las dificultades que se tienen para medir de una forma objetiva, por ejemplo, a las universidades. Resulta una tarea muy compleja, pues la calidad de una institución de este tipo es poliédrica, depende de muchos indicadores y resulta difícil ponderar y comparar resultados para establecer listas ordenadas que reflejen la calidad final.

Lo mismo ocurre con la valoración que se tendría que dar a los profesores universitarios, pues éstos conjugan labores docentes, investigadoras, de gestión y de transferencia tecnológica. El problema es que estas mediciones presentan consecuencias importantes. Por ejemplo, un estudiante puede disponer de una beca para determinada institución en función de su posición en el ranking correspondiente a su área de conocimiento. Del mismo modo, un profesor universitario puede promocionar en su carrera profesional dependiendo de la forma en que se mida su curriculum. Y como siempre, estas medidas pueden ser cuantitativas, pero también cualitativas. Y ahí está el principal problema.

En este artículo me voy a centrar en la medición de la calidad de los investigadores científicos. Esta tarea ya se presupone que va a ser difícil y depende, como no puede ser de otra forma, del área de conocimiento y perfil de cada uno de los investigadores. Voy a centrarme en el índice h propuesto por Jorge Hirsch, de la Universidad de California.  Se trata de medir la calidad de los trabajos realizados por los científicos, en función de la cantidad de citas que han recibido sus artículos científicos. Un científico o investigador tiene índice h si ha publicado h trabajos con al menos h citas cada uno.

Este índice, muy extendido a nivel internacional, presenta debilidades o inconvenientes, sobre todo cuando se trata de evaluar a los investigadores jóvenes. Una forma de paliar este problema es el uso del índice m, también propuesto por Hirsch, que es la relación h/n, donde n es el número de años transcurridos desde la fecha de la primera publicación hasta el momento actual. Sin embargo, no sirve para medir lo mismo que el índice h.

Otras críticas del índice es que éste depende del área de conocimiento. Esto sería fácilmente subsanable si se realizan comparaciones entre científicos del mismo área de conocimiento. De esta forma, el índice h se valora de forma relativa y no absoluta. Para aquellos de vosotros que queráis una discusión a fondo sobre las ventajas e inconvenientes de este indicador, os recomiendo la página https://indice-h.webcindario.com/, realizada por el Grupo DIH (Grupo para la Difusión del Índice h) en base a la versión ISI Web of Knowledge) que la FECYT ofrece gratuitamente a las universidades españolas. Es evidente que el índice h depende de la base de datos utilizada, por tanto un ranking solo tiene sentido si se usa la misma base de datos para todos los investigadores. En los trabajos realizados por el Grupo DIH, el protocolo “Web of Science Core Collection” (“Colección principal de Web of Science“) y la base de datos “Science Citation Index Expanded (SCI-EXPANDED) –1900-present”. En las áreas de COMPUTER SCIENCE, PSICOLOGY, PSYCHIATRY y BEHAVIORAL SCIENCES, se usa, además, “Social Sciences Citation Index (SSCI)”.

Para poner un ejemplo de cómo se pueden ver los listados de científicos de un área determinada, voy a utilizar la relativa a CIVIL ENGINEERING, que es a la que pertenezco por mis líneas de investigación. En la imagen de abajo se puede ver el listado correspondiente a los investigadores residentes en España de este área de conocimiento. En dicha lista solo aparecen los investigadores con un índice h igual o superior a 19. En este caso, aparecen 13 investigadores, cuyo índice h medio es de 25. En cambio, en otra área como es CONSTRUCTION & BUILDING TECHNOLOGY, el indicador h medio es de 30. De esta forma, se puede calcular un índice relativo Fh, como cociente entre el índice h de este campo respecto a la media de esta lista. De esta forma, se pueden comparar investigadores de distintas áreas de conocimiento (por ejemplo, un investigador con h=21 en CIVIL ENGINEERING, está mejor posicionado de forma relativa en su Fh que otro con h=25 en CONSTRUCTION & BUILDING TECHNOLOGY). Os recomiendo que visitéis la página del Grupo DIH para que veáis todo el estudio y los detalles.

Como siempre, nunca este tipo de indicadores gustan a todos, especialmente a aquellos cuyo perfil no se adapta a lo que se está midiendo. Por ejemplo, un profesor universitario no puede medirse exclusivamente con este índice. Pero igual sí que se pueden establecer criterios de calidad para seleccionar, en ambientes muy competitivos de proyectos de investigación, qué tipo de puntuación se puede dar a la calidad científica de un equipo. Os dejo, por tanto, con la reflexión.

“Whether you like it or not, … the h-index is here to stay”. However, … “it is always a problem to reduce research work to one number. We should be careful using it and should be aware of its limitations.” (Michael Schreiber, citado por Phillip Ball, Nature 448, 16, 2007)

 

 

 

Ser profesionales, no sólo técnicos

La filósofa Adela Cortina, investida ‘honoris causa’ por la Universitat Politècnica de València, diciembre de 2016

Me gustaría dedicar mi último post de 2016 a la profesora Adela Cortina, flamante doctora honoris causa por la Universitat Politècnica de València. Su visión sobre la ética, la ciencia y la tecnología nos permite encuadrar nuestro quehacer diario dentro un ámbito de conocimiento global que supera viejas barreras. A continuación os dejo una breve recensión de un capítulo de su libro “Para qué sirve realmente la ética” en lo tocante a la profesión y la técnica.  Un libro imprescindible para entender lo qué es la ética.

Educar con calidad supone formar ciudadanos justos, personas que sepan compartir valores morales propios de una sociedad pluralista y democrática, esos mínimos de justicia que permiten construir una buena sociedad. Supone formar buenos profesionales, pues no es lo mismo un buen técnico que un buen profesional. Transformar la vida pública no sólo es cosa de políticos, sino también desde la sociedad civil, siendo un lugar privilegiado el mundo de las profesiones. Quien ingresa en una profesión se compromete a proporcionar un bien a la sociedad, tiene que prepararse para ello adquiriendo las competencias adecuadas, y a la vez ingresa en una comunidad de profesionales que comparten la misma meta. Los profesionales se hacen responsables de los medios y de las consecuencias de sus acciones con vistas a alcanzar los fines mejores. Quien ingresa en una profesión no puede proponerse una meta cualquiera, sino que le viene dada y es la que comparte con el resto de colegas. Los motivos por los que se accede a la profesión se convierten en razones cuando concuerdan con las metas de la profesión, que les da auténtico sentido y legitimidad social. Se deben formar profesionales, no puros técnicos, recordado sus fines legítimos y qué hábitos hay que desarrollar para alcanzarlos. Parece que hay dos modelos educativos contrapuestos, promover la excelencia y no generar excluidos. Una tercera vía es la de la universalización de la excelencia, entendiendo por excelente la virtud de la persona que es fecunda para la sociedad a la que pertenece. El éxito consiste en competir con uno mismo, lo cual requiere esfuerzo, pues no se construye una sociedad justa con ciudadanos mediocres.

A continuación también os dejo un vídeo donde la propia filósofa explica con sus palabras qué es la ética. Espero que os guste.

Escritura de artículos científicos

En un artículo anterior tuvimos la oportunidad de introducir algunos conceptos básicos sobre lo que es y cómo se estructura un artículo científico. En esta entrada, os dejo un par de Polimedias realizados por la profesora María Milagros del Saz Rubio, de la Universitat Politècnica de València sobre la escritura de artículos académicos en inglés. Creo que son muy interesantes y espero que os gusten.

El primero trata de dar una introducción a las características básicas de la escritura académica.

El segundo se centra en la estructura de los artículos científicos.

¿Qué es un artículo científico?

¿Alguna vez os habéis preguntado cómo se almacena el conocimiento científico hoy en día? Pues sí, se trata de los ARTÍCULOS CIENTÍFICOS. No siempre se ha hecho así, baste recordar las grandes bibliotecas como la de Alejandría, los manuscritos copiados una y otra vez por escribas y monjes, las cartas entre científicos, etc. Sin embargo, son las revistas  y los artículos científicos los que hoy en día se consideran como custodios del acervo científico actual.

Pero, ¿qué es un artículo científico? Se trata de un informe escrito que comunica, por primera vez, los resultados de una investigación. No es nada fácil escribir un artículo de este tipo, puesto que requiere de una rigurosidad, claridad, precisión y concisión muy elevadas. Además, antes de publicarse un artículo científico en una revista de alto impacto científico, este artículo se ve sometido a una rigurosa revisión por otros especialistas en el tema tratado (revisión por pares). Se podría decir que una investigación termina realmente cuando el público especializado tiene acceso a un artículo publicado en una revista científica.

¿Cómo podemos leer o escribir un artículo científico? ¿Por qué es importante escribirlo? ¿Qué estructura tiene?

Para poder contestar brevemente alguna de estas preguntas, vamos a difundir un par de videos explicativos sobre el tema, a sabiendas que nos quedaremos cortos y que en internet existen múltiples enlaces de gran calidad que nos pueden ayudar. También resulta de gran utilidad leer con detenimiento las instrucciones que las propias revistas exigen a sus autores para garantizar un mínimo de calidad en el estilo. No olvidemos que una buena investigación puede quedarse sin publicar si no somos capaces de transmitir bien lo que queremos decir.

 Os paso una plantilla para detectar los errores más frecuentes en los que podemos caer al redactar un artículo científico:

TÍTULO

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Sintaxis equívoca
Uso de términos ambiguos o vagos
Uso de jerga o jerigonza
Uso de abreviaturas y siglas
Falta de brevedad
Título telegráfico o inespecífico
Exceso de preposiciones y artículos
Uso de subtítulos innecesarios
Uso de palabras repetitivas o vacías
Otro tipo de errores detectados

AUTORES

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Nombre incompleto, con iniciales que llevan a la confusión
Incluye grados académicos o posiciones jerárquicas en la burocracia institucional
No incluye la institución donde se llevó a cabo la investigación
No figura la dirección postal exacta de cada institución
Cuando hay varios autores, no figura el autor responsable de la correspondencia con la revista
Otros errores

RESUMEN

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
No existe el resumen
No se puede entender el resumen por sí mismo, sin el contenido del resto del artículo
No incluye los objetivos
No incluye los materiales y métodos
No se incluyen los resultados más relevantes
Incluye información irrelevante
Incluye conclusiones no mencionadas en el texto
Carece de precisión o concisión
No está ordenado adecuadamente
Otros errores

 

PALABRAS CLAVE

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Selección de palabras que no son “clave”
Excesivo número de palabras (más de 10)
Escaso número de palabras (menos de 3)
Términos inespecíficos o ambiguos
Uso de abreviaturas
Uso de preposiciones
Otros errores

INTRODUCCIÓN

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Inexactitud en la identificación del problema general
Imprecisión en la definición del problema de investigación
Ausencia de un marco de referencia conceptual
Ausencia o insuficiencia de respaldo bibliográfico
Objetivos demasiados generales, vagos o ambiguos
Supuestos básicos no explícitos
Variables no identificadas
Exclusión de las definiciones de términos principales
Hipótesis mal formuladas
Limitaciones del estudio no explícitas
Falta de enlace con el resto del artículo, explicando su estructura
Otros errores

MATERIALES Y MÉTODOS (este apartado va a depender del tipo de artículo)

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Metodología inapropiada para el objetivo de la investigación
Metodología en desacuerdo con el nivel actual de conocimientos sobre el problema
Imprecisión en la descripción del método de muestreo
Imprecisión en la descripción de los materiales, aparatos, etc.
Imprecisión en la descripción de la metodología
Supuestos básicos de la investigación no explícitos
Falta de orden lógico
Imposibilidad de repetibilidad de la investigación
Otros errores

 

RESULTADOS

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Incluir información no pertinente a los objetivos del estudio
Confundir hechos con opiniones
Presentación de los hallazgos sin secuencia lógica
Falta de tratamiento estadístico, o bien es inapropiado o no se entiende
Información insuficiente para justificar las conclusiones
Medios de presentación (tablas, gráficos, etc.) inadecuados o poco claros para justificar las conclusiones
Los cuadros y gráficos carecen de legibilidad y de comprensibilidad
Los cuadros y gráficos repiten información ya expuesta en el texto
Los cuadros y gráficos se utilizan de forma indiscriminada, inadecuada e innecesaria
Los gráficos incluyen muchas series estadísticas juntas o con muchas categorías, lo que dificulta el dibujo e interpretación
Los gráficos se presentan incompletos. Falta de información sobre título, número, escalas, fuente y simbología
Los gráficos son inadecuados, complejos y de difícil interpretación
Exceso de cuadros, material gráfico
Otros errores

 

DISCUSIÓN

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Repetir los resultados
No confrontar los resultados
Reformular los puntos ya tratados
Polemizar de forma trivial
Hacer comparaciones teóricas sin fundamento
Hacer conjeturas sin identificarlas como tales y sin relacionarlas estrecha y lógicamente con la información empírica o teórica disponible
Otros errores

 

CONCLUSIONES

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
No hay conclusiones
Las conclusiones no se justifican por cuanto no se apoyan en los resultados
Las conclusiones no concuerdan con las preguntas de investigación formuladas en la introducción
Otros errores

 

AGRADECIMIENTOS

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Falta de concisión en la exposición del agradecimiento
Otros errores

 

REFERENCIAS

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
No se presentan referencias
Las referencias son exiguas
Las referencias son muy numerosas
Las referencias son obsoletas y muestran la desactualización del autor
Las referencias no están citadas en el texto o se citan equivocadamente
Las referencias se seleccionan sin cuidado y no son pertinentes
Los documentos que respaldan las referencias no son accesibles al lector
Las referencias citadas están incompletas
Se incluyen referencias no aceptables para la comunidad científica (reuniones no publicadas, documentos inéditos, comunicaciones personales, tesis no accesibles…)
Otros errores

 

APÉNDICES

TIPO DE ERROR SI/NO ANOTAR LA EVIDENCIA
Hacer caso omiso del apéndice e incluir información complementaria – no esencial- en el cuerpo del artículo
Información desordenada
Otros errores

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.