Un algoritmo es un conjunto de reglas o instrucciones bien definidas para resolver un problema. En general, se trata de encontrar el método más “eficiente”, no siendo baladí el modo de medir dicha eficiencia. Para resolver esta circunstancia, en la década de los 70 numerosos científicos se interesaron por la complejidad computacional de los problemas y de los algoritmos. En muchos casos, se asimila el rendimiento algorítmico a la medición del tiempo medio de ejecución de un procedimiento al completar su ejecución sobre un conjunto de datos. Además, es posible relacionar el esfuerzo de cálculo con la dimensión del problema a resolver.
Un algoritmo tiene complejidad polinómica si requiere tiempo O(nk), donde n es la dimensión de entrada y k es una constante independiente de n. Si la función que denota la complejidad no está acotada por un polinomio, el algoritmo presenta una complejidad en tiempo exponencial.
Un problema de decisión es aquel que puede resolverse mediante una afirmación o una negación. Llamemos P a la clase de problemas de decisión que pueden ser resueltos en tiempo de cálculo que crece de forma polinomial ante incrementos lineales del número de elementos que intervienen, y NP aquellos solubles en un tiempo polinomial indeterminado, es decir, que se pueden resolver en tiempo polinomial con una máquina Turing no determinística (ordenador). Un ordenador no determinístico puede considerarse un autómata capaz de ejecutar un número ilimitado (pero finito) de ejecuciones en paralelo. Solo los problemas en P son resolubles eficientemente mediante algoritmos, no conociéndose un procedimiento polinomial de resolución para los NP, siendo obvio que P pertenezca NP. Si lo contrario también ocurriera, P pertenecería a NP, querría decir que para la mayoría de los problemas de interés existen algoritmos eficientes que los resolvieran. Sin embargo, no se conoce la forma de demostrar que la igualdad P=NP sea cierta, ni tampoco que haya problemas en NP que no estén en P, es decir, la existencia de algún problema en NP que no se pueda resolver en tiempo polinómico (ver Díaz et al., 1996).
Se dice que un problema X es NP-completo (NPC) si cualquier problema en NP puede transformarse en X en tiempo polinomial. En este sentido, los NPC son una clase de problemas en NP muy difíciles. Si un solo problema en NPC se resolviera en tiempo polinomial, entonces todos los problemas NP también lo harían, lo cual no está demostrado a fecha de hoy. Sin embargo, no es necesario demostrar que un problema pertenece a NP para ofrecer evidencias de que es imposible resolverlo eficientemente. Sea Y un problema de decisión que no se conoce si es NP. Si un problema en NP-completo puede transformarse en Y, entonces Y no puede resolverse en tiempo polinomial (salvo que se demuestre que P=NP). Este problema Y sería como mínimo tan difícil como los NPC, llamándose NP-hard (NPH). Es decir, pueden existir problemas NPH que no sean NPC. A efectos prácticos, únicamente nos interesa confirmar la NP-dificultad de un problema.
En la vida real existen numerosos problemas prácticos para los cuales se desconocen algoritmos eficientes (Yepes, 2002), pero cuya dificultad intrínseca no ha conseguido demostrar nadie. Es posible que existan realmente algoritmos eficientes, aunque también puede ocurrir que estos problemas sean intrínsecamente difíciles; no obstante, se carece de las técnicas necesarias para demostrarlo. La importancia práctica de estos problemas ha asegurado que cada uno de ellos, por separado, haya sido objeto de esfuerzos sostenidos para hallar un método de solución eficiente. Por este motivo, se cree que no existen tales algoritmos. Como nadie, de momento, ha encontrado algoritmos eficientes para los problemas NP-completos, cuando se demuestra que un problema pertenece a esta clase, muchos investigadores tienden a pensar que no merece la pena buscarlos. Lamentablemente, muchos de los problemas importantes que surgen en la investigación operativa son NP-completos. En Garey y Johnson (1979) se presenta una visión más completa de la complejidad computacional.
REFERENCIAS
DÍAZ, A.; GLOVER, F.; GHAZIRI, H.M.; GONZÁLEZ, J.L.; LAGUNA, M.; MOSCATO, P.; TSENG, F.T. (1996). Optimización Heurística y Redes Neuronales en Dirección de Operaciones e Ingeniería. Paraninfo, Madrid. 235 pp.
GAREY, M.R.; JOHNSON, D.S. (1979). Computers and Intractability – A Guide to the Theory of NP-Completeness. W. H. Freeman and Company.
YEPES, V. (2002). Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW. Tesis Doctoral. Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos. Universitat Politècnica de València. 352 pp. ISBN: 0-493-91360-2. (pdf)
¿Cómo se puede organizar una playa? A veces, este espacio, de gran interés turístico y fuente de riqueza para nuestro país, se organiza mal o ni siquiera se organiza. Para establecer criterios mínimos, deberíamos conocer un poco más cómo se comporta el usuario en estos espacios y comprender que no todas las playas son iguales (las mediterráneas se comportan de una forma y las atlánticas, de otra, por ejemplo). Si observamos detenidamente la fotografía aérea que hemos colocado a la izquierda, veremos que los usuarios se colocan de forma determinada. Vamos, pues, a divulgar en una serie de posts algunos aspectos básicos para hacer de este espacio lúdico un entorno cómodo y bien ordenado. Como siempre, advertimos que lo que vamos a contar se relaciona con playas antropizadas de uso turístico. Las playas naturales o ubicadas en espacios protegidos reciben un tratamiento diametralmente distinto.
Si bien existían antecedentes similares en una vieja Orden Ministerial de 12 de noviembre de 1958 (ver Vera, 1980), la aplicación de la técnica del plan a las playas y a la zona marítimo-terrestre fue una relativa novedad en la Ley de Costas de 1969, donde, en su artículo 19.1 y concordantes del Reglamento para su ejecución de 1980, estaba previsto el Plan de Ordenación General de la Playa (PGOP) (ver Menéndez, 1982). La Ley trajo consigo la publicación de una “Guía para la Redacción de Planes de Ordenación General de las Playas” (MOP, 1970) —en adelante, GRPP-70—, que desarrollaba algunos aspectos del texto legal. Sin embargo, se ha hecho un uso muy limitado de este documento, a pesar de que abre grandes posibilidades en este campo tan conflictivo del dominio público.
En efecto, no es ocioso señalar las trascendentes prescripciones que desde la memoria de los planes de ordenación de playas hasta su propia ordenación repercuten en los usos o servicios y en su intensidad, en los accesos de viandantes y de tránsito rodado, inclusive alcanzando a los aparcamientos para automóviles, con su régimen de explotación; previsión de obras e instalaciones; previsiones para ocupación de la playa para embarcaciones o para el embarque y desembarque de pasajeros; distribución de zonas para uso general y común y para servicios permanentes y de temporada; redes de suministro de energía eléctrica, de abastecimiento de agua potable y de alcantarillado, entre otras.
La vigente Ley de Costas, en su artículo 114, reconoce que la ordenación territorial y del litoral, y el urbanismo, son competencias de las Comunidades Autónomas, teniendo, a su vez, reconocidas las competencias urbanísticas de los municipios en la Ley de Régimen Local (art. 25) y en la legislación del Suelo. Esta circunstancia provocó la desaparición de la figura del PGOP en el ordenamiento actual de costas. Son las Comunidades Autónomas las que han empezado a regular la redacción y la aprobación de planes de ordenación de playas y de usos de temporada. En este sentido, se puede citar el Decreto 248/1993, de 28 de septiembre, de Cataluña, o bien el Decreto 72/1994, de 26 de mayo, sobre planes de ordenación del litoral de las Islas Baleares.
Únicamente las solicitudes de autorización para los servicios de temporada, que solicitan los ayuntamientos, son los precarios instrumentos de planificación de playas empleados hoy en día de forma generalizada. Estas las otorga la Administración del Estado, debiendo ir acompañadas de una propuesta de delimitación de las zonas a ocupar con planos de las instalaciones y los servicios, cuya definición así lo requiera (RC-89). Quizá sea el momento de que el Órgano de Gestión de Playas pueda recuperar este instrumento de planeamiento y con ello acometer gran parte de sus objetivos.
La Orden de 4 de marzo de 1994 de la Conselleria de Obras Públicas y Ordenación del Territorio de las Islas Baleares (OIB-94) sobre los criterios generales de distribución de instalaciones de servicio de temporada en el litoral balear complementa los criterios definidos anteriormente por la Dirección General de Puertos y Costas (GRPP-70) para la zonificación de las playas. Siguiendo ambas normas, se podrían distinguir tres grandes zonas —activa, de reposo y de espacios libres—, y otras complementarias a las primeras:
Zonificación de una playa mediterránea (MOP, 1970)
Zona activa o de inmersión: es la franja de arena más próxima a la orilla que debe permanecer libre en casi toda su longitud para favorecer la cómoda inmersión y el tránsito de los bañistas. Se impedirá la colocación de hamacas y toldos de alquiler. Esta zona viene impuesta por la carrera de marea; sin embargo, en las playas que no son sensibles a ella, debe imponerse una anchura mínima de 10 m, medida a partir de la línea de orilla que defina el altamar viva equinoccial. No obstante ello, en las playas con una anchura superior a 40 m, se podrá ampliar el ancho de la zona activa hasta 10 m más; y en las playas menores de 20 m, se puede reducir la dimensión transversal de la zona activa hasta 6 m como mínimo, previa justificación por su menor afección al uso público. Una buena regla práctica es dejar como zona activa un tercio del ancho total de la playa, sin bajar nunca por debajo de los 6 m.
Zona de reposo o inactiva: es inmediata y paralela a la anterior, en la que se permite la colocación de sombrillas, hamacas, toldos y otros elementos portátiles que faciliten la permanencia de los usuarios. Se excluyen las superficies destinadas a zonas de paso peatonal, a espacios libres, a lanzamiento y varada, y a zonas de acceso de servicios y de limpieza de playas. La anchura óptima en playas mediterráneas sería de 25 m, variable según las características y la superficie de cada playa. En cualquier caso, nunca se superarán los 100 m, que serían el límite de desplazamiento para el baño. Este espacio es el que, debidamente acotado mediante papeleras, postes fijos u otros elementos específicos destinados a tal fin, se emplea para la ocupación temporal mediante la correspondiente autorización. En ningún caso se permite la invasión de zonas dunares. Para facilitar el tránsito peatonal, y siempre que la anchura de la playa lo permita, se dejará, en esta zona y junto a su límite posterior, una franja de paso de 4 m de ancho (10 m según GRPP-70, pero contada fuera de la zona de reposo), que podrá suprimirse si se justifica suficientemente su innecesariedad, en razón de su escasa afección al uso público, o bien porque así lo justifique la ordenación normativa o planos de distribución de las instalaciones.
Zona de espacios libres: La GRPP-70 la denomina como zona de servicios, y está constituida por el conjunto de terrenos inmediatos a la zona de reposo por el lado de tierra, y limitada por la línea de hitos de la zona marítimo-terrestre, o final de la playa. Solo por motivos justificados se autorizarán las actividades permitidas en la zona de reposo y las actividades deportivas y lúdicas, conforme a la normativa vigente.
Zona de lanzamiento y varada de embarcaciones y elementos náuticos: Se sitúan preferentemente en los extremos de la playa o en otras zonas donde su interferencia con otros usos sea mínima. La distancia mínima entre zonas de lanzamiento será de 150 m, y deberá existir un canal balizado ante ellas. Se respetará un mínimo de 6 m de distancia desde cualquier punto del recinto teórico de esta zona hasta el recinto de otras instalaciones, evitando estar frente a zonas de hamacas y sombrillas y, en su caso, estar conectadas a accesos rodados.
Zona marítima de baño: situada en el mar, con las condiciones que veremos en otros posts que iremos publicando.
Zonas de paso peatonal: tratan de asegurar la conexión peatonal entre todas las zonas definidas, sin limitaciones. Deben estar debidamente señalizados y es importante la existencia de pasos transversales de acceso a la playa (como mínimo cada 200 m según OIB-94, aunque veremos otras prescripciones que pueden prevalecer y resultar más restrictivas), excepto en aquellas áreas naturales de especial interés.
Zona de acceso a los servicios de limpieza de playa: debe situarse, a ser posible, dentro de la zona de espacios libres. Su ubicación se determinará con base en una red global de accesos, no pudiendo utilizarse para otro fin y prohibiéndose el aparcamiento de cualquier vehículo destinado a otra actividad, salvo los servicios de seguridad debidamente autorizados.
Os dejo un vídeo que he grabado, en el que explico con mayor detalle la zonificación de las playas.
REFERENCIAS
MENÉNDEZ, A. (1982). La ordenación de playas y sus problemas jurídicos. En especial, el tema de las competencias concurrentes. Revista del Derecho Urbanístico, 76:27-96.
MOP. DIRECCIÓN GENERAL DE PUERTOS Y SEÑALES MARÍTIMAS (1970). Guía para la redacción de avances de planes de ordenación general de playas. 21 pp.
VERA, A. (1980). La ordenación de playas y otros espacios costeros.REDA, 27, pgs. 577 y ss.
YEPES, V. (2002). Ordenación y gestión del territorio turístico. Las playas, en Blanquer, D. (dir.): Ordenación y gestión del territorio turístico. Ed. Tirant lo Blanch. Valencia, pp. 549-579.
En este artículo tratamos aspectos relacionados con la precisión y la exactitud que deben tener las magnitudes que manejamos los ingenieros. A veces se confunden estos conceptos y, en otras, no tenemos claro qué es un error. Vamos, pues, a dar unas breves definiciones y enlaces que permitan divulgar estas ideas.
Se puede definir la Metrología como la ciencia de la medida. Esta ciencia comprende la totalidad de los métodos sistemáticos que utilizamos para cuantificar características de calidad.
Medir es comparar una cantidad con su unidad correspondiente, con el fin de determinar cuántas veces la primera contiene a la segunda.
Los procedimientos de medición de una magnitud física consisten en la caracterización del estado o la intensidad de la misma, de manera repetible y suficientemente precisa, mediante un valor que la eleve por encima de la mera percepción subjetiva.
Un aparato de medida es cualquier instrumento capaz de facilitar indicaciones dentro de su campo de medida y división de escala, cuando se aplica sobre mesurando concretos.
Pero ¿qué es el error de medición?
Cualquier medición de una magnitud difiere del valor real, lo que genera una serie de errores que pueden clasificarse según su origen. El error experimental siempre existirá y depende básicamente del procedimiento elegido y de la tecnología disponible para la medición.
El error de exactitud es la desviación entre la media de los valores observados y el valor real. Es un error sistemático que puede ser positivo o negativo, equivalente al valor que hay que corregir para calibrar el equipo, o sea, ajustarlo a su valor verdadero.
El error de precisión se calcula a partir de la realización de un número de mediciones en una misma pieza o patrón, las cuales variarán entre sí, por lo que este error es de tipo aleatorio. Esta dispersión es inherente a todos los equipos de medida, debido a las holguras de sus mecanismos, variaciones en la fuente de alimentación de un circuito eléctrico, etc. Se suele dar en función de la desviación típica, por lo que se necesita realizar un mínimo de mediciones para obtener un nivel de confianza.
La exactitud indica la proximidad de la medición al valor verdadero, mientras que la precisión se refiere a la repetibilidad o reproductibilidad de la medida.
Una vez efectuadas las correcciones de exactitud, las medidas deben presentarse con su incertidumbre, es decir, con el margen probable de error dentro del cual se estima que se encuentra el valor exacto. Según el acuerdo adoptado por EAL (European Cooperation for Accreditation of Laboratories), se ha decidido emplear un intervalo de incertidumbre de dos desviaciones típicas, que, en el caso de una distribución normal, corresponde a un nivel de confianza del 95,44%.
Los errores pueden provenir de diversas fuentes conocidas, tales como la influencia del operador, las diferencias entre operadores, las diferencias entre las piezas a medir, la variación del equipo de medición y del método seguido, e incluso la variación entre laboratorios. Las medidas observadas son el resultado de todas las variaciones.
El error total puede calcularse en función de los tipos de error que influyen en la medición. Si los errores son independientes entre sí, la varianza del error combinado será igual a la suma de las varianzas de los errores parciales. Si hay influencia entre ellos, habría que añadir sumandos teniendo en cuenta los coeficientes de correlación correspondientes.
Para entender estos conceptos y otros relacionados, como el de fiabilidad y el de validez de los datos, os dejo el siguiente vídeo de la Universidad de Murcia. Espero que os guste.
¿Alguna vez os habéis preguntado cómo se almacena el conocimiento científico hoy en día? Pues sí, se trata de los ARTÍCULOS CIENTÍFICOS. No siempre se ha hecho así; baste con recordar las grandes bibliotecas como la de Alejandría, los manuscritos copiados una y otra vez por escribas y monjes, las cartas entre científicos, etc. Sin embargo, son las revistas y los artículos científicos los que hoy en día se consideran custodios del acervo científico actual.
Pero ¿qué es un artículo científico? Se trata de un informe escrito que comunica, por primera vez, los resultados de una investigación. No es nada fácil escribir un artículo de este tipo, puesto que requiere una rigurosidad, claridad, precisión y concisión muy elevadas. Además, antes de publicarse un artículo científico en una revista de alto impacto, este se somete a una rigurosa revisión por pares de otros especialistas en el tema tratado (revisión por pares). Se podría decir que una investigación termina realmente cuando el público especializado accede a un artículo publicado en una revista científica.
¿Cómo podemos leer o escribir un artículo científico? ¿Por qué es importante escribirlo? ¿Qué estructura tiene?
Para poder contestar brevemente alguna de estas preguntas, vamos a difundir un par de videos explicativos sobre el tema, a sabiendas de que nos quedaremos cortos y de que en internet hay múltiples enlaces de gran calidad que nos pueden ayudar. También resulta de gran utilidad leer con detenimiento las instrucciones que las propias revistas exigen a sus autores para garantizar un mínimo de calidad en el estilo. No olvidemos que una buena investigación puede quedar sin publicarse si no somos capaces de transmitir con claridad lo que queremos decir.
Os paso una plantilla para detectar los errores más frecuentes en los que podemos caer al redactar un artículo científico:
TÍTULO
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
Sintaxis equívoca
Uso de términos ambiguos o vagos
Uso de jerga o jerigonza
Uso de abreviaturas y siglas
Falta de brevedad
Título telegráfico o inespecífico
Exceso de preposiciones y artículos
Uso de subtítulos innecesarios
Uso de palabras repetitivas o vacías
Otro tipo de errores detectados
AUTORES
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
Nombre incompleto, con iniciales que llevan a la confusión
Incluye grados académicos o posiciones jerárquicas en la burocracia institucional
No incluye la institución donde se llevó a cabo la investigación
No figura la dirección postal exacta de cada institución
Cuando hay varios autores, no figura el autor responsable de la correspondencia con la revista
Otros errores
RESUMEN
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
No existe el resumen
No se puede entender el resumen por sí mismo, sin el contenido del resto del artículo
No incluye los objetivos
No incluye los materiales y métodos
No se incluyen los resultados más relevantes
Incluye información irrelevante
Incluye conclusiones no mencionadas en el texto
Carece de precisión o concisión
No está ordenado adecuadamente
Otros errores
PALABRAS CLAVE
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
Selección de palabras que no son “clave”
Excesivo número de palabras (más de 10)
Escaso número de palabras (menos de 3)
Términos inespecíficos o ambiguos
Uso de abreviaturas
Uso de preposiciones
Otros errores
INTRODUCCIÓN
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
Inexactitud en la identificación del problema general
Imprecisión en la definición del problema de investigación
Ausencia de un marco de referencia conceptual
Ausencia o insuficiencia de respaldo bibliográfico
Objetivos demasiado generales, vagos o ambiguos
Supuestos básicos no explícitos
Variables no identificadas
Exclusión de las definiciones de términos principales
Hipótesis mal formuladas
Limitaciones del estudio no explícitas
Falta de enlace con el resto del artículo, explicando su estructura
Otros errores
MATERIALES Y MÉTODOS (este apartado va a depender del tipo de artículo)
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
Metodología inapropiada para el objetivo de la investigación
Metodología en desacuerdo con el nivel actual de conocimientos sobre el problema
Imprecisión en la descripción del método de muestreo
Imprecisión en la descripción de los materiales, aparatos, etc.
Imprecisión en la descripción de la metodología
Supuestos básicos de la investigación no explícitos
Falta de orden lógico
Imposibilidad de repetibilidad de la investigación
Otros errores
RESULTADOS
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
Incluir información no pertinente a los objetivos del estudio
Confundir hechos con opiniones
Presentación de los hallazgos sin secuencia lógica
Falta de tratamiento estadístico, o bien es inapropiado o no se entiende
Información insuficiente para justificar las conclusiones
Medios de presentación (tablas, gráficos, etc.) inadecuados o poco claros para justificar las conclusiones
Los cuadros y gráficos carecen de legibilidad y de comprensibilidad
Los cuadros y gráficos repiten información ya expuesta en el texto
Los cuadros y gráficos se utilizan de forma indiscriminada, inadecuada e innecesaria
Los gráficos incluyen muchas series estadísticas juntas o con muchas categorías, lo que dificulta el dibujo e interpretación
Los gráficos se presentan incompletos. Falta de información sobre título, número, escalas, fuente y simbología
Los gráficos son inadecuados, complejos y de difícil interpretación
Exceso de cuadros, material gráfico
Otros errores
DISCUSIÓN
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
Repetir los resultados
No confrontar los resultados
Reformular los puntos ya tratados
Polemizar de forma trivial
Hacer comparaciones teóricas sin fundamento
Hacer conjeturas sin identificarlas como tales y sin relacionarlas estrecha y lógicamente con la información empírica o teórica disponible
Otros errores
CONCLUSIONES
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
No hay conclusiones
Las conclusiones no se justifican por cuanto no se apoyan en los resultados
Las conclusiones no concuerdan con las preguntas de investigación formuladas en la introducción
Otros errores
AGRADECIMIENTOS
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
Falta de concisión en la exposición del agradecimiento
Otros errores
REFERENCIAS
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
No se presentan referencias
Las referencias son exiguas
Las referencias son muy numerosas
Las referencias son obsoletas y muestran la desactualización del autor
Las referencias no están citadas en el texto o se citan equivocadamente
Las referencias se seleccionan sin cuidado y no son pertinentes
Los documentos que respaldan las referencias no son accesibles al lector
Las referencias citadas están incompletas
Se incluyen referencias no aceptables para la comunidad científica (reuniones no publicadas, documentos inéditos, comunicaciones personales, tesis no accesibles…)
Otros errores
APÉNDICES
TIPO DE ERROR
SI/NO
ANOTAR LA EVIDENCIA
Hacer caso omiso del apéndice e incluir información complementaria – no esencial— en el cuerpo del artículo
Empezamos una serie de artículos que abordarán aspectos relacionados con el transporte, la logística, la distribución de mercancías, la investigación de operaciones y, en definitiva, la toma de decisiones en las empresas. Como siempre, el objeto es divulgativo, abriendo puertas a la reflexión y no pretendiendo, ni mucho menos, abarcar todos los aspectos de un tema determinado. Empezamos, pues.
El National Council of Physical Distribution Management definió, en 1979 (ver Ballou, 1991), la gestión de la distribución física como “todas aquellas actividades encaminadas a la planificación, implementación y control de un flujo creciente de materias primas, recursos de producción y productos finales desde el punto de origen hasta el de consumo”. Entre estas tareas se encuentran el servicio al cliente, la previsión de la demanda, el control de inventarios, los servicios de reparación, el manejo de mercancías, el procesamiento de pedidos, la selección de la ubicación geográfica de las fábricas y los almacenes, las compras, el empaquetado de productos, el tratamiento de las mercancías devueltas, la recuperación y tratamiento de desperdicios, la distribución y el transporte, y el almacenamiento. Sin embargo, otros autores prefieren emplear el término logística empresarial.
La importancia de la eficacia y la eficiencia en la gestión de la distribución adquiere su verdadera magnitud cuando se consideran los costes. Kotler (1991) indica que los principales elementos de los costes de la distribución física son el transporte (37%), el control de existencias (22%), el almacenamiento (21%) y otros como la recepción de órdenes, el servicio al cliente, la distribución y la administración (20%). El mismo autor cree, al igual que otros expertos, que pueden conseguirse ahorros sustanciales en el área de la distribución física, la cual ha sido descrita como “la última frontera para obtener economías en los costes” y “el continente oscuro de la economía”. Drucker (1962) describió las actividades logísticas que se llevaban a cabo tras la fabricación como las “áreas peor realizadas y, a la vez, más prometedoras dentro del mundo industrial”.
Muchas empresas sostienen que el objetivo último de la distribución física es obtener las mercancías necesarias, llevarlas a los lugares oportunos a su debido tiempo y a un coste lo más bajo posible. Sin embargo, tal como afirma Kotler (1991), no existe ningún sistema de distribución que pueda, simultáneamente, maximizar el servicio al cliente y minimizar los costes de distribución, puesto que lo primero conlleva un elevado coste de existencias, un transporte rápido y múltiples almacenes, factores que incrementan los costes. Se trata de buscar un equilibrio que concilie los intereses contrapuestos.
La gestión de la distribución física presenta una amplia variedad de problemas de decisión que inciden en la planificación en los ámbitos estratégico, táctico y operativo. La localización de plantas y almacenes, o la reconfiguración de la red de transporte, son decisiones estratégicas, mientras que los problemas relacionados con la dimensión de la flota, o con si esta debe ser propia o alquilada, pertenecen al ámbito de las decisiones tácticas. Los problemas habituales en las operaciones son: (a) el establecimiento de rutas para vehículos que, con cierta limitación de capacidad, deben distribuir o recoger mercancías a un grupo de clientes; y (b) la programación de horarios o precedencias entre destinos para satisfacer estos recorridos.
Un estudio del National Council of Physical Distribution (ver Ballou, 1991) estima que el transporte representó el 15% del Producto Interior Bruto de Estados Unidos en 1978, lo que supuso más del 45% de los costes logísticos de las organizaciones. El sector de las empresas de servicios públicos y de transporte estadounidenses movió en 1991 aproximadamente 506 millardos de dólares, según el Informe del Presidente de 1994 (ver Fisher, 1997). King y Mast (1997) señalan que la valoración anual de los excesos de coste de los viajes en Estados Unidos asciende a 45 millardos de dólares. En el Reino Unido, Francia y Dinamarca, por ejemplo, el transporte representa cerca del 15%, 9% y 15% del gasto nacional, respectivamente (Crainic y Laporte, 1997; Larsen, 1999). En Japón, los costes logísticos suponen el 26,5% de las ventas y los de transporte, el 13,5% (Kobayashi, 1973). Estas mismas cifras son del 14,1% y 2,5% en Australia (Stephenson, 1975) y del 16% y 5,5% en el Reino Unido (Murphy, 1972). En España, según datos del Ministerio de Fomento (ver CTCICCP, 2001), la participación del sector transporte en el valor añadido bruto del año 1997 se situó en un 4,6%. En cuanto al empleo, 613.400 personas se encontraban ocupadas en el año 1999 en el sector del transporte público en nuestro país, lo que supone el 3,69% de la población activa.
Existe una gran variación en los costes logísticos entre las distintas empresas. Ballou (1991) indica que estas cifras oscilan entre menos del 4% sobre las ventas en aquellas empresas que producen y distribuyen mercancías de alto valor y más del 32% en aquellas otras que lo hacen en las de bajo valor. El mismo autor señala que los costes de transporte representan entre una tercera y dos terceras partes del total de costes logísticos. Se estima que los costes de distribución representan casi la mitad del total de costes logísticos en algunas industrias y que en las de alimentación y bebidas pueden incrementar en un 70% el coste de las mercancías (De Backer et al., 1997; Golden y Wasil, 1987). Además, la importancia de la programación de rutas se evidencia claramente en el dato aportado por Halse (1992), según el cual en 1989 el 76,5% del transporte de mercancías se realizó con vehículos.
Así, las actividades que conforman la planificación operativa de la distribución física implican un gran número de pequeñas decisiones interrelacionadas. Además, el número de planes posibles crece exponencialmente con la dimensión del problema. Incluso para flotas pequeñas y con un número moderado de peticiones de transporte, la planificación es una tarea altamente compleja. Por tanto, no es de extrañar que los responsables de estos asuntos simplifiquen al máximo los problemas y utilicen procedimientos particulares para despachar sus vehículos basándose, en multitud de ocasiones, en la experiencia de errores anteriores. Existe un amplio potencial de mejora claramente rentable para las unidades de negocio.
La planificación y la gestión de las redes de distribución exigen la disponibilidad de técnicas eficientes de optimización de rutas, puesto que no solo afectan al desarrollo de las operaciones, sino que también inciden en las decisiones tácticas y estratégicas (tamaño óptimo de la flota, estimación de costes, políticas de publicidad y rotura de servicio, etc.).
Medina y Yepes (2000) proporcionan un ejemplo práctico que muestra cómo la aplicación de técnicas de optimización condiciona críticamente el desarrollo de ciertas operaciones de distribución. Se trata de un negocio de venta de paquetes turísticos con transporte incluido; donde los precios se fijan mucho antes de que la demanda sea conocida, y donde son frecuentes las cancelaciones de última hora así como la llegada de nuevos clientes. Si el número de pasajeros es pequeño, en comparación con la máxima capacidad de carga del vehículo, los beneficios o las pérdidas generadas por el transporte dependen fuertemente de la eficiencia del sistema de optimización de rutas. La siguiente figura muestra la influencia de la optimización de operaciones en la planificación y la gestión de las redes de distribución de baja demanda.
Planificación y gestión de redes de distribución. Fuente: Medina y Yepes (2000).
En apretada síntesis, la planificación y la gestión de las redes de distribución generan una gran variedad de problemas de decisión, cuyo éxito depende críticamente de la optimización de las operaciones, en las que el espectro de soluciones posibles es enorme y, además, crece exponencialmente con el número de destinos y el tamaño de la flota. Esta explosión combinatoria de soluciones y la complejidad de las variables impiden que la optimización sea, en muchas situaciones reales, abordable mediante técnicas de resolución exactas. Afortunadamente, existen procedimientos alternativos que, si bien no garantizan la solución óptima, sí ofrecen respuestas de calidad para los problemas cotidianos.
De esta forma, la resolución de los problemas de distribución se convierte en una de las áreas destacadas de la investigación operativa. Incluso el recorte de una pequeña fracción de los costes puede generar enormes ahorros económicos y reducir los impactos medioambientales ocasionados por la polución y el ruido, además de incrementar significativamente la satisfacción de los requerimientos de los clientes.
Referencias
BACKER DE, B.; FURNON, V.; PROSSER, P.; KILBY, P.; SHAW, P.(1997). Local Search in Constraint Programming: Application to the Vehicle Routing Problem. Presented at the CP-97 Workshop on Industrial Constraint-based Scheduling, Schloss Hagenberg, Austria.
BALLOU, R.H. (1991). Logística empresarial. Control y planificación. Ed. Díaz de Santos, Madrid. 655 pp.
COMISIÓN DE TRANSPORTES DEL COLEGIO DE INGENIEROS DE CAMINOS, CANALES Y PUERTOS (2001). Libro Verde del Transporte en España. Disponible en internet. 111 pp.
CRAINIC, T.G.; LAPORTE, G. (1997). Planning Models for Freight Transportation. European Journal of Operational Research, 97: 409-438.
DRUCKER, P. (1962). The Economy’s Dark Continent. Fortune, April: 265-270.
GOLDEN, B.L.; WASIL, E.A. (1987). Computerized Vehicle Routing in the Soft Drink Industry. Operations Research, 35: 6-17.
HALSE, K. (1992). Modeling and Solving complex Vehicle Routing Problems. PhD thesis, Department for Mathematical Modelling, Technical University of Denmark, Lyngby, Denmark.
KING, G.F.; MAST, C.F. (1997). Excess Travel: Causes, Extent and Consequences. Transportation Research Record, 1111: 126-134.
KOBAYASHI, I. (1973). Management of Physical Distribution Cost. Proceedings of International Distribution Conference, Tokyo.
KOTLER, P. (1991). Marketing Management. Analysis, Planning, Implementation, and Control. Prentice Hall International. United Kingdom.
FISHER, M.L. (1997). Vehicle routing. In BALL, M.O.; MAGNANTI, T.L.; MONMA, C.L.; NEMHAUSER, G.L. (Eds.), Network Routing, volume 8 of Handbooks in Operations Research and Management Science, chapter 1, 1-79. North-Holland.
MEDINA, J.R.; YEPES, V. (2000). Optimización de redes de distribución con algoritmos genéticos, en Colomer, J.V. y García, A. (Eds.): Calidad e innovación en los transportes. Actas del IV Congreso de Ingeniería del Transporte. Vol. 1, pp. 205-213. Valencia.
MURPHY, G.J. (1972). Transport and Distribution. Business Books. London.
STEPHENSON, A.R. (1975). Productivity Promotion Council of Australia: 7-10.
YEPES, V. (2002). Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW. Tesis Doctoral. Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos. Universidad Politécnica de Valencia. 352 pp.
Aunque este blog está fuertemente orientado a la ingeniería, de vez en cuando vamos a reflexionar sobre aspectos que considero de interés. En este caso, vamos a los cimientos de la propia ciencia, donde, a su vez, se apoya una gran parte de la ingeniería actual. Veamos, pues, el pensamiento crítico de Kant frente al empirismo de Hume y las razones por las que sostiene que la metafísica no es posible como ciencia.
El pensamiento de Kant es fruto de la fuerte transformación histórica que se inicia con el Renacimiento y termina con la Ilustración. El antiguo orden social, político, religioso o científico se desvanece ante los nuevos conocimientos geográficos, los avances tecnológicos y la revolución científica. De esta forma, la filosofía aristotélica, focalizada en la naturaleza de las cosas, la ontología, da un giro hacia la preocupación por el conocimiento, la epistemología. Si tuviésemos que identificar un momento de modernidad en la ingeniería civil, tendríamos que bucear en la Ilustración como punto de inflexión. Es el momento del hombre y de su conciencia como fundamento último de la verdad, es decir, del conocimiento. Esta modernidad filosófica se nutrió del racionalismo y el empirismo y desembocó en la Ilustración, como proyecto de transformación y mejora de la humanidad mediante el desarrollo de su propia naturaleza racional.
Kant comparte con Hume la crítica al dogmatismo racionalista que pretendía alcanzar un conocimiento más allá de toda experiencia, pues prescindir de la experiencia puede confundir el conocimiento con la imaginación. Sin embargo, va más allá del empirismo de Hume que reduce el conocimiento al límite de la experiencia. De hecho, Kant postula la evidencia de que estamos en posesión de conocimientos universales y necesarios en las ciencias matemáticas y las ciencias naturales. Si estos conocimientos no vienen de la experiencia, ni tampoco son innatos, como indican los racionalistas, entonces es la propia razón la que los construye por sí misma basándose en la experiencia. Ello permite a Kant distinguir el conocimiento sensible, o “a posteriori”, del conocimiento “a priori”, producido por nuestra propia razón. El término “a priori” no debe entenderse como previo a la experiencia, sino como independiente de ella. Dicho con otras palabras, todo conocimiento comienza con la experiencia, pero no todo proviene de ella. Como ejemplos, podríamos hablar del espacio o del tiempo, así como del concepto de causa-efecto. Un niño no nace con la idea de causalidad, como afirmarían los racionalistas, sino que la experiencia hace que la razón formule dicho concepto por sí misma. De este modo, si para Hume el concepto de causalidad no es conocimiento, sino costumbre o hábito, para Kant será conocimiento “a priori”, puesto que es universal y necesario. Así, la universalidad y la necesidad son la estructura natural de nuestro propio entendimiento.
Así pues, Kant establece la existencia de un conocimiento universal y necesario, pues este es el que se comprueba en las ciencias matemáticas y físicas. Si la ciencia es un conjunto de proposiciones o juicios, ¿cuáles de ellos son los que sustentan la ciencia? Para ello, Kant establece la diferencia entre los juicios analíticos y los sintéticos. Los primeros, aunque son juicios “a priori” típicos de la lógica, no amplían el conocimiento, pues las conclusiones derivan necesariamente de los supuestos. Los juicios sintéticos sí dan información, amplían el conocimiento, pues la conclusión no se deriva necesariamente de los supuestos. Hume estaría totalmente de acuerdo con Kant en esta división, puesto que los juicios analíticos serían relaciones entre ideas y los juicios sintéticos serían juicios sobre los hechos. La gran originalidad de Kant radica en distinguir los juicios sintéticos “a posteriori”, provenientes de la experiencia, de los juicios sintéticos “a priori”, provenientes de la razón. Este tipo de juicios amplía el conocimiento de la realidad, puesto que son universales y necesarios, pero no proceden de la experiencia, sino de la razón. Los ejemplos de este tipo de juicios los podemos ver en las matemáticas o en la física. Estos juicios sintéticos a priori, pese a no provenir de la experiencia, siempre pueden contrastarse empíricamente.
Todo lo anteriormente expuesto nos lleva al problema epistemológico clave para Kant, que será averiguar hasta qué punto es posible que la metafísica pueda ser ciencia, es decir, pueda disponer de un conjunto de juicios o proposiciones que la sustenten. Para ello, serían necesarios juicios sintéticos a priori que pudieran adecuarse a las condiciones formales de la experiencia. Si no pueden contrastarse, se tendrían juicios vacíos, sin un objeto posible. En este caso, Kant afirma que se habría construido un juicio que superaría nuestra facultad de conocimiento y, por tanto, sería ilegítimo. Eso es lo que ocurre, por ejemplo, con los juicios sobre Dios. Todo ello conduce a Kant a plantear que la metafísica no es posible como ciencia.
Me gustaría compartir con vosotros una herramienta de gran interés para la docencia en red. Se trata de “pequeñas píldoras” de conocimiento que, en la Universidad Politécnica de Valencia, llamamos “objetos de aprendizaje”. Nuestros alumnos, o bien cualquier persona en cualquier parte del mundo, pueden acceder a explicaciones sobre conceptos muy concretos. Os paso como ejemplo un Polimedia sobre el método PERT.
Puente atirantado “Fernando Reig” en Alcoy (Alicante)
Un blog siempre es un reto. Vamos a empezar, por tanto, este nuevo reto con optimismo, esperando que sea útil. Al menos, con ese ánimo lo empiezo.
¿Qué vamos a contar en estas páginas? Pues prácticamente cualquier cosa relacionada con la ingeniería civil, la universidad, la investigación, la docencia, noticias curiosas, publicaciones científicas interesantes, etc. También me gustaría que fuese un pequeño diario en el que se vayan registrando aquellos acontecimientos, muchos de ellos pequeños o curiosos, que a veces pasan desapercibidos y quedan en el olvido.
De momento, os dejo una imagen de un puente atirantado en Alcoy (Alicante). Se llama “Fernando Reig” en honor a un ingeniero alcoyano. Os adjunto un vídeo explicativo, aunque ya tiene algunos años. La elección de esta obra obedece simplemente a que Alcoy es mi ciudad natal, “la ciudad de los puentes”.
Por tanto, empezamos ahora mismo este pequeño experimento de periodismo personal. Espero que os guste.