Nueva ROM 2.0-11: Recomendaciones para el Proyecto y Ejecución en Obras de Atraque y Amarre

El pasado 17 de enero de 2013 la Ministra de Fomento presentó en el Colegio de Ingenieros de Caminos, Canales y Puertos el nuevo documento «ROM 2.0-11: Recomendaciones para el proyecto y ejecución en obras de atraque y amarre».

De paso, Ana Pastor aprovechó también para anunciar un convenio para “el desarrollo profesional en el exterior de los ingenieros de caminos”, cosa que suena muy bien pero que nadie sabe todavía en qué va a consistir, exactamente (y me apostaría algo a que nunca volveremos a saber del tema, que estas cosas quedan muy bien en prensa pero luego…).

ROM_2.0-11_Recomendaciones_Proyecto_y_Ejecucion_Obras_de_Atraque_y_Amarre

“El objetivo fundamental de una obra de atraque y amarre es proporcionar a los buques unas condiciones adecuadas y seguras para su permanencia en puerto y/o para que puedan desarrollarse las operaciones portuarias necesarias para las actividades de carga, estiba, desestiba, descarga y transbordo así como embarque y desembarque de pasajeros, vehículos y mercancías que permitan su transferencia entre buques o entre éstos y tierra u otros medios de transporte.”

Esta nueva edición anula las anteriores ROM 0.2-90 y 2.0-08 y se presenta en dos tomos. El Tomo I (148 páginas) engloba los capítulos más generales (tipos de obras de atraque y amarre, y dimensionamiento en planta y alzado) mientras que el voluminoso Tomo II (468 páginas) se dedica íntegramente a los “Estados y situaciones de proyecto”, manteniendo esa perspectiva probabilista tan peculiar de las recomendaciones que pronto deberíamos adoptar con los Eurocódigos.

Las Recomendaciones tienen un precio de 60 € (15 € + 45 €) pero Puertos del Estado permite su libre descarga desde la página web, lo cual es de agradecer.

Como ya pasó con las «Recomendaciones Geotécnicas para Obras Marítimas y Portuarias (ROM 0.5-05)» o la «Guía de Buenas Prácticas para la Ejecución de Obras Marítimas», los dos tomos del documento se distribuyen en varias partes (en 10 archivos pdf, concretamente). Como en anteriores ocasiones he preferido “agruparlo” en un único fichero, más “pesado” de manejar pero también más cómodo a la hora de buscar algo específico, en mi opinión (un simple CTRL+F y lo tienes todo localizado).

Dejo aquí el enlace al documento en un único fichero por si alguien lo quiere descargar, si prefieres la versión “en fascículos” puedes descargar los ficheros desde la página de Puertos del Estado.

Nueva ROM 2.0-11: Recomendaciones para el proyecto y ejecución en obras de atraque y amarre ROM 2.0-11: Recomendaciones para el Proyecto y Ejecución en Obras de Atraque y Amarre (pdf – 12,8 MB) 


¿Estado del Anejo Nacional del Eurocódigo EC-7? Entre tártaros y bárbaros

Seamos francos, la percepción española de los Eurocódigos nunca ha terminado de estar muy definida. Recurriendo al símil literario, los Eurocódigos serían al mismo tiempo los tártaros de Buzatti, esos que no terminan de llegar pero amenazan (“ya verás tú cuando lleguen los Eurocódigos”); y los bárbaros de Kavafis, tan a punto de llegar que no vale la pena hacer nada (“¿para qué actualizar las normativas?, si cualquier día llegan los Eurocódigos”).

Y así, entre tártaros y bárbaros, el Anejo Nacional del Eurocódigo EC-7 sigue sin definirse.

Os explico el asunto. Se supone que los Eurocódigos son comunes para toda la Unión Europea, como su nombre indica, pero lo cierto es que se permite cierto “carácter local” para cada país, el llamado “Anejo Nacional”, encargado de fijar el enfoque de proyecto y los coeficientes parciales de seguridad.

Pues bien, según informa la Sociedad Española de Mecánica del Suelo e Ingeniería Geotécnica (SEMSIG), el Anejo Nacional del Eurocódigo EC-7 está casi finalizado (a falta de un nuevo capítulo de anclajes), y se presentará el próximo mes de enero de 2013 en el CEDEX.

Para que nos vayamos preparando, el CEDEX ha distribuido un artículo sobre las novedades que cabe esperar del documento, presentado hace unos meses en el IX Simposio Nacional de Ingeniería Geotécnica de Sevilla (los más fieles seguidores del blog recordarán que hace unos días mencioné también este tema al anunciar unas jornadas sobre taludes, en Madrid).

Anejo Nacional Español del Eurocódigo 7

  Anejo Nacional Español del Eurocódigo 7 [pdf – 633 KB]

 

¿Hay mucha diferencia entre el Eurocódigo EC-7 y lo que hacemos ahora?

Estructuralmente, no mucha.

Geotécnicamente, si, bastante. Se pretende que los cálculos geotécnicos se hagan bajo el mismo planteamiento que el cálculo estructural, cosa que funcionará más o menos bien siempre y cuando se tenga en cuenta que el hormigón y el acero se hacen por encargo y el terreno “es el que es”.

Además de eso, se debe tener muy presente también que la idea de un Anejo Nacional nace de adecuar el Eurocódigo a la práctica local… y la práctica geotécnica local española se divide entre la Guía de Cimentaciones en Obras de Carreteras, las Recomendaciones Geotécnicas para Obras Marítimas ROM 0.5-05 y el ninguneado (pero obligatorio) Código Técnico de la Edificación, tres opciones que en algunas cosas difieren totalmente entre si (somos así de originales).

Resumiendo, que un día de estos se aprobarán los Eurocódigos, se publicarán en el BOE, serán de obligado cumplimiento, el resto de normas quedarán anuladas y nos tocará estudiar para ponernos al día… nada nuevo, ¿verdad?

Si queréis saber más del asunto o ir practicando ya con el Eurocódigo EC-7 os remito al completo y recomendable «Decoding Eurocode 7», de Bond y Harris, libro que también figura en la bibliografía del artículo.

¿Qué es el periodo de retorno y por qué se utiliza como una probabilidad?

Es un hecho probado, contrastado, demostrado y reiterado que una secuencia de datos debidamente «torturada» puede utilizarse para justificar cualquier cosa, especialmente en manos políticas. Entre las herramientas de tortura numérica más eficientes destaca la estadística, a menudo ayudada de gráficos engañosos, pero incluso dentro de la estadística existe un concepto que, sin necesidad de gráficas, resulta confuso para mucha gente, el periodo de retorno, la probabilidad que se mide en años.

Caramba, yo pensaba que la probabilidad no tenía unidades, siempre la he visto como un porcentaje.

Es que no tiene unidades. En teoría, el periodo de retorno es un «tiempo medio» asociado a una probabilidad, pero en la práctica (y en la prensa) ambos conceptos se confunden, confundiendo también al lector, ya de paso, que termina pensando que algo con un periodo de retorno de 10 años ocurre siempre cada diez años, cual exacto reloj suizo.

Ah, ¿y no es así?

Pues no, por eso he decidido escribir sobre el tema. Pretendo explicar qué es el periodo de retorno sin utilizar ni una sola fórmula, ni una sola, ¿te interesa leerlo?

Pues no es que me apasione el tema, la verdad. Te doy siete minutos, ni uno más.

Algo es algo. Vamos allá. Supongamos que nos encargan el estudio de un determinado fenómeno independiente (terremoto, precipitación, lo que sea). Lo primero y principal es buscar información fiable, así que revisamos páginas y más páginas polvorientas (o bases de datos informatizadas, en el mejor de los casos) y recopilamos un montón de ocurrencias del fenómeno a lo largo de los años.

¿Es fácil conseguir esos datos?

No, ni de coña, normalmente el mayor problema es la ausencia de datos (y no digamos ya fiables), pero como se trata de un ejemplo voy a poner las cosas fáciles y suponer que tenemos datos anuales de los últimos 1.000 años (por números que no sea), y que quedan de esta forma, más o menos.

periodo de retorno, imagen 1

Como es lógico, el fenómeno se habrá producido con mayor o menor intensidad a lo largo del tiempo, y lo normal es que nos interese saber cuándo ha superado cierto valor máximo (terremoto de magnitud x, lluvia de determinada intensidad, etc) así que nos fijaremos en los valores que superan cierta cota (para este ejemplo, he tomado los que superan la magnitud 120).

periodo de retorno, imagen 2

Evidentemente, estas ocurrencias máximas no son periódicas, la naturaleza es muy bonita y todo eso, pero lo que se dice exacta, no lo es mucho. En este ejemplo, el valor 120 se ha superado 9 veces en los últimos 1.000 años, en intervalos que oscilan entre 50 y 170 años.

¿Y ahora qué hacemos?

Estudiar muy bien los datos y tomar un valor lo más representativo posible de su comportamiento. Para este ejemplo simplificado supondremos que, de media, la superación del suceso se ha producido cada 100 años, repito, de media.

Ese tiempo medio entre sucesos independientes es lo que llamamos «periodo de retorno«, y nos permite cuantificar la probabilidad del evento, ya que si estamos suponiendo que el suceso se supera una vez cada 100 años, podemos suponer también que la probabilidad de dicha superación en un año cualquiera será de 1/100.

O sea, que la inversa del periodo de retorno resulta ser la probabilidad anual de superación del suceso. Si tiene un periodo de retorno de 100 años, su probabilidad anual media será de 1/100.

Vale, entendido, el periodo de retorno es el tiempo medio entre sucesos y está relacionado con la probabilidad de cada año, ¿y qué pasará al cabo de 100 años?

Me alegra que me hagas esa pregunta. Para estudiar cómo «se acumula» la probabilidad con el tiempo hay que tener en cuenta dos detalles:

  1. En los sucesos independientes, la probabilidad de ocurrencia conjunta es el producto de probabilidades.
  2. Como la ocurrencia sólo se producirá una vez, estudiaremos la probabilidad conjunta de los años en los que no se produce el suceso.

Eso último no lo entiendo, ¿por qué no trabajamos directamente con la probabilidad de superación, de 1/100?

Puede resultar un poco confuso, al principio, pero tiene su lógica. Queremos saber cuál es la probabilidad acumulada al cabo de 100 años… 100 años seguidos en los que no se ha superado el suceso (si lo hubiera hecho ya no serían 100 años seguidos), por tanto, a esos años les corresponde la probabilidad anual de no-superación del suceso.

Vale, ya está claro, te dejo seguir.

Muy amable, sigo entonces, que hay prisa.

Si la probabilidad de superación es del 1% (1/100), la probabilidad de no-superación será del 99% = 0,99

La probabilidad de no-superación de dos (2) años seguidos será: 0,99·0,99 = 0,992 = 0,9801 (98,01%)

Para tres (3) años seguidos será:  0,99·0,99·0,99 = 0,993 = 0,9703 (97,03%)

Y para 100 años será:  0,99100 = 0,366 (36,6%).

Es decir, que la probabilidad de no-superación del suceso en 100 años seguidos será del 36,6%.

Restando el 100% tendremos la probabilidad de superación, que será de 100% – 36,6% = 63,4%

Por tanto, pasados 100 años, la probabilidad de que se produzca un suceso con un periodo de retorno de 100 años es del 63,4%.

¡¡ Del 63,4% !!, ¿y por qué no del 100%?

Porque, desde el principio hemos dicho que el periodo de retorno de 100 años y la probabilidad anual asociada de 1/100 eran valores medios a partir de los datos disponibles, y no certezas matemáticas exactas (evidentemente, cuanto más elevada sea la probabilidad, más se acercará al periodo de retorno conforme pase el tiempo, pero seguirá siendo una probabilidad).

Entonces, cuando dicen eso de «el periodo de retorno de un terremoto gordo en España es de 100 años y el último fue en 1884, ya debería haber llegado uno gordo«… ¿no es cierto?

No, al menos no desde un punto de vista estadístico. Ese terremoto gordo podría haber llegado hace 50 años, podría producirse mañana o podría tardar todavía 80 años en llegar, y cada opción tendría su probabilidad asociada, que no tiene por qué ser exacta, además.

Pégale un vistazo a la gráfica y compruébalo, la marca corresponde a la probabilidad para 100 años pero la probabilidad para 200 años ni siquiera llega al 90%.

periodo de retorno, imagen 3

¿Y así calculáis los ingenieros? No lo veo muy fiable, que digamos.

La naturaleza no es fiable, joven padagüan, al menos no a escala humana. La fiabilidad de los cálculos depende de la fiabilidad de los datos de partida y del mayor o menor conocimiento del fenómeno. A mayor información, más podremos «afinar» las predicciones, pero sin olvidar que un fenómeno natural es imposible de predecir al 100%.

Por eso se sigue investigando y recopilando información, y por eso las teorías y normativas se van actualizando con esas observaciones y esos nuevos descubrimientos, porque trabajamos con probabilidades a partir de datos insuficientes y, lo que es peor, asumimos responsabilidades bajo esas probabilidades, ya lo dice el 5º aforismo estructural de Javier Rui-Wamba, «los ingenieros somos gestores de incertidumbres».

Vale, vale, no te pongas en plan víctima, ya lo he pillado… ¿qué más?

Nada más, por ahora. Me he tomado ciertas licencias y supongo que un estadístico estricto me daría un tirón de orejas (como poco), pero es el precio a pagar por no usar fórmulas, así que yo lo dejaría aquí. ¿Qué tal?, ¿ha quedado más o menos claro?

Psche, más o menos, supongo que tendré que leerlo otra vez. Lo que no entiendo es por qué las noticias sobre estos temas son siempre tan confusas.

Ya, bueno, tendrás que preguntar a los que escriben esas noticias, yo he hecho lo que he podido.

 

PD: Según la Fundación del Español Urgente (FUNDEU), el signo del porcentaje se debe escribir separado de la cifra a la que sigue, pero hay costumbres difíciles de corregir, no me lo tengáis en cuenta.


La representación de datos: Edward Tufte, Power Point y la campaña de Rusia de 1812

El poder corrompe, PowerPoint corrompe absolutamente
Edward R. Tufte

Ingeniería en la Red está comentando estos últimos días la patética situación del desempleo entre los ingenieros de caminos a raíz de unas, digamos, «peculiares» gráficas del CICCP, al que ha recomendado dos libros sobre presentación de datos que están ya en mi lista de próximas lecturas.

Me he permitido añadir dos libros más, «The Visual Display of Quantitative Information» y «Beautiful Evidence«, ambos de Edward R. Tufte, aunque más que los libros se podría decir que recomiendo toda su obra, tema que voy a desarrollar con más calma.

La ingeniería civil tiene virtudes y defectos: entre las virtudes, saber trabajar con grandes cantidades de información; entre los defectos, no tener ni puñetera idea de cómo comunicar toda esa información. Es un hecho, nos vendemos de pena, nos gusta controlarlo todo y saber cómo, por qué y de dónde salen las cosas hasta el segundo decimal -sobre todo en los precios-, pero a la hora de venderlo o explicarlo, damos vergüenza ajena (evidentemente, es una generalización y siempre hay excepciones, pero ya sabéis a qué me refiero).

La información escrita, sea en pantalla o sobre papel, tiene una gran ventaja sobre la visual o auditiva, porque leemos mucho más rápido que hablamos, lo cual nos permite «absorber y discriminar» la información mucho más rápido. Se dice que una imagen vale más que mil palabras, pero no todo lo que se dice es cierto, depende de la imagen y depende de las mil palabras.

En el caso de las gráficas es casi siempre cierto, una gráfica es casi siempre mucho mejor que mil aburridos números… casi siempre, repito, porque los estilos predefinidos de las hojas de cálculo no sirven para todos los casos y, francamente, muy poca gente se molesta en cambiar los que vienen por defecto, con resultados finales no siempre adecuados (imaginad si son inadecuados que incluso el Presidente del CICCP ha malinterpretado los datos).

Edward R. Tufte es profesor emérito de estadística en la Universidad de Yale. Le han llamado «el Leonardo da Vinci de los datos«, y muchos quizá lo conozcan por ser el «inventor» de las sparklines, esas pequeñas unidades de información gráfica que pueden insertarse en el texto para ampliar los datos, que él define como «a small intense, simple, word-sized graphic with typographic resolution«.

De cara a entender, conocer y saber cómo tratar y representar los datos yo recomendaría «The Visual Display of Quantitative Information«, pero me gusta más «Beautiful Evidence«, más enfocado a explicar cómo han ido cambiando las formas de representar la información gráfica a lo largo del tiempo.

Un ejemplo de información gráfica intercalada en el texto, de Galileo Galilei

Para los adoradores del PowerPoint, el libro tiene un capítulo entero dedicado a explicar por qué no debería usarse en las empresas. En sus propias palabras, PowerPoint «elevates format over content, betraying an attitude of commercialism that turns everything into a sales pitch«, lo cual remata con un tajante «PowerPoint is Evil» (en 2007, con motivo del 20 aniversario del PowerPoint, sus creadores, Robert Gaskins y Dennis Austin, reconocieron estar de acuerdo con las críticas. En su opinión, fue un error incluirlo en el paquete Office).

Por supuesto, el capítulo incluye la prohibición de Louis Gerstner de usar PowerPoint en IBM o la historia del fracaso de la NASA con el Columbia por querer simplificar los datos en las reuniones. Si tenéis más interés, tiene un librito (27 pags.) dedicado integramente al tema, «The Cognitive Style of PowerPoint: Pitching Out Corrupts Within«.

Pulsa para ampliar el mapa y verlo mejor

Y ya que hablamos del tema, no puedo dejar de mencionar un clásico, el «Mapa figurativo de las sucesivas pérdidas de hombres de la Armada Francesa en la campaña de Rusia 1812-1813″ de Charles Joseph MinardInspecteur Général des Ponts et Chaussées (si, una de esas excepciones que citaba antes).

El mapa muestra la evolución del número de tropas durante la invasión napoleónica de Rusia a lo largo de todo el recorrido junto con la temperatura de la vuelta. Partieron 422.000 soldados y regresaron 10.000… años después, Hitler repetiría el mismo error en la Operación Barbarroja. El invierno ruso ha ganado tantas batallas que incluso tiene graduación militar, lo llaman General Invierno

Minard terminó el mapa en 1869, a la edad de 88 años. Según Tufte es el «el mejor gráfico estadístico jamás dibujado«, remarcando también que la palabra «Napoleón» no aparece en el mapa porque Minard se centraba en los datos que quería representar (dicho así suena muy bien, claro, pero Minard era francés, y ya se sabe lo que pasa con los franceses y Napoleón…)

Resumiendo. Lo peor de estos libros, darte cuenta de todo lo que estás haciendo mal. Lo mejor de estos libros, darte cuenta de todo lo que puedes mejorar todavía.

Al hilo de lo que hablaba el otro día sobre los precios de los cursos de formación, los cursos presenciales de Edward R. Tufte duran un día (10:00 – 16:00), cuestan 380$ (200$ para estudiantes) e incluyen sus cuatro libros (~30/40$ cada uno).

Por si alguien está interesado, dejo aquí los enlaces para comprarlos en Amazon. Son enlaces patrocinados, si compras el libro desde el enlace me llevo un porcentaje, si te gusta el blog es una manera de ayudar.



Distribuciones estadísticas, un mapa conceptual

Hoy en día, y gracias a la informática, buscar la distribución estadística que mejor se ajusta a nuestros datos de campo/laboratorio es cada día más fácil, por no decir automático, pero esta facilidad no debe hacernos olvidar que todas estas distribuciones están relacionadas entre sí.

Una forma de comprobarlo y tenerlo presente es este impresionante (y terrorífico) mapa conceptual con 76 distribuciones estadísticas de una variable, entre ellas la curiosa distribución (o ley de números anómalos) de Benford o la distribución de palabras de Zipf. Los cuadros de bordes rectos corresponden a distribuciones discretas mientras que los cuadros de bordes redondeados corresponden a distribuciones continuas.

Pulsa en la imagen para verla mejor… si te atreves, claro.

Para el que tenga más interés, el esquema pertenece a este artículo [pdf – 565 KB] publicado en febrero de 2008 en The American Statiscian.

[Si, ya lo sé, en geotecnia pocas veces se usa algo más complicado que una media aritmética “corregida”, pero el día que entren en vigor los Eurocódigos nos vamos a reír mucho con los coeficientes de variación y las desviaciones típicas, tiempo al tiempo]