Archivo de la categoría: Clima

90. Cabo Estai 2. Una datación más que problemática.

1.- La datación.

Impaciente, mandé a datar una muestra de carbones de la base del la pila de escombros y el resultado, más que sorprenderme, me noqueó: >43.500 años; o sea, fuera del rango de aplicación de la técnica del C14.

resultado

Mi sorpresa no es gratuita. Aunque el depósito que interpreté como una mina antigua es en su conjunto muy singular, el nivel de playa fósil de su base es relativamente común y, de hecho, se puede seguir hacia el exterior de la ría en la playa de Abra y hacia el este de forma intermitente a lo largo de varios cientos de metros en torno a la punta de Cabo Estai, de donde son estas fotos:

Playa fosil en Cabo Estay datada por C14 como Holocena (posterior a 10.500 BP).

Segmento de la playa fosil en Cabo Estai datada por C14 como Holocena (posterior a 10.500 BP).

Detalle de carbones datados (10.430 BP +1230-1060) en nivel bajo la playa fósil.

El caso es que, como podéis leer en los pies de foto, el nivel bajo la playa fósil está datado también por C14 (Geochron Labs, Mass. US; muestra GX-20953, año 1995), datación que me marcaba situaba la playa en el Holoceno. Era sólo una datación (como ahora) pero junto a otros indicios indirectos me permitían inferir un nivel del mar superior al actual hacia el óptimo climático, hacia el 6000 BC, como en muchos otros lugares del mundo.

2.- ¿Holoceno o Eemiense?

La cuestión va más allá de la mera datación del depósito, pues implica también las posibles interpretaciones.

Recogí la muestra datada entre la playa fósil y la base de la “escombrera” (que ahora no tengo más remedio que entrecomillar) y en definitiva, lo que está en cuestión si la playa fósil es Holocena (de hace menos de 10.000 años) o Eemiense (es decir, del último interglaciar, hace unos 120.000 años), es más que la edad del depósito, es su interpretación como una escombrera minera holocena (clima templado) o como un cono de derrubios pleistoceno (clima perglaciar). Para ilustrar mejor el problema interpretativo, pongo unas fotografías.

Escombrera de cantera moderna en Mañón, A Coruña.

Escombrera de cantera moderna en Mañón, A Coruña.

Escombreras

Conos de derrubios en las cortas de Cueva del Moro, explotación romana de oro en Castropodame, El Bierzo. (foto de aquí)

Excavaciones mineras y conos de derrubios en explotaciones de

Ampliando la vista anterior, se ven las cortas mineras romanas de oro, escombreras diversas y conos de derrubios en Castropodame, El Bierzo. (foto de aquí)

Desde un punto de vista geológico, las escombreras mineras son depósitos gravitacionales más o menos remodeladas por agua. En el caso de la ruina montium, por ejemplo, el agua estaría implicada no solo en el transporte sino en el arranque, pero en los demás el agua sería agente de transporte. El agua también puede removilizar las escombreras erosionándolas y resedimentándolas como depósitos de derrubios o coluciones.

La naturaleza no sabe de compartimentos estancos y presenta siempre una infinita variedad de tipos intermedios. En cualquier caso, el agua aportaría selección granulométrica y ordenación interna a un depósito que, gravitacional puro, es una simple pila de gravas, arenas o bloques.

Para generar de forma natural un depósito similar al de una escombrera minera todo lo que necesitamos es un escarpe y un mecanismo de fracturación de ese escarpe. En la alta montaña y zonas de clima periglaciar, los ciclos de hielo-deshielo y frío-calor se encargan de fracturar la roca de un modo similar a una trituradora mecánica, y la gravedad se encarga de transportar ese material de las laderas a los pies de los escarpes y laderas.

Ejemplo de gelifracción.

Ejemplo de gelifracción en islandia. (foto de aquí)

Conos de derrubios en Islandia. (foto de aquí)

Conos de derrubios en Islandia. (foto de aquí)

Conos de derrubios en circo glaciar, España. (foto de aquí)

Canchales/conos de derrubios en circo glaciar en Gredos. (foto de aquí)

3.- La solución.

Las posibilidades ahora son que una de las dataciones esté mal o que los niveles de playa fósil de cabo Estai, pese a las apariencias, sean efectivamente dos: uno holoceno y otro eemiense. La verdad, no creo demasiado en esta posibilidad de dobs niveles. En cualquier caso la soculción vendrá de  nuevos análisis que confirmen o desmientan la edad y demás características. La edad es determinante para la interpretación, aunque no es la única clave.

Por ejemplo, si la edad fuera holocena, quedaría por comprobar la que las mineralizaciones que acompañan al dique de cuarzo son -en efecto- de interés minero. Por el contrario, si no apareciesen mineralizaciones, la hipótesis de la mina seguiría coja, a pesar de la edad. Y si pudiésemos identificar esa posible mineralización de oro pero la edad de los carbones se mantuviese >43.500, siempre quedaría la duda por el origen de esos carbones. Por cierto, la historia de los carbones en sí también es interesante, en concreto si se trata de maderas carbonizadas de modo natural o quemadas y fosilizadas. No resultaría nada fácil explicar la presencia de abundante madera quemada en un cono de derrubios periglaciar.  Y siguiendo en la posible interpretación de palya fósil eemiense, resulta bastante chocante que una causa climática haya dejado un depósito tan potente y a la vez tan localizado, asociado además a ese relativamente pequeño dique de cuarzo y sin otro equivalente semejante en toda la costa de rías. Que el cono de derrubios -máximo exponente de fío periglaciar de todo el cantil- descanse directamente sobre la playa fósil parece también extraño cuando las fases de más frío de la última glaciación sucedieron no al principio sino al final del período.

En fín. Si fuese fácil, no sería tan interesante.

 

77. El Antropoceno, entre los marcianos y el calentamiento global, II.

En Geología debemos tener siempre presente el factor de escala. La interpretación de un mismo suceso puede ser muy distinta según la veamos a una u otra escala. Muy a menudo nada tienen que ver las causas con las consecuencias y al intentar atribuir un sentido u otro al suceso, según lo hagamos fijándonos en las unas o en las otras , el juicio será completamente distinto.

Por ejemplo, la aparición de las cianobacterias fue un suceso insignificante del que se han encontrado levísimos rastros datados en más 2800 millones de años, pero generó 300 millones de años después el cambio más trascendental y drástico de la historia el planeta desde entonces. Los geólogos conocen este evento como la Gran Oxidación, aunque todavía no tienen muy claro cómo explicar ese larguísimo larguísimo lapso en el que las cianobacterias ya estaban ahí pero no provocaban ningún cambio sistémico.

Estaban pero como si nada, ahí esperando trescientos millones de años. Y de repente. ¡Bum! La Gran Oxidación; como si dijñeramos: la Gran Consecuencia.

La novedad de las cianobacterias respecto de las otras bacterias fotosintéticas era que para fijar el CO2 captaban electrones rompiendo la molécula de H2O y desprendían O2 como residuo. Es decir, que al fijar el CO2 disuelto en el agua, las cianobacterias comenzaron a emitir oxígeno y a oxigenar el ambiente alrededor. Pero lo que desconocemos es por qué, de repente, trescientos millones de años después de empezar a hacerlo, tuvieron tal éxito que consiguieron dominar el planeta y cambiar la química de los océanos y la atmósfera. Según una teoría durante ese lapso se mantuvo un equilibrio entre microorganismo metaníferos y las nuevas cianobacterias oxidantes, pero eso tampoco explica qué rompió el equilibrio.

Una ventaja competitiva de las cianobacterias citada a menudo es que el O2 envenenaba el ambiente del resto de microorganismos, todos anóxicos. Hoy, cuando la mayor parte de la vida se ha adaptado a respirar O2 muchas cianobacterias siguen envenenado las aguas de otros modos. Pero esta ventaja es una consecuencia, ganada a posteiori, por lo que tampoco explica el lapsus de los 300 MA.

Pero esto no era más que un ejemplo. Lo que ahora importa es el Antropoceno, y aquí tenéis la historia de su éxito.

Libros con Anthropocene o anthropocene en Google Books

Libros con Anthropocene o anthropocene en Google Books

La historia del éxito del Antrhopocene comenzó el año 2000. ¿Por qué ese año? Pues en wikipedia encontraréis la respuesta: ese año Paul Cruzten, premio Nobel en química en 1995 por su descubrimiento del efecto de los CFCs sobre la capa de ozono, defendió este término en un congreso para sustituir al viejo Holoceno y comenzó a promocionarlo enre sus colegas.

Pero Crutzen tampoco inventó el Antropoceno. Ngram nos señala que el término aparecía en algunos libros de 1960 y algunos más de la década de 1980. En general, las pocas referencias accesibles lo muestran como una traducción o sinónimo ruso del Cuaternario. Fuera de ahí, nada constatable por mucho que algunos quisieran apuntarse el tanto con lo de: eso ya lo decía yo.

Holoceno es un término antiguo cuyos primeros rastros se remontan a la segunda mitad del siglo XIX. En este artículo de 1873 el geólogo norteamericano Jhon B. Perry explica el significado del vocablo: el Holoceno data sedimentos y rocas posteriores al Plioceno, y relaciona el Plioceno con los depósitos glaciares y los depósitos fluviales de terrazas colgadas. Así que el Holoceno incluía los depósitos desde el final de la última glaciación hasta el presente. Lo mismo que hoy.

Pero lo más interesante es la explicación que hace de lo que llama sedimentos y formaciones “recientes”,que incluye dentro del Autoceno. Éstos son los depósitos relacionados con el hombre, que pueden fecharse como prehistóricos o históricos, así pues: el Antropoceno.

Es decir, que los geólogos americanos del siglo XIX ya consideraban una subdivisión reciente del Holoceno que incluía aquellos sedimentos datables y correlacionables por la arqueología o la historia.

Caminamos senderos trillados…

Lo de Autoceno desde luego no cuajó, pero de forma casi paralela al creciente interés por el Holoceno fue extendiéndose un nuevo concepto: la antropogenia, y derivada de ella, lo antropógenico.

Ngram

Libros con Holocene, anthropogenic y Antrhopocene en Google Books. Para las primeras y más antiguas referencias, Ngram lee Antropogenic donde en realidad pone: Anthropogenie.

La Antropogenia es un invento del relevante pensador y biólogo Ernest Haeckel, para quien la evolución y el progreso eran casi una misma cosa. Con este neologismo Haeckel se refería a la evolución humana, o más bien a la transformación evolutiva de un mono en hombre. Anropogenia era la versión evolutiva y natural de la Creación bíblica y de este vocablo se derivó antropogénico, primero referido a lo humano de un modo entre antropológico y genético y más tarde de un modo genérico. A Haeckel, que gozó de una influencia inmensa, se le atribuye también la invención del vocablo ecología.

Busquedas relativas en Google

Busquedas relativas globales en Google de Holoceno (azul) y Anthropoceno  (rojo) arriba y Holocene (azul) Anthropocene (rojo) abajo. El interés público que refleja Google Trends por Antropoceno y Anthropocene es muchísimo mayor que la penetración académica del Anthropocene que refleja Ngram.

La cuestión es que el Antropoceno no añade ningún sentido geológico nuevo al Holoceno, sino una nueva moral. El pretendido debate sobre si el Antropoceno debe comenzar con el Neolítico, en 1610, con la revolución industrial o con explosión de las bombas atómicas  está amañado, no es más que una excusa, unan tapadera. Lo que se pretende es un interpretación ideológica, política en su sentido más profundo, cosmológica.

No es la primera vez ni la segunda que la Geología se convierte en terreno de una lucha ideológica, pero esta vez el resultado será un descrédito y bochorno sobre el propio sistema de autoridad científica -no veo otra salida cuando por fin se desacredite el CO2 como causa del cambio climático- por cuanto esta vez el acuerdo dentro de la comunidad científica con que el CO2 causa del calentamiento global es casi del 99 % y la percepción contraria nos pertenece, casi en exclusiva, a personas ajenas a esa comunidad.

Lo que cambia del Holoceno al Antropoceno es el juicio moral. El Antropoceno es malo, culpable, culposo, una edad geológica claramente oscura por el crimen del hombre sobre la naturaleza, por su perversa avaricia. No exagero en absoluto. Si el Antropoceno bueno o malo ya está en cuestión y se ha convertido en un debate público (1, 2, 3)

Hace un par de entradas me reprochaban en un comentario que el debate sobre el Antropoceno era más importante que lo que yo hacía ver. Es cierto, lo minusvaloré. Aunque la importancia no está en si el Antropoceno empieza aquí o allá, lo que tan solo es una excusa, sino en las dicotomías que lo acompañan, en el sistema de referencia que debe regir esta Nueva Era:  sostenibilidad o contaminación, control o cambio climático, tecnocracia o mercado, bien o mal,diversidad o extinción, vida o muerte.

Lo más gracioso del asunto es que, siendo ingenuos, es decir, entrando al trapo del planteamiento del congreso al que hacía referencia en esa primera entrada sobre el Antropoceno y en el que se debatirá cuándo debe empezar esta Nueva Era Geológica, será ineludible hablar de extraterrestres. Y es que a la hora de decidir los límites del Antropoceno debemos decidir primero la escala de nuestra aproximación, que es el rollo con el que comenzaba esta entrada.

Si el punto de vista para definir el Antropoceno somos nosotros hoy mismo, el nivel de detalle al que podemos acceder nos lleva, como poco al Neolítico, pues para definir el comienzo en 1956 no necesitamos un criterio geológico, nos basta mirar la fecha de caducidad de la basura que nos encontremos en los sedimentos (es broma, pero poco menos). Pero si planteamos una escala de aproximación mayor, digamos de una huella que podamos reconocer de forma más o menos clara dentro en todo el planeta de cien mil años, pues ya quizá podamos discutir que si contaminación, CO2 atmosférico, huellas radiactivas o qué. Pero en cualquier caso estamos metidos en historias de extraterrestres. ¿Pues qué otro sentido puede tener reflexionar sobre nuestra propia huella geológica en cien mil o un millón de años si no es para buscar otra huella semejante poculta entre las huellas de Marte o Júpiter? Para nosotros, la utilidad de esta  discusión solo podría ser la de aplicar sus resultados en la exploración alienígena de otros planetas o estrellas, como hace la NASA

Douglas-A.-Vakoch (1)

Así que juzgando la historia ésta del Antropoceno y su éxito no ya desde el punto de vista de sus causas sino por sus efectos o consecuencias, el planteamiento es: ¿qué podríamos encontrar las trazas de una extinta raza de marcianos? ¿Cuál será su firma y rastro sobre ese planeta? ¿Cómo podríamos saber de su existencia tras un millón de años?

Y ya para terminar vuelvo a las cianbacterias, a sus causas y sus consecuencias.

Quizá lo qué pasó en esos trescientos millones entre la aparición de las fotosíntesis oxigénica y la Gran Oxidación fue que las cianobacterias se hicieron ellas mismas inmunes al ambiente oxidante. Quizá, cuando empezaron a oxigenar las cianobacterias estaban tan amenazadas por su propia basurilla oxigénica como nosotros por nuestros artificios . Porque lo que no debemos pensar es que el oxígeno, que es la consecuencia de las respiración oxigénica, haya sido su causa. De ninguna manera. La causa de la respiración oxigénica sin duda fue el agua. Sacar los electrones del agua suponía un recurso inagotable. Pero hasta que ellas mismas aprendieron a respirar oxigeno quizá no pudieron progresar. Quién sabe.

76. El Antropoceno, entre los marcianos y el calentamiento global.

A través de uno de esos pintorescos sitios de noticias a los que estoy suscrito, me entero de que un reputado físico norteamericano, el Dr. John E. Brandenburg, presentó en la 46th Lunnar and Plannetary Conference una hipotesis francamente extravagante: que Marte fue habitada por una especie civilizada aniquilada por otra raza alienígena mediante un ataque nuclear.

Investigando un poco más, averiguo que el Dr. Brandenburg lleva media vida con esta historia. Empezó nada menos que en 1991, cuando publicó, con otros dos colegas The Cydonian Hypothesis, un artículo científico que exploraba las famosas caras de Cydonia.

Cara de Cydonia - foto Viking 1 1976

Cara de Cydonia – foto Viking 1 (1976)

Lo que ocurrió con esas y otras formas aparentemente inteligentes fue lo que con los canales de Marte a caballo de  los siglos XIX y XX: telescopios mejorados demostraron que de  canales nada. En el siglo XXI, las imágenes de mayor precisión de la zona de Cydonia de las sondas Mars Global Surveyor y Mars Reconaissance Orbital probaron también que la inquietante cara y las demás supuestas megaconstrucciones artificiales no eran más que un juego de sombras chinescas.

Cara de Cydonia. MOC (2001)

Cara de Cydonia – foto Mars Global Surveyor (2001)

En 1999, el Dr.Brandenburg coescribió Dead Mars, Dying Earth, libro de divulgación científica y tono apocalíptico en el que defendía que Marte había tenido océanos, una atmósfera rica en oxígeno y vida como la Tierra, y que si no dejábamos de quemar combustibles fósiles y cometer otros desmanaes nuestro planeta acabaría como aquél.

Libro 2001

El libro proponía además que el fin de la vida en Marte hace 500 millones de años fue consecuencia del choque contra el planeta  de un cuerpo del tamaño de la Luna terrestre y que la eyecta de este choque brutal alcanzó la Tierra provocando una revolución en las formas de vida terrestre, lo que se conoce como la explosión (de vida, nada que ver con el supuesto choque) Cámbrica. Extraordinariamente atrevido, incluso visionario, el libro fue un éxito y se publicó en US, Reino Unido, Alemania y Japón.

En 2001 las nuevas imágenes de Marte desacreditaron la cara de Cydonia y aunque las misiones espaciales fueron añadiendo evidencias casi incontestables sobre la existencia de agua en Marte, ni la NASA ni la comunidad científica aceptaban todavía pasados océanos ni mucho menos la existencia de vida.

Así las cosas, el Dr Brandenburg se entregó a la ciencia ficción y en 2009 publicó una novela bajo el seudónimo de Victor Norgarde que incluso tuvo una secuela. Sin embargo, el año 2011 Brandenbug presentó en la 42th Lunnar and Planetary Conference un nuevo artículo sobre Marte con el sugestivo título de Evidence for a large, natural, paleo-nuclear reactor on Mars a la vez que publicaba un nuevo libro titulado: Life and Death on Mars: The New Mars Synthesis en el que ya no solo divulgaba los últimos avances en la exploración exploración de Marte sino que recuperaba sus viejas hipótesis sobre la vida en Marte, las mezclaba con las muy desacreditadas interpretaciones de Cydonia como ruinas arqueológicas y añadía a este peligroso cóctel un ingrediente explosivo: que la civilización marciana no había sucumbido al impacto de un meteorito sino ¡¡al ataque termonuclear de una raza alienígena!! En este divertido video encontraréis un resumen de todo esto y podéis conocer al Dr Brandenburg.

Libro 2011

Por supuesto, las hipótesis del libro del Dr. Brandenburg eran ciencia ficción, pero nadie dice que se hubiera vuelto estúpido. A la vez que hacía públicas sus más singulares y heterodoxas opiniones en un libro -y nadie podría atacarlo por ello del mismo modo que nadie le atacaría por creer en la vida despues de la muerte o en la salvación de los justos- mantenía sus publicaciones científicas dentro de la más estricta ortodoxia. Al fin y al cabo su porpuesta de un paleo-reactor natural en Marte no constituía ninguna extravagancia, explicaba la anomalía radioactiva detectada en la superficie del planeta y se basaba en un modelo terrestre. Así que, todo bien.

En 2014, sin embargo, saltó el escándalo. En noviembre el Dr Brandenburg presentó sus controvertidas teorías a calzón quitado. En la Annual Fall Meeting of the American Phisical Society, aparentemente un congresillo de físicos teóricos, Branderburg presentó: Evidence of Massive Thermonuclear Explosions in Mars Past, The Cydonian Hypothesis, and Fermi’s Paradoxe, una ponencia que defendía que una explosión termonuclear superficial -ya no una mera fusión natural de la corteza marciana- había acabado con la civilización marciana cuyas gigantescas, enormes, supermonumentales huellas están a la vista en Cydonaia desde hace nada menos que 500 millones de años, una edad en la que la Tierra ni siquiera existían las plantas verdes o forma alguna de vida terrestre.

Según el programa de comunicaciones lo hizo en la sección G1: Astrophysics, Cosmology and Astronomy II junto a tan solo otras dos comunicaciones, una sobre la masa del Bosón Higgs en el contexto de la teoría Unificada y otra sobre la generalización de las leyes de Newton y la gravitación. O sea, que allí no estaba ninguno de los investigadores de la Nasa y centros de investigación que conocen y trabajan los mismos datos que maneja Branderburg, planetólogos que pudieran ya no rebatir o desacreditar a Branderburg, sino incluso haberle rechazado su propuesta por rarita. Digamos que Branderburg coló su teoría de forma un tanto trapacera, pero una vez publicada y sancionada por la API, como quién dice sacramentada, se convertía en una opinión científica y, de uno u otro modo, autorizada. Así la idea de una civilización marciana achicharrada por un ataque nuclear alienígena dejaba de ser una extraña ocurrencia particular y se convertía en noticia, como poco.

Las ideas de Brandenburg empiezan a causar sensación. Evidentemente no faltará quien le tache de chiflado, o de oportunista, de buscar la fama y ganar dinero. Pero desde luego sabe cómo hacer llegar su propuesta. En febrero de 2015 Brandenburg sacó nuevo libro: Death on Mars: The Discovery of a Planetary Nuclear Massacre.

libro 2015

Y como decía al principio del post, hace solo unos días presentó en la 46th Lunnar and Planetary Conference dos posters con los títulos siguientes:

1.- Large, Anomalous Nuclear Explosions, on Mars in the Past.

2.- The NMS (New Mars Synthesis), Recent Data from Gale Crater and NWA 7034: Evidence for a Persistent Biologically Stabilized Greenhouse on Mars.

La presentación de posters en los congresos científicos suele ser mucho más abierta que la de las comunicaciones orales. A menudo no se pide más que un breve párrafo explicativo sobre el contenido, apenas para poder situarlo dentro del propio congreso. En este caso los posters fueron a caer en la sección de GEOCHEMISTRY AND PETROLOGY OF MARTIAN METEORITES . En el programa de este congreso los posters se presentan con una sola frase:

1.- It was hypothesized that large natural nuclear reactors ran on Mars but the xenon isotopic spectrum and lack of craters shows the explosions are anomalous

2.- Existence of aqueous, highly oxidized, carbonate-poor sediments in a Hesperian-aged formation constitutes evidence for a persistent bio-greenhouse on Mars.

Ni una palabra de Cydonia o de ataques alienígenas. Brandenburg soltó la bomba en el propio congreso y de nuevo la convirtió en noticia, que esta vez llegó hasta mí. Aunque pueda acusársele de actuar de forma torticera, el caso es que ha conseguido colar sus ideas en el debate científico y ha utilizado ese mismo entorno científico para darle un alcance global a su propuesta.

Como tantos científicos Brandenburg usa la corriente dominante y los trucos del sistema en su provecho. En el título de su primer poster obvió toda mención a la guerra nuclear alienígena y formuló su hipótesis desde la perspectiva de los meteritos, eso sí, un meteorito anómalo, que explosiona sin generar un cráter. En el segundo poster usó el muy políticamente correcto efecto invernadero como caballo de Troya para colar la verdadera noticia, y es que Marte tuvo vida de un modo semejante a como hoy la tiene la Tierra.

En realidad muchos científicos hacen esto. Por ejemplo, si te dedicas a estudiar las variaciones del nivel del mar o la edafología de la Patagonia , solo tienes que mencionar -aunque sea de pasada- sus implicaciones en el efecto invernadero para ser incluido en los programas gubernamentales que financian su estudio o para colarlo en un congreso. Son cosas que se hacen todos los días. Si no lo haces así, te quedas sin dinero para seguir investigando y no consigues audiencia.

Por ejemplo, estos días ha aparecido otra noticia más ridícula aún que la de la guerra termonuclear en Marte y desde luego más fácilmente falseable, pero esta fue publicada nada menos que en Nature por lo que será considerada con enorme respeto, atención mundial y sin duda será citada y utilizada como argumento de peso. Es una propuesta para fechar el inicio del Antropoceno en 1610. Básicamente, lo que dice es que tras la conquista de América por los españoles y la subsecuente muerte de 50 millones de nativos americanos, los bosques americanos recuperaron 65 millones de hectáreas de tierras agrícolas (1,3 Ha por habitante) y como consecuencia hubo una captura de CO2 atmosférico que generó un mínimo global que ahora proponen para marcar el inicio del Antropoceno.

minimo 1610 CO2

Toda la historia se apoya en decenas de referencias científicas, cientos de mediciones instrumentales refinadísimas y el argumento último del CO2 como criterio absoluto de autoridad, ya no solo de utilidad -frente por ejemplo al registro radiactivo dejado por las bombas atómicas- sino por su significación moral, introducida de tapadillo al ligar el evento de 1610 al genocidio de 50 millones de nativos americanos. Según el cuento, el C02 nos da la medida de la perversión humana incluso cuando baja.  El CO2 es malo, malo, malo.

Pero el caso es que todo este primoroso edificio no se sostinene ante la crítica más evidente, que es que, si la desaparición de 50 millones de nativos americanos causó semejante caída de CO2. ¿Cómo es que el aumento de la población mundial de 600 a 1000 millones de personas entre 1600 y 1800 apenas pudo recuperar los niveles de 1500?

La respuesta, claro, es que hasta que los europeos no empezaron a quemar carbón a mansalva el nivel de CO2 en la atmósfera estuvo naturalemente controlado. Pero esto resulta una evidencia bastante inútil para los adoradores de Baal-CO2, pues no alimenta su ídolo, no sirve a sus propios prejuicios, no les entrega el Atropoceno. Así que se obvia.

Brandeberg lleva al menos veinticinco años creyendo en una civilización marciana desaparecida y lleva también veinticinco años creyendo en que el calentamiento global se debe al efecto invernadero que provoca el CO2. No está loco. No más, desde luego, de lo que lo estamos la mayoría. Lo que pasa es que Brandenburg ve en el pasado que imagina en Marte una lección para la Tierra y una advertencia a nuestro propio futuro. Y cree que si exploramos Marte, si le prestamos la atención, si aprendemos lo que Marte nos enseña, podríamos evitarnos acabar como ese planeta. Brandenberg, como los creyentes del efecto invernadero del CO2, persigue metas más altas, quiere alcanzar un bien superior y obvia sus pequeñas incongruecias.

Me viene a la memoria un chiste que leí y que decían que era judío. No sé si lo será, pero dice así:

– ¿Cómo podría hacer reir a Dios?

– Cuéntale tus planes.

En su versión Tao, menos alegre, esta enseñanza dice así: El cielo trata a los hombres como perros de paja.

53. Algunas cuestiones -simples- sobre el clima. Temperaturas planetarias en el Sistema Solar.

¿Qué tiene de especial la Tierra? Pues que es confortable. El universo es hermoso. Pero la Tierra es acogedora. Es la distinción que Kant hizo sobre lo bello y lo sublime. La Tierra es bella porque nos es es amable. Aquí se está calentito. Y todo se lo debemos a nuestra atmósfera, que es la mantita que nos protege y calienta. ¿No?

1.- La temperatura superficial de los planetas del Sistema Solar depende en un 99 % de su distancia al Sol. 

En la gráfica anterior se enfrenta la distancia al Sol de los planetas del Sistema Solar salvo Venus y con el añadido de La Luna, con su temperatura superficial.

Las temperaturas de Mercurio, Venus y la Tierra son de esta página de la NASA; para la Luna, después de mucho buscar y no encontrar nada fiable, asumo que es igual a la temperatura efectiva; los de Marte, Júpiter y Saturno son de esta publicación; los de Urano, de una breve nota en este librolos de Neptuno de aquí; y los de Plutón, de esta noticia.

Si alguien tiene datos mejores y actualizados para afinar esta última columna, le agradeceré mucho que me facilite las referencias.

Bueno, y ahora vamos a la Ley que rige la temperatura superficial observada en la superficie de los planetas y lunas del Sistema Solar.

y=281,93 x^(-0,492)

La expresión en términos generales es:

f(t)=T D^(-0,5)

T es la temperatura de un planeta dado y D su distancia al Sol. Esta expresión simplemente mide la dispersión de la radiación solar al alejarse del Sol. Es la relación entre dos esferas de radio d-d’=D. Es un cálculo sencillo. Si queréis hacerlo vosotros mismos, aquí lo explica muy bien.

Y como la unidad de medida elegida es la unidad astronómica, que es la distancia de la Tierra al Sol, 281,93 es la temperatura teórica de un planeta situado en este lugar: la Tierra (o la Luna). 

2.- La temperatura de los planetas no se aleja más de 12 º de sus temperaturas de equilibrio como cuerpos negros. 

El Sol emite luz en un espectro de electromagnético con una determinada envolvente de intensidad, y esa integral es equivalente a la que emitiría un cuerpo negro, o sea, un sólido totalmente opaco y absorbente, a unos 6.000 ºK. Éso es lo que decimos cuando decimos que la temperatura del Sol es de seis mil grados.

Un segundo sólido negro que reciba la energía del Sol la absorberá por entero, sin reflejar ni transparentar nada; se calentará y remitirá al espacio una cantidad igual de energía pero en un espectro eletromagnético diferente, característico de la temperatura alcanzada. De este modo cada espectro electromagnético es como una firma de una temperatura. Así es cómo se determina la temperatura de los planetas en los que no hemos estado. Se mide su espectro y se calcula cuál sería la temperatura del cuerpo negro teórico que emitiría ese espectro. Hecho esto, se establece que ésa es la temperatura del planeta.

Y luego está la temperatura de equilibrio.

La temperatura de equilibrio de la Tierra es de 279 ºK, unos 6 ºC. Es la que tendría un sólido negro perfecto del mismo radio. La temperatura presente de la superficie terrestre es de 287 ºK, unos 15 ºC. Así que la Tierra está unos 9 º (un 3 %) por encima de su temperatura de equilibrio.

De cualquier modo vivimos un breve interludio cálido en un periodo glaciar. En los últimos cientos de miles de años la temperatura media de la Tierra ha sido unos 7-8 º menor.

En amplias zonas del Ártico los suelos permanecen congelados hasta profundidades de varios cientos de metros, herencia de los fríos pasados. Es, en cierto modo, un frío fósil. Los 15.000 años de aumento de las temperaturas no han conseguido templar la inercia térmica del planeta. Y si atendemos a la temperatura de los océanos, nos acercamos todavía más a la temperatura de equilibrio. Diversas fuentes estiman que la temperatura media de los mares de la Tierra es de unos 4-5 ºC, es decir, uno o dos por debajo de la temperatura de equilibrio.

El planeta más alejado de su temperatura de equilibrio (dejando aparte Venus, que eso, es para darle de comer aparte) es Saturno, que lo está 12 ºK, un 15 %. La desviación media de temperatura en los planetas es de 7,6 ºK, un 6,7 %.

3.- Efecto invernadero y albedo.

Los climatólogos consideran dos mecanismos principales en la formación del clima de los planetas, con sentidos contrarios el uno del otro: el albedo y el efecto invernadero.

El albedo mide la reflexión de la energía procedente del Sol. La energía reflejada no aumenta la temperatura del espejo, ni de la Tierra. El ejemplo de libro es la nieve, que no se funde al Sol debido a su color blanco. Hay un albedo visible, que es el que afecta al espectro de luz visible, y hay un albedo global, que afecta a todo el espectro de luz y que los planetólogos llaman bond albedo.

Y luego está el efecto invernadero. En realidad no hay una definición física. Es un conjunto de procesos atmosféricos que hacen que la superficie de los planetas tengan una temperatura media superior a la de equilibrio. Así que la temperatura de los planetas es la temperatura de equilibrio menos el efecto del albedo y más el efecto invernadero.

En teoría, el albedo es fácil de calcular. Solo hay que medir la energía reflejada por el planeta. Esta luz reflejada mantiene la forma del espectro original del Sol. Solo necesitamos medirla a la sombra del Sol. Este experimento, en el espectro visible, lo hacemos cada noche de Luna. La luz que rebota en la Luna -y que tiñe de color blanco la Luna- es la luz del Sol vista desde una posición a la sombra. De día la Luna y su débil reflejo quedan diluidas en la potente luz solar, y no nos es posible diferenciar la una de la otra, la reflejada de la directa.

Si restamos a la temperatura de equilibrio el efecto del albedo tenemos la temperatura de cuerpo negro del planeta. Ésa es la teoría. Ahora vamos con la práctica.

La tabla anterior muestra en la primera columna la distancia (D) del Sol a los planetas y en las tres siguientes las temperaturas de cuerpo negro del planeta (TCN) tomadas de esta web de la NASA, las de equilibrio (TEQ), calculadas mediante la Ley de Stefan-Boltzmann, y las observadas (TOB), sacadas de las fuentes que ya di.

La quinta columna (TOB-TEQ) muestra la desviación en grados de la temperatura observada respecto de la temperatura de equilibrio.

La sexta resta la temperatura de cuerpo negro de la de equilibrio (TCN-TEQ), y es por tanto, según la definición de temperatura de cuerpo negro, la contribución en grados (negativos) del albedo actual.

Por último, la diferencia entre las temperaturas observadas y de cuerpo negro mide la la contribución del efecto invernadero en la temperatura de la superficie de los planetas. Es la medida del efecto invernadero.

Incluso evitando los valores de Venus, es evidente la relación positiva entre albedo y efecto invernadero. Es decir, a mayor efecto invernadero, más albedo. Y viceversa.

La relación entre efecto invernadero y albedo es una de esas reconocidas retroalimentaciones del clima terrestre de las que tanto partido sacan los calentólogos del CO2, aunque resulta difícil entender cómo podría un mismo mecanismo actuar sobre atmósferas y climas tan dispares como las de los distintos planetas del Sistema Solar.

En realidad, lo que la relación sí parece poner en duda es el mismo supuesto que está detrás del concepto de temperatura de cuerpo negro. Porque, si el albedo disminuye con el efecto invernadero, ¿qué sentido tiene aplicar el albedo actual de planetas sin atmósfera?

Pero es al plantear los balances energéticos asociados a las temperaturas cuando el planteamiento se pone, como dicen los portugueses, patas pro ar; o sea, patas arriba.

4.- Des-balance energético de los planetas como cuerpos negros a TOB. 

La radiación solar es la que controla el clima de la Tierra: de un modo temporal determina los cambios del día a la noche, la sucesión de estaciones, las eras glaciares y, los ciclos de Milankovitch, y en todo momento, la zonación climática por latitudes. Lo mismo hace en el resto de planetas (salvo en Venus).

Ahora comparemos las energías incidentes del Sol con las radiantes de un cuerpo negro a temperatura media observada en la Tierra. La emisión de un cuerpo negro a una temperatura dada es proporcional a a la cuarta potencia de la temperatura (en ºK). O sea, que solo hay que elevar la TOB a la cuarta potencia y multiplicar por la constante σ = 5,67E-08

 j=σ T^4.

En la primera columna, el albedo (bond albedo), según la página de la NASA (el de Plutón, que la Nasa da 0,4-0,6 está estimado en relación de la TCN de esa misma página).

En la segunda, la radiación solar para cada planeta según su distancia al Sol multiplicada (disminuida) por el factor de albedo.

En la tercera, la energía radiante de un cuerpo negro a TOB de cada planeta.

En la cuarta, la relación en % entre la energía entrante y saliente. Para hacer esta relación hay que dividir por cuatro el valor de la columna 2 o multiplicar por cuatro el de la 4, ya que la energía radiante se proyecta sobre una superficie plana (un círculo), pero la superficie de los planetas son volumétricas, asimilables a esferas. Y 4 (o 1/4) es la relación entre la superficie de la esfera y el círculo.

Bueno, pues los resultados están ahí y hablan por sí mismos. Resulta que la energía radiante de la superficie de la Tierra según su supuesta temperatura media es 1,6 veces la que recibe; 1,5 veces para el caso de Marte; 2,2 veces en el caso de Júpiter…

Eso no puede ser. La Tierra no es una central térmica.

Prácticamente toda la energía procede del Sol. La contribución de la energía interna es mínima. Y lo mismo con la mayor parte de los demás planetas (salvo en Venus, y quizá en alguno de los jovianos, pero muy poco en éstos). Así que algo está mal. Y no son los cálculos, sino su interpretación.

Por supuesto, no descubro nada con los datos de la Tabla. Esto lo sabe cualquier climatólogo, aunque tampoco lo airean, claro. Porque entonces tienen que ponerse a explicar muchas cosas.

La primera reacción es decir que la Tierra no es un cuerpo negro perfecto. Que en medio está la atmósfera. Para la Luna y Mercurio, que no tienen atmósfera, la energía radiante coincide con la energía incidente menos la reflejada (albedo). También coincide en Urano, aunque tiene atmósfera. Pero es que Urano está muy frío, y muy lejos, tampoco se conoce bien qué pasa allí. Y luego blablablá, blablabla, y entonces se ponen a explicar las complicadísimas químicas atomsféricas reproducidas por modelos trampeados con todo tipo de ajustes (efectos).

Pero la base de todo sigue siendo la energía del Sol,¡qué remedio! Y al final, sea como sea, la energía radiante debe ser igual a la insolación. Es impepinable. Es el primer principio de la Termodinámica. En resumen: la Tierra es, pero no es, un cuerpo negro. Esa es la explicación habitual. Un sí-es-no-es. Nada por aquí, nada por allá: ¡¡tachán!!

Pero no claro. Hay una explicación mejor. Y es, como prometí, simple.

5.- La TCN es la temperatura media de la atmósfera. En la Tierra: 254,3 ºK; -18,65 ºC

La TCN es la auténtica medida de las temperaturas medias de los planetas. Por eso sigue siendo una medida útil para los planetólogos.

Desde luego, decirle a la gente que la temperatura media de nuestra atmósfera es de -19 ºC no sería de mucha ayuda para alarmar al público por el calentamiento global. Así que se obvia esta realidad y en cambio se cuenta lo mucho que aumentan las temperaturas aquí o allá. Pero la realidad es que si una parte de la atmósfera se calienta, alguna otra debe enfriarse en una cuantía equivalente. Aunque incluso este enfriamiento es usado para mantener la alarma por el calentamiento global debido al CO2, o simplemente, confundir.

No es el efecto invernadero sino el albedo el que determina la TCN y, por tanto, temperatura media de la atmósfera. 

Modificar el albedo es la única forma ne la que podemos variar la temperatura media de la atmósfera terrestre. No hay otra forma posible. La atmósfera recibe toda la energía del Sol y no puede irradiar más calor del que capta. No, desde luego, un 40 % o un 60 %. Es, sencillamente imposible.

6.- La insolación marca la temperatura máxima que se puede alcanzar en un planeta. En la Tierra: 331 ºK; 58º C.

El que calienta es el Sol, no la atmósfera, que solo redistribuye el calor. Así que la insolación máxima es la que nos determina las temperaturas máximas.

El albedo refleja un tercio de la radiación solar que nos llega, pero no lo hace de modo homogéneo. La mayor parte del albedo lo generan las nubes. Basta con salir de la sombra y ponernos al Sol una fría mañana de invierno o un tórrido medio día de verano para sentir de inmediato el poder calórico del Sol. Por eso el Sol puede llegar a quemarnos, aunque la temperatura del aire sea agradable, y por eso la luz del Sol puede evaporar el agua incluso sin viento. Cayendo a plomo, sin filtrar, la radiación puntual del Sol sería de 1363 W/m2, equivalente a la de un sólido a 115 ºC. Y no hay que ir a la Luna para alcanzar temperaturas cercanas a los cien grados centígrados. Todos sabemos que no conviene tocar una chapa metálica al Sol un día de verano, o el volante del coche.

Gracias que a lo largo del día el Sol va calentando el aire, éste se renueva refrescando el ambiente. Pero si consideramos un lugar del trópico seco un día cualquiera de verano, un día de esos que el Sol de mediodía sube hasta lo alto del firmamento, y que el reparto día/noche es de doce horas, tenemos que la radiación solar media será de 681 W/m2, equivalente a una temperatura de cuerpo negro de 58 ºC. Ése es el límite de temperatura que se puede alcanzar en la Tierra.

La zonación climática de la Tierra está controlada por la insolación. Sin embargo, claro, eso no es todo.

Desde donde yo escribo esta entrada, en Vigo, a una latitud de 42 º norte, y no hoy, que jarrea y tenemos lo menos cuatro kilómetros de nubes encima de nuestras cabezas, pero puede que sí un solsticio de junio cualquiera, cuando la eclíptica nos acerca a 18 º del ecuador solar, la insolación máxima teórica es un 95 % de la máxima en el ecuador. Pero ni con esas. En Vigo no alcanzamos máximas de 40 ºC. Hay muchas razones para justificar esto, pero solo una causa: la inercia climática.

8.- El clima es un sistema inercial. El efecto invernadero es un sistema de referencia no inercial.

Todos sabemos que el momento más caluroso del día no llega cuando el sol está más alto, (mediodía solar) sino un poco después. Por la noche, el momento más frío llega casi de mañana, a veces justo cuando sale el Sol. Aquí, en Vigo y en muchos otros lugares templados, el mes más caluroso suele ser agosto, o el período de julio-agosto, aún cuando la máxima insolación ocurre en junio.

La inercia climática reduce las diferencias climáticas entre el día y la noche y de verano a invierno. Y lo hace mediante la transferencia de calor de unas latitudes a otras y de unas profundidades a otras. No se reduce a un efecto atmosférico. Intervienen los mares y el subsuelo. Pero si no nos situamos en la adecuada perspectiva, en el espacio y el tiempo de estas tendencias lo que advertimos es eso: extraños efectos.

En números redondos, la capacidad calorífica del aire es de 0,24 kcal/kg, y 1 atmósfera de presión es equivalente a 10.000 kg de aire sobre el nivel del mar, de modo que la capacidad calorífica de la atmósfera es de unas 2.400 kcal/m2 de superficie terrestre. La mayor parte de este calor se encuentra almacenado en la Troposfera, donde se aprieta casi toda la masa atmosférica.

Pero la energía calorífica de la atmósfera sobre 1 m2 de superficie terrestre es la que podemos almacenar en 2,4 m3 de agua. Los mares ocupan 7/10 partes de la superficie, de modo que los primeros 3,5 metros de los océanos tienen la misma capacidad calórica que toda la atmósfera.

La capacidad calórica de los continentes es menor, pero también considerable. El granito tiene un calor específico de 0,19 kcal/kg y una densidad de 2,5 Tn/m3, de modo que cualquier terreno granítico puede almacenar tanto calor por grado de temperatura en unos 5 metros de profundidad como toda la atmósfera que tenga encima.

De hecho los granitos superficiales almacenan mucho más energía calórica que la atmósfera. En Galicia, la temperatura media es de unos 14 ºC, y los granitos o jabres, casi siempre siempre con alta humedad -y por tanto con mayor calor específico que la dada antes-, mantienen temperaturas superiores a los 14 º C hasta profundidades de 10 o  20 metros, a veces incluso más.

Los granitos tienen una muy baja conductividad térmica. El agua más baja aún. Pero el agua es un fluido, como el aire. En ellos el calor se transporta por convección. Se forman vientos y corrientes.

9.- Qué decimos cuando decimos clima.

Ya lo dije por ahí. Hay que saber qué decimos cuando decimos clima terrestre. La cosa no se reduce a la atmósfera. Los océanos forman parte del clima. Incluso los continentes forman parte del clima.

Y hay que entender qué decimos cuando decimos que la Tierra y el resto de planetas se comportan como un cuerpo negro. Solo tenemos que entender que su superficie tiene profundidad. El clima no lo hace la atmósfera. Es mucho más. Ni siquiera la Luna es un cuerpo negro perfecto. Durante la noche la temperatura de la cara oculta de la Luna no cae al cero absoluto. No tiene tiempo de enfriarse. De modo que la corteza mantiene su calorcito residual. No hay atmósfera en la Luna. Pero hay clima.

No es ninguna mágica manta de CO2 la que hace de paraguas y nos mantiene calentitos. La atmósfera forma parte de la superficie de cuerpo negro de la Tierra, pero esta superficie alcanza las profundidades del océano e incluso profundiza en los continentes. Mares y continentes sostienen las temperaturas mínimas. Aportan humedad y la recogen. Flujos de calor y frío en el océano se mueven lentamente y afloran cada tantos años, siglos o, incluso milenios, para generar los fenómenos globales del Niño y la Niña o las sucesiones de periodos glaciares e interglaciares.

ciudades iluminadas

30. Contaminación sísmica y calentamiento global: una cuestión de magnitudes planetarias.

Imagen NASA de la iluminación artificial de la Tierra.

El gráfico anterior representa el número de terremotos registrados por el IGN en Galicia (longitudes: -7.30.00,  -8.95.00; latitudes: 41.85.00, 43.85.00)  entre el uno de enero de 2002 y el veinticinco de diciembre de 2012: diez años y 983 eventos sísmicos identificados. Pero tranquilos, no hay más riesgo sísmico el fin de semana. Lo que vemos es un ejemplo de un artefacto en una medida, un error sistemático generado por las condiciones de muestreo. Los días de semana el ruido sísmico generado por la mayor actividad industrial y urbana enmascara la señal de los terremotos más débiles.

Este gráfico  representa lo mismo que el primero pero para lapsos de seis horas. Entre las 00 y las 06 horas, la mínima actividad humana permite una escucha más limpia de los sismógrafos, y en consecuencia el número de terremotos registrados es máximo -en torno a 50 de media- El máximo ruido sísmico se produce entre 06 y las 18 horas de los días laborables, doce horas en las que  se detectan unos 30 terremotos de media, un tercio de los que se escucharían con un ruido de domingo., En términos de magnitud media (que mide la energía del terremoto), la gráfica presenta un aspecto inverso, aunque el efecto se ve peor. Los mínimos de magnitud matinales de los días laborables no se deben a una menor actividad sísmica, sino a que los terremotos más débiles no son registrados y por tanto no se suman a la media, que de este moto tiene valores más altos. Desglosada la actividad sísmica por magnitudes, se comprueba que las franjas horarias convergen hacia magnitudes de 2-2,3, justo la magnitud en la que los terremotos -si no son muy profundos- comienzan a ser sentidos por las personas. Así pues, que el ruido sísmico disminuya hacia energías comparables a los terremotos sentidos no es solo porque esos microseismos requieren de mayor energía -y son más costosos de crear- sino por que sus efectos -las molestias y daños a las personas y las cosas- son más evidentes

Por lo general, a los sismólogos no les interesa mucho el ruido sísmico; lo que les importa.son los terremotos naturales, y en consecuencia lo común es que se ocupen en desarrollar instrumentos de cómputo para eliminar este ruido, no para interpretarlo. Pero por fortuna, siempre hay excepciones, y hace ya más de un siglo los primeros estudiosos de este fenómeno comprendieron que el ruido sísmico informaba de cosas tan sutiles como el embate de las olas del océano en la costa o los golpes barométricos de los frentes de bajas y altas presiones. Hoy, estas curiosidades están teniendo insospechadas aplicaciones, y a través de los viejos registros sísmicos los especialistas son capaces de reconstruir registros de tormentas marinas de hace décadas -cuando no había satélites para el estudio del clima global- y compararlos con los actuales.

Pero en cualquier caso la atención se focaliza sobre la fuente del ruido, y el ruido mismo -como tal- no se toma en consideración, ni sus consecuencias sobre el medio natural -las rocas y el subsuelo- cuando no sea que afecte a las personas y sus propiedades. Y sin embargo, esto no debería ser así. No, por lo siguiente.

La energía acumulada de todos los terremotos registrados en un cuadrado que circunscribe Galicia (latitud 41º a 45º; longitud -6º a -9º) entre enero de 2002 y diciembre de 2012 fue de 6,52 E11 (seiscientos mil millones de julios). Un número enorme, aunque depende con qué se compare. Por ejemplo, en 2010, los gallegos quemamos 2.016.596 TEP (tonelada equivalente de petróleo) sólo en transporte terrestre. Como cada TEP contiene la increíble cantidad de 4,2 E10 J (unos cuarenta y dos mil millones de julios, en números redondos), resulta que en 2010  los gallegos quemamos en transporte 8,44 E16 J ¡¡130.000 veces más energía que la suma de todos los terremotos de Galicia en 10 años!! Bastaría con que un uno por mil de este gasto energético fuese transmitido a la corteza para que esta tomara 130 veces más energía que la liberada por los terremotos en una década. En realidad, la energía que los gallegos transmitimos al subsuelo tan solo haciendo rodar nuestros vehículos seguramente es mucho mayor que la que liberada por todos los terremotos que se generan bajo la superficie de Galicia. Los expertos consideran que un vehículo gasta en rozamiento un 30 % de la energía consumida, (lo que tampoco es extraño ya que sin fricción los coches no podrían acelerar ni frenar -que es lo que pasa cuando patinan sobre hielo, por ejemplo-), así que los gallegos gastamos en quemar rueda -y asfalto- 2,78 E16 J el año 2010, casi cinco mil veces más energía que la liberada por el seísmo de Triacastela de 1997 (magnitud 5,3), que causó una víctima mortal por infartoDesde luego, buena parte de ese rozamiento calienta y desgasta las ruedas y el firme de las carreteras, -como saben muy bien los aficionados a la F1-, pero queda aún una parte de energía que se transmite al terreno en forma de vibración, y considerando las magnitudes involucradas, incluso porcentajes del 1 o el 2 % suman cantidades ingentes de energía. 

Desde luego, Galicia es un rincón de baja sismicidad relativamente urbanizado en el mundo desarrollado, pero el mundo es muy grande y tiene zonas de sísmica muy activa y también enormes desiertos despoblados, y en general está relativamente subdesarrollado, ¿qué pasa entonces?

En todo el mundo, y según las cifras de ocurrencia estimadas por USGS, la energía liberada total por los terremotos en un año ronda los 2,13 E18 J, es decir, unas ¡¡seis milésimas!! de la producida y consumida por el hombre en todo el mundo en 2010, que fue unos 5 E20 J (quinientos trillones de julios). Esto es tan gordo que se necesita tiempo para asimilarlo.

¿Cuánta energía estamos transmitiendo al terreno? Nadie ha calculado todavía, pero el resultado será: mucha en comparación con al energía sísmica de la corteza.

¿Y las consecuencias? De esas sabemos menos aún: al igual que las personas y edificios en las proximidades de las carreteras más transitadas, puede que algunas especies de insectos u otros animales sufran con especial intensidad estas vibraciones y su vida se haya convertido en un infierno; en el mar -donde el sonido viaja con gran facilidad- ya se tienen en cuenta los posibles efectos de las detonaciones geofísicas sobre los mamíferos marinos y otros animales, un efecto que los anglosajones han bautizado como “seismic pollution”; Quizá también, el ruido sísmico pudiera estar en el origen del misterioso zumbido que se puede escuchar en determinadas ocasiones en la orilla del mar. En este caso el océano podría actuar como una caja de resonancia para el ruido sísmico procedente del continente, devolviéndolo a las playas como devuelve la basura que le llega de ríos y alcantarillas.

Lo único que los sismólogos nos dicen sobre el ruido sísmico urbano es que, en su mayor parte, se mitiga en unos pocos kilómetros de viaje a través del subsuelo. Pero puesto que la energía no se crea ni se destruye, esto debe significar que esta energía transmitida se transforma en trabajo mecánico -agrietando las rocas- y/o energía calorífica -calentándolas-, y este es la consecuencia que ahora quiero tratar.

Las ciudades actúan como islas de calor, pudiendo mantener la temperatura local varios grados por encima de las zonas periurbanas, tanto de día como -especialmente- de noche, cuando los tejados y el cemento irradian el calor acumulado. Hasta hace unos años,  lo que la mayor parte de los modelos climáticos hacían y en especial los del IPCC–  era  “corregir” los valores de temperaturas medidos en las ciudades para hacer “cómo si no estuvieran”, considerando los registros de las ciudades como meras anomalías -artefactos- locales, una especie de “ruido térmico”. Estos modelos simplemente ignoraban o minimizaban el hecho  de que las ciudades calientan tanto el aire como el suelo, y en su fijación por el CO2 despreciaban lo evidente: que las ciudades, minas y centros fabriles de todo el mundo son enormes hornos que calientan no solo la atmósfera, sino la corteza bajo ellas y a su alrededor.

No obstante, cada vez más investigadores -aunque todavía pocos- comienzan a tomar conciencia de la magnitud de este calentamiento e incluso proyectan aprovecharlo. En Osaka (Japón),el calor acumulado bajo la ciudad ha alterado el gradiente geotérmico del subsuelo en profundidades de decenas de metros, y un estudio realizado en varias ciudades de Alemania sugiere que acumulan calor desde hace cientos de años. Este tipo de investigación aplicada ya ha permitido evaluar la bolsa de calor acumulada en los acuíferos existentes bajo las ciudades de Colonia (Alemania) o Winnipeg (Canadá) y potencialmente aprovechable por sistemas geotérmicos de baja entalpía de 2,9 a 4,1 E16 J, suficiente como para aliemnatr la calefacción de esas ciudades unos cuentos años y -por seguir con el ejemplo- dos a tres veces  la energía quemada por el transporte terrestre de Galicia en un año.  

La cantidad de energía producida por los humanos en 2010 fue, como vimos, 160 veces mayor que la liberada por todos los  todos los terremotos del planeta, y como demuestran los sismógrafos de todo el mundo -y de Galicia-, buena parte está siendo trasladada al subsuelo terrestre en forma de energía sísmicaPor el momento desconocemos no solo la cuantía de esta transferencia sino también el modo y los ritmos en que esta energía sísmica es liberada y devuelta a la superficie, pero es muy probable el ruido sísmico esté aumentando la temperatura y la difusividad térmica de las rocas en torno a los centros urbanos, mineros e industriales.

Los mecanismos de transmisión de calor en el interior de la tierra son todavía poco conocidos. La falla de San Andrés en California -probablemente la más vigilada del planeta- genera un flujo térmico mucho más débil del esperado por los investigadores, que han bautizado esta aparente anomalía como San Andreas Heat Flow Paradox, una paradoja que se repite en otras muchas fallas a lo largo del planeta. Por otro lado, en Irán, unos geólogos de aquel país han comprobado con mediciones continuadas a lo largo de doce años -de 1992 a 2004-, que unas horas antes de un terremoto se produce un aumento de la difusividad térmica y la temperatura del suelo, que sube unos 0,4 º C.  Este aumento de la temperatura y la difusividad del suelo provoca un instantáneo incremento de la temperatura del aire sobre él. Una vez el tiene lugar el terremoto principal, la temperatura recupera los valores previos. Aunque los investigadores desconocen el detalle de los mecanismos que intervienen en un terremoto, saben que el agua subterránea juega un papel fundamental y suponen que también es muy importante en la transmisión del calor asociado al sismo. De modo previo al terremoto se produce una dilatación mecánica de la roca por la apertura de la microfisuración  -que de otra manera se encuentra cerrada- y en consecuencia aumenta la permeabilidad y la difusividad térmica.

Atendiendo a todos estos indicios, es muy probable que el ruido sísmico de origen urbano e industrial, -que se mueve en frecuencias que van desde los 0,008 a los 45 Hz y en su mayor parte se disipa a los pocos metros a kilómetros de la fuente-, esté generando un continuo difuso de microfisuras y microanomalías térmicas cuyos efectos sobre la temperatura son ya perceptibles a kilómetros de los centros urbanos.

Cada día hay más evidencias que ligan el calentamiento global al efecto local de las islas de calor urbanas. El estudio alemán al que me referí antes, por ejemplo, encuentra una correlación significativa entre la variación de la temperatura superficial de las zonas urbanas y suburbanas con la temperatura de los acuíferos bajo aquellas, y un estudio estadístico de amplio espectro llevado a cabo en más de 300 localidades de California consigue explicar las variaciones locales de temperatura de 1950 al 2000 considerando la urbanización y el uso del agua junto con factores climáticos cíclicos por la influencia del océano Pacífico.

Según el Departamento de Agricultura de los EEUU, entre 1982 y 1997 la superficie urbanizada aumentó un 34 % y a finales de siglo constituía ya el 5 % del país, un área semejante a la de la península Ibérica. Y esta tendencia ha sido general. Entre 1990 y 2000, en solo diez años, la superficie urbana creció cerca de un 15 % en Europa y un 25 % en España. Por supuesto, esta acelerada urbanización requiere una mayor producción y consumo de energía, buena parte de la cual se transfiere al terreno en forma de calor. Esta energía acumulada se libera según ritmos y mecanismos que todavía desconocemos, pero en los que el agua subterránea debe jugar un importante papel. En cualquier caso, el consumo actual de energía es tan descomunal que con la producción de un año podríamos calentar 2,1 ºC los aportes de todos los ríos de la Tierra al mar en ese periodo o subir 10 ºC la temperatura de 23.000 km3 de granito.

Quizá lo estemos haciendo.

 

 

 

 

 

16. A vueltas con el clima, III. Fin del cuento

Las variaciones del CO2 son posteriores a los cambios de temperatura.

El trabajo de Vostok es extraordinario. Cada metro de sondeo hay una medida de temperatura del aire calculada a partir del contenido en deuterio del agua congelada. A distancias irregulares, desde menos de 1 metro hasta un máximo de 74,6, se midió el contenido de CO2 de las minúsculas burbujas de aire atrapado en el hielo. En total para los primeros 3310 metros de sondeo publicados por la NOAA (el sondeo sigue avanzando hoy día)  hay 3302 medidas de temperatura y 363 de CO2.

Para calcular la edad de las medidas, varios científicos construyeron y probaron diversos modelos de acumulación del hielo, y usaron multitud de correlaciones. Como la nieve recién caída es permeable al aire hasta que se entierra y compacta lo suficiente como para formar una densa roca, las medidas de temperatura y CO2 tienen cada una su propia escala temporal, y para una misma profundidad de sondeo, la medida de temperatura atmosférica es siempre más antigua que la de CO2 atmosférico, unos 4066 años más antigua de media.

Así, que teniendo en cuenta todas estas variables, y puesto que cada medida tiene asignada una antigüedad, es posible correlacionar las 363 medidas de CO2 con otras tantas medidas de temperatura de edad parecida. Podemos conseguir pares de medidas de CO2 y temperatura con una diferencia media de edad de 50 años, cuando los lapsos temporales medios entre pares de medidas son de 1149 años. Unos datos de partida excelentes para un periodo que va desde hace 2.300 años hasta hace 417.000. El resultado de esta correlación entre CO2 y temperatura, como sabemos, es inequívoco: R2 de 0,7617.

Y ahora lo mejor. Para cualquier serie temporal de medidas, hay un cierto desfase que podemos admitir en las medidas con sólo una ligera pérdida de información. Por ejemplo, si tomamos los datos de lluvias diarias de un año, y calculamos su correlación con las medidas de lluvias del día siguiente -o del anterior-, lo normal es que tengamos una correlación todavía alta. Más aún para las temperaturas; si correlacionamos las temperaturas de un día con las del día siguiente, lo normal es que la correlación sea alta, pues los cambios de temperatura media diaria suelen ser más graduales que los de precipitaciones. Pero a medida que separemos los días de medida la correlación caerá, midamos temperaturas o precipitaciones. Y en principio, si no hay una relación de causalidad temporal, la pérdida de información será la misma, correlacionemos la temperatura media de un día con la del anterior o con la del siguiente.

Esto lo podemos hacer con dos variables, y es lo que hacemos con la temperatura y el contenido en CO2 atmosférico del sondeo de Vostok. Calculamos la correlación para medidas de temperatura y CO2 de la misma edad, y desplazamos las escalas arriba y debajo. Y el resultado es incontestable: la pérdida de correlación es mucho más rápida si las medidas de CO2 atmosférico anteceden a las medidas de temperatura que si es la temperatura la que antecede. De hecho, la máxima correlación no se obtiene para medidas de la misma edad, sino que son las temperaturas de un milenio antes las que mejor correlacionan con las de CO2 atmosférico. Esto significa que hay un retardo de aproximadamente un milenio (según nuestra gruesa escala de medida, de ± 1 milenio) entre el calentamiento y la expulsión de CO2 a la atmósfera.

Y aún más, la pérdida de correlación de los valores de CO2 es claramente asimétrica, indicando una dependencia de los niveles de CO2 en cualquier momento respecto de los valores de la temperatura en los milenios anteriores. Es decir, existe una inercia del CO2 en la atmósfera causada por el mantenimiento de valores de CO2 –bajos o altos- del pasado.

La liberación o absorción de CO2 es claramente dependiente de la temperatura, y si la máxima correlación tiene lugar dentro del primer milenio siguiente al cambio de temperaturas, el ajuste persiste a lo largo de algunos milenios más.

Documento5 1

13. A vueltas con el clima, II

El sondeo de Vostok muestra una correlación positiva (R2 : 0,77) entre temperatura y CO2. En los últimos 400.000 años, cada vez que el clima terrestre se enfrió, el CO2 atmosférico disminuyó en proporción, y cuando el clima se calentó, también lo hizo el contenido en CO2 de la atmósfera. Esta evidencia incontestable es de signo contrario a la que cada año muestra que el calentamiento veraniego provoca una mayor actividad biológica y la disminución de CO2 en la atmósfera y los océanos.

Los calentólogos vieron la correlación de Vostok, le sumaron que el CO2 es un gas invernadero y concluyeron que el CO2 fue la causa del calentamiento. Es un error tan burdo que ahora tiene que costarles mucho recular. Lo que hicieron al ver que la relación era de signo opuesto fue trastocar también las variables dependiente e independiente de la correlación: hicieron de la causa efecto y del efecto hicieron su causa y su bandera: la causa del CO2.

Es muy fácil probar que en el sondeo Vostok el CO2 sigue a la temperatura y no al revés; lo haré más tarde, ahora vamos al meollo del asunto.

Y el meollo del asunto está en qué pensamos cuando decimos clima terrestre, porque lo que pensamos es clima atmosférico. Porque lo que se midió en Vostok y lo que nos congela hasta es tuétano es la temperatura del aire, no la de la Tierra, ni la de los mares. Quizá si fuésemos bacterias alimentándonos de los sedimentos del fondo del océano veríamos el clima terrestre de otra manera, pero el caso es que somos monos de los espacios abiertos abrasados por el sol, y aún en las cuevas en las que nos refugiamos de la noche es el aire tórrido o frío el que no nos deja dormir.

Y el caso es que la temperatura de la atmósfera es muy importante para nosotros, pero no es gran cosa para la Tierra. La capacidad calorífica del océano, con una masa 262 veces la de la atmósfera y un calor específico cuatro veces superior, es 1000 veces mayor. Esto significa que un enfriamiento del agua del mar de 0,01ºC podría aumentar la temperatura de la atmósfera 10 º C.

La transferencia de calor entre el océano y la atmósfera ocurre todos los días, y es la que crea las brisas marinas del mar a la tierra durante el día, y de noche de la tierra al mar. El efecto modulador del clima oceánico se nota en los relativamente suaves inviernos de las zonas costeras, en las lluvias extremas de los monzones o en las dislocaciones cálidas y húmedas de el Niño. Y es responsable de la sucesión de periodos glaciares e interglaciares.

El océano funciona como una gigantesca bomba de calor, una reserva de energía que acumula calor en los periodos cálidos y los cede a la atmósfera en los fríos. Esta es la base de los sistemas geotérmicos de calefacción de baja entalpía, y es la base de la máquina del clima terrestre.

El océano es también una bomba de CO2. Un tercio del CO2 antropogénico que emitimos se está acumulando en los mares. Aunque la solubilidad del CO2 disminuye al aumentar la temperatura, este efecto es subordinado a la diferencia de presiones parciales entre el océano y la atmósfera. La presión parcial gobierna los gases ideales y es función de la temperatura, pero en los gases reales de la atmósfera el equivalente de la presión parcial es la fugacidad del gas, en la que influyen la temperatura y otros factores del intercambio como la velocidad del viento. Este simple mecanismo físico es el que explica la transferencia de de CO2 entre la atmósfera y el océano y que regula su equilibrio conforme a la diferencia de temperaturas. Por mucho CO2 que emitamos a la atmósfera, en unos cientos de años la bomba oceánica se lo habrá tragado para volver al nivel de equilibrio.

Pero vamos al meollo del clima y dejemos por el momento el asunto menor del CO2. La base del clima terrestre es la relación entre el fogón solar y nuestra bomba geotérmica oceánica. La cuestión es ligar uno y otro. Lo haré para el registro de Vostok. No será tan aparente como los modelos del IPCC, pero es correcto, y cualquier puede hacerlo con una simple hoja de cálculo.

La radiación que recibe la Tierra del Sol está modulada por los ciclos orbitales terrestres. Son ciclos que con periodos de decenas de miles de años van modificando la excentricidad de la órbita o la inclinación del eje y alteran tanto la cantidad total de radiación recibida como su distribución, haciendo, por ejemplo, que las diferencias estacionales sean mayores y menores, al extremar o minimizar la insolación veraniega frente a la invernal. El caso es que la principal de estas oscilaciones tiene un periodo de 40.000 años, pero la historia climática de los últimos 400.000 años se acomoda más a una oscilación de 100.000. Para explicar este desparejamiento se han propuesto causas extraterrestres y terrestres, y entre ellas el efecto invernadero del CO2. Si establecemos la correlación directa entre radiación solar y temperatura, cualquier otro posible agente intermediario -extraterrestre o intraterrestre- será superfluo.

Empezamos por los datos de insolación, que en principio tienen bastante poco que ver con el registros de temperaturas de Vostok. Hago el ajuste con los datos de insolación de un punto situado a latitud 65 º del hemisferio norte, aunque cualquier otro punto serviría igual, pues su modulación es pareja. Los datos de radiación vienen por milenio, así que calculo la media de temperaturas para cada milenio en el registro de Vostok.

El paso siguiente es calcular el incremento de radiación en cada milenio. Tan solo hay que restar la radiación de un milenio a la del milenio siguiente. El valor es positivo cuando la radiación aumenta y negativo cuando disminuye. Y ahora, promediamos las temperaturas de las fases ascendentes (∆T>0) y descendentes de los ciclos (∆T<0), y lo hacemos milenio a milenio. Como estos semiperiodos oscilan entre 19 y 22 milenios, el promediado que hago a un semiperiodo medio de 20 milenios es algo pedestre, pero incluso así funciona. Como resultado, tenemos el ciclo promedio de temperaturas y radiación solar para los últimos 422.000 años.  

La fase de ascenso de la insolación a latitud 65º se corresponde con las temperaturas más bajas, y la fase de descenso de insolación coincide con las temperaturas altas. Pero no es determinante; para cada latitud las temperaturas altas y bajas coincidirán con una parte del ciclo de insolación solar. Por ejemplo, a 15º la fase ascendente coincidiría con las temperaturas altas, y la descendente con las bajas. Lo concluyente es que la relación entre la radiación solar y temperatura media de la Tierra está establecida, con los ramales de ascenso y descenso independientes y formando una curva cerrada, es decir, con estructura de ciclo.

Para medir la fortaleza estadística de la relación, compramos los valores del incremento de radiación media y la temperatura promedio. El valor de R2 es de 0,87. Pero además se puede advertir que los valores se distribuyen según dos correlaciones semejantes pero ligeramente desplazadas. Los valores de R2 de estas correlaciones son de 0,95 y 0,97, y se corresponden con la parte baja y alta del ciclo de radiación solar, es decir, con los semiperiodos de ascenso y descenso de las temperaturas.

A partir de las correlaciones establecidas, convertimos el ciclo de radiación en un ciclo de temperaturas, y lo superponemos a las temperaturas registradas en Vostok. El resultado es clarificador.

No hace falta modificar las condiciones químicas de la atmósfera y su capacidad invernadero, pues las variaciones cíclicas de la temperatura atmosférica se explican mediante transferencias de calor en el tiempo, exactamente como ocurre con las brisas, los mozones y el fenómeno de el Niño, solo que a una escala temporal mucho mayor, sobre un ciclo base de 40.000 años. Los interglaciares se sobreponen a algunos periodos cálidos del ciclo de temperaturas, mientras que las fases más frías coinciden siempre con los senos del ciclo de temperaturas calculadas. El proceso tiene la factura de los procesos estocásticos, y de hecho, se aprecia que en torno al periodo 7 hubo un cambio en la recurrencia del fenómeno interglaciar, que pasó de aparecer cada 2 periodos a cada 3. En esta última secuencia de tres periodos, durante el primero (3 y 6) la temperatura atmosférica se acomoda a la energía irradiada por el Sol, durante el segundo (2 y 5) la energía irradiada se transfiere al océano y es liberada en el tercero (4 y 1).

12. A vueltas con el clima, I

Recuerdo que en la Facultad de Geología los problemas y ejercicios más diversos comenzaban por la fórmula: Tomada una muestra representativa Aquello sonaba a chamusquina y lo era, porque la cuestión fundamental de los problemas geológicos es, precisamente, el de la representatividad: elegir la muestra representativa y saber de qué es representativa.

El caso es que una vez tienes la muestra representativa en la mano, el problema está resuelto. Lo que queda es trabajo. La muestra representativa es la que te da la ley de la mina, la antigüedad de la capa, el origen del sedimento, o la composición del aire atrapado en la burbuja. A lo largo de los años, he visto una y otra vez a  geólogos que desdeñaban o seleccionaban sin mayores reparos muestras y medidas tomadas en el campo y con las que luego –ya en laboratorio o en la mesa de trabajo- pasaban a realizar concienzudos y detalladísimos análisis con siete decimales. Así, una micromedida tomada con ayuda de un microscopio electrónico sirve para decidir la temperatura de solidificación de un granito de varios de kilómetros cúbicos porque la muestra era representativa.

Por supuesto, toda medida es más o menos representativa, pero hay que saber de qué. El quiz está en comprender el factor de escala entre la muestra y el proceso. No se trata tanto de si lo medido es común o raro, grande o pequeño, sino de entender el significado de los procesos que determinaron su concentración o dispersión, su ubicuidad o su rareza. Por ejemplo, muchas mineralizaciones metálicas se encuentran asociadas a filones, así que los geólogos en el campo muestrean las fracturas y sus rellenos y se olvidan de lo demás. Pero al final, para determinar la viabilidad minera, lo que no se puede olvidar son las condiciones de representatividad de la muestra y que en este ejemplo vendrían limitadas a la extensión del cortejo filoniano.

Las mejores lecciones que nos enseñaron en la Facultad, las que todavía recuerdo, son las historias de proyectos mineros fracasados porque alguien se había olvidado de las condiciones de representatividad de las muestras, de fantásticas reconstrucciones paleoclimáticas del Cuaternario a partir de los sedimentos acumulados en embalses romanos, o de poblaciones envenenadas porque solo se atendió a la zona superior del acuífero, la más cercana a la superficie.

No hay reglas fijas para delimitar la representatividad de una medida. Los condicionantes del muestreo varían desde la simple incompetencia a la escasez de recursos, la comodidad, las dificultades de acceso, las particulares preferencias, o incluso la costumbre. A veces se imponen preferencias inconfesables o interesadas, pero en otras ocasiones simplemente se desconoce el alcance de lo que se muestrea. Y siempre puede haber sorpresas.

El carbono es relativamente abundante en la corteza, pues constituye un 1,2 % de su masa, pero es tan sólo el 0,009 % de la atmósfera, y es menos abundante aún en los océanos, donde supone solo un 0,0028 %. Y eso que el carbono es un elemento ligero y atmófilo, es decir, que tiende a constituirse como gas -el CO2– y enriquecer así la atmósfera. La razón de esta aparente inconsistencia es que los seres vivos fijamos el carbono y lo enterramos a buen recaudo en la  corteza terrestre, como un perro con su preciado hueso. Así pues, el secuestro del carbono por los seres vivos es el proceso dominante y debe ser el factor decisivo para interpretar la representatividad de una medida de CO2.

Los célebres registros del Mauna Loa y de otros muchos sitios– recogen desde hace décadas la recurrente  disminución del CO2 atmosférico cada verano y su recuperación invernal. La causa es la mayor actividad fotosintética de las plantas en verano y la degradación de la materia orgánica en invierno. Esto se nota sobre todo en el hemisferio norte, pues lo provocan las plantas terrestres, y la mayor parte de las masas continentales está en este hemisferio. En cualquier caso, la secuencia de causas y efectos es: mayor temperatura (radiación solar) → más actividad fotosintética → menos CO2 en la atmósfera.

En cambio, carecemos de registros comparables de los océanos. La causa es que somos criaturas terrestres y nos resulta mucho más costoso hacer aquellas medidas. Y más cuanta más agua encima menos información. De modo que tenemos un conocimiento más o menos aproximado de los procesos del CO2 en la superficie de los océanos, pero este conocimiento disminuye con la profundidad. Además, los procesos de difusión del CO2 en el agua son más lentos y complejos que en la atmósfera [1], por lo que la compartimentación es mayor y las medidas de una zona son menos representativas de lo que ocurre en todo el océano. Aún así, sabemos que, como las plantas terrestres, el fitoplancton marino aumenta su actividad en primavera, cuando hay más la luz solar (y sube la temperatura del aire y de la capa de agua más superficial, aunque esto al fitoplácton no le importa). Para crecer y alimentar su mayor metabolismo el fitoplancton toma CO2 del agua, con lo que también disminuye el CO2 disuelto [1] [2]. De nuevo, la secuencia de causas y efectos es: más luz solar (más temperatura) → más actividad fotosintética → menos CO2 en el agua.

A pesar de que nos refugiamos del frío en cavernas, como especie pertenecemos a los espacios abiertos. Así que del balance de CO2 en la corteza sabemos aún menos que del mar. Por un lado, el enterramiento de CO2 en la corteza terrestre se produce fijado como materia orgánica y por tanto está ligado a la productividad biológica, principalmente en mares y océanos. Del otro lado, la emisión de CO2 tiene lugar en regiones volcánicas en gigantescos eventos explosivos y de forma más o menos continuada a través de grietas o fumarolas, y fuera de estas regiones existe una emisión difusa quizá de menor entidad, también ligada a fracturas profundas. Además existe una emisión de CO2 por oxidación bacteriana de sedimentos y rocas de la que apenas sabemos nada [1] [2] [3] [4]…, y una emisión controlada por la variación de las condiciones de presión y temperatura del CO2 atrapado en suelos y rocas [1] [2]. Todas estas medidas suman los inconvenientes del acceso a medios tan inhóspitos como zonas volcánicas o el fondo de los océanos y los de una extrema segmentación.

En la atmósfera y en el océano, el aumento de la temperatura, o mejor de la luz solar, tiene como consecuencia la disminución del CO2 porque los seres vivos lo fijan y la entierran. Este es el proceso conocido. Es simple y está contrastado. Si eliminamos la temperatura como causa, no sabemos de ningún otro mecanismo que justifique las variaciones cíclicas de CO2.

A menudo se dice que los negacionistas del CO2 y el calentamiento global -entre los que me encuentro- somos una pandilla de indocumentados conspiranoides al servicio de petroleras y otros oscuros intereses económicos, y así se quiere desacreditar la evidencia que liga la temperatura a la actividad biológica y ésta a la fijación del CO2; por este orden. Del mismo modo, los calentólogos niegan que su fiebre esté alimentada por una camarilla de políticos-burócratas y organismos internacionales con nulo control democrático, que alientan la acción impositiva y reguladora de los Estados para aumentar su propio poder sustrayendo a los individuos sus derechos para resolver libremente sus propios problemas, e incluso para decidir cuáles son los problemas que quieren contribuir a resolver. Hay quien piensa que estas disputas son ajenas al debate científico y que no hacen sino embrollar el problema, pero en mi opinión están en el centro mismo del problema pues plantean la cuestión fundamental de la representatividad.

Pero el alcance e implicaciones de la disputa no se pueden entender sin atender a la naturaleza del asunto en cuestión: es una disputa por la materia de nuestra mismo ser.

Un tercio de nuestro peso es carbono. Nos relacionamos con otras personas de carbono, tenemos hijos de carbono y nos gusta verlo en nuestros jardines. Comemos carbono. Nos calentamos quemándolo,  y se lo damos a nuestros coches para desplazarnos. Por eso lo valoramos como el más preciado bien económico. Pero como nos ocurre con la comida, el carbono que excretamos es sucio. Nos disgusta la materia putrefacta, los fangos orgánicos de marismas y pantanos, donde se acumulan los desechos de organismos. Tememos la carne muerta, todo lo que huela a pérdida de carbono. Y como no somos plantas, esto incluye también al CO2.

Los humanos consumimos y evacuamos cada año una cantidad de carbono equivalente de más de 100 veces nuestra propia biomasa, y ya somos una de las mayores biomasas específicas del planeta. De modo que nos debatimos angustiados porque escasea el carbono para calentarnos y mover nuestros coches y estamos asqueados por todo el carbono que expelemos.

La disputa sobre el calentamiento global y sus causas se ha convertido en el centro del debate sobre cómo gestionar nuestro apetito, cuánto, cómo y qué debemos o podemos comer y excretar. Esta es una vieja querella sobre obligaciones y libertades, tabú y responsabilidad. Esta es la controversia científica de mayor alcance desde que en el siglo XIX se planteó si el mundo y nosotros mismos éramos el resultado de un plan divino o la espontánea consecuencia de un juego de azar. Pues bien, somos inteligentes y estamos en medio de un juego. Y lo que ahora está en juego es si la estrategia la decide una escogida representación de nuestra inteligencia, o bien la decidimos todos, porque al fin todos nos la jugamos.

11. Por qué NO creo que el CO2 sea el agente del cambio climático.

La Geología es una ciencia muy poco matematizada. A diferencia de lo que ocurre en los abordajes de la Física, la Química, o incluso de la Biología, pocos procesos geológicos pueden ser reducidos a una formulación matemática estándar. Los modelos geológicos suelen ser poco más que ejemplos, secuencias de acontecimientos o conjuntos de características –facies– de utilidad taxonómica y descriptiva, pero casi nunca prospectiva. Fuera de su ámbito estricto, los modelos geológicos tienen un alcance escaso y dudoso, y extrapolar las consecuencias de un modelo –lo que en suma es generalizar- resulta siempre arriesgado, cuando no contraproducente. Podríamos decir que la incertidumbre asociada a cualquier tipo o ejemplo geológico suele crecer en un orden superior a la de su extensión temporal o geográfica, y que la utilidad del modelo disminuye en un orden superior a su concreción. Vamos, lo que se dice matar moscas a cañonazos.

Por poner un ejemplo simple de un modelo conocido y contrastado, tomemos una de las relaciones logarítmicas que existen entre las diversas variables hidrográficas de un río: el caudal de un río a lo largo de un cauce es (suele ser) función logarítmica de la longitud del cauce medido. Bien. Esto es (suele ser) cierto. Pero también lo es que esta función cambia de un río a otro, y (de modo general) cambia más cuanto más alejadas están las cuencas, pues el régimen de lluvias o la configuración de las cuencas varía más al cambiar el clima y el relieve. Así que si medimos un río podemos extrapolar con cierta seguridad los resultados al vecino, pero con muy poca a otro río mucho más lejano, o si medimos el caudal de un gran río en su desembocadura, los resultados poco nos dirán del pequeño afluente que vierte en él sus aguas en las montañas a miles de kilómetros. Estas irregularidades hacen que las generalizaciones matemáticas sean de muy poco provecho en Geología.

Además de esta incapacidad matemática, la Geología es, por razones obvias y con diferencia, la menos experimental de las ciencias naturales. Resulta muy difícil –cuando no imposible- reproducir en un laboratorio los procesos geológicos, y sobre todo, su escala temporal. A pesar de que el actualismo haya sido desde los principios de esta ciencia una guía de enorme ayuda para desentrañar y reconstruir la historia del planeta, el presente es, apenas, una capa de polvo en la superficie terrestre. Así que, en vez de  reproducir en laboratorio el choque de continentes, el plegamiento de las capas geológicas o la evolución de las especies, los geologos experimentales construyen modelos teóricos, modelos que a los propios geólogos nos resultan casi siempre sospechosos y por los que no solemos mostrar gran aprecio y sí escepticismo, por las razones ya expuestas.

En compensación de estas carencias, la Geología es con mucho la ciencia más empírica de todas. Una medida bien hecha, un pequeño afloramiento, el registro de un fósil es para los geólogos el argumento definitivo. Para nosotros, el hecho, el dato contrastado, es mucho más fuerte que cualquier experimento o cualquier modelo teórico. De este modo –creo-, los geólogos somos tercos en la evidencia y escépticos ante la teoría.

Y aquí entra el CO2. Una de las evidencias más notables que he visto jamás en Geología es la cerrada correlación entre CO2 y temperatura medidas en el sondeo del hielo austral de la base Vostok [1] [2] Este sondeo extraordinario, cuya realización y completa medición supuso más de dos décadas de intenso trabajo, es el principal fundamento empírico de la relación entre CO2 y temperatura del aire. Y aquí es donde radica mi escepticismo, pues si la evidencia es incontestable, la interpretación de que el CO2 es la variable independiente de la correlación es gratuita, absurda e increible. Me he tomado la molestia de calcular la correlación entre las medidas de CO2 atmosférico y temperatura relativa de los registros de Vostok. Lo he hecho año a año según la escala temporal propuesta para las mediciones. El valor R2 de la correlación es de 0,76. Según la teoría, esto significa que un 76 % de la variación de la temperatura se explica por las variaciones en el contenido atmosférico de CO2. Y esto es simplemente absurdo. Según la NOAA, – por poner una referencia- las variaciones de la temperatura de la Tierra dependen de las variaciones orbitales, de la variabilidad solar, de los aerosoles volcánicos, de los aerosoles troposféricos y los gases traza atmosféricos –los famosos gases de efecto invernadero, que incluyen el metano –CH4– y el anhídrido carbónico, –CO2–. Muchos modelos climáticos incluyen también la vegetación, el albedo, el vapor de agua, el tipo de nube, el niño, la niña… ¿Pero para qué haría falta todo esto si ya tenemos explicado un 76 % de la variabilidad de la temperatura?

Lo curiosísimo es que, en la práctica y a pesar de lo que se diga, nadie cree de verdad que la variación del CO2 en la atmósfera cause de forma directa o indirecta del 76 % de la variación de la temperatura. Ni siquiera el ICCP. Y por eso, para poder explicar esa coincidencia del 76 % entre la temperatura y el CO2 de y mantener la milonga del CO2  antropogénico como causa del calentamiento global, se han inventado las famosas –y socorridas- retroalimentaciones.

El problema es: si el clima es tan complejo y todas las variables son dependientes unas de otras ¿cuánto de aquel 76 % de variación de la temperatura en los últimos 400.000 años se puede atribuir al CO2? ¿La mitad? ¿Un tercio? ¿El uno por cien? Lo cierto es que, por el momento, ninguna evidencia geológica contesta a esta pregunta. Pero si aplicáramos la correlación de Vostok al CO2 atmosférico actual, la temperatura debería ser hoy… ¡atención!!! ¡¡unos 14 º C mayor que hace un siglo!!! Y los del IPCC preocupados por unos miserables 0,8 ºC. Se me dirá que la correlación de Vostok no se puede usar para calcular el efecto de la concentración de CO2 en la temperatura global, pero entonces ¿se puede usar como prueba de los efectos del CO2 en el clima terrestre?

8. ¿Podría firmar este manifiesto a favor del Carbonífero?

Estos días anda suelta por ahí la noticia de un colega (¡ay,ay, ay..!) que quiere encerrase 48 horas en una urna con plantas para recordarnos lo buena que es la fotosíntesis, que nos da el oxígeno que respiramos.

Aparte de lo chorras del asunto (pero muy apropiado para llamar la atención de los medios y dar temita.., hay que reconocerlo),estas reivindicaciones a favor/en contra me hacen más o menos gracia dependiendo del humor con qué me pillen, pero siempre me causan una gran perplejidad, porque, de verdad!, yo con la fotosíntesis…bueno, pues vale!, pero.. ¡con sentidiño! Porque estas campañas a favor de los bosques o contra el cáncer, contra el cambio climático o a favor de la vida suelen andar muy escasas de sentidiño.

Y es que el sentido de la fotosíntesis no es liberar oxígeno, sino fijar carbono. Por cada átomo de carbono fijado, las plantas -que son quienes hacen este trabajiño- liberan una molécula de O2 (y consumen una de agua). Aunque luego vuelvan a respirar parte de este oxigeno, el balance final es que el oxígeno sobra y deben expulsarlo, es decir, que el oxígeno es un residuo de la fotosíntesis; una basurilla, vamos, una caca.

En nuestro planeta hay residuos y residuos… Muchos yacimientos metálicos, por ejemplo, se forman como residuos de la solidificación de magmas. El oro, metal noble donde los haya, se concentra en los últimos fluidos de los magmas graníticos precisamente por su nobleza, que es su incapacidad para ligarse a otros elementos y formar minerales. De esta forma, a pesar de que su punto de fusión (y solidificación) supera los 1000 ºC, permanece (como si se tratase de posos de café) en los fluidos del magma a medida que se solidifica, y de este modo su concentración se enriquece para quedar finalmente asociado a las vetas de cuarzo, que cristalizan a unos 550 ºC. Gracias a su nobleza, el oro –que es rarísimo en la corteza terrestre- se enriquece como residuo y podemos minar sus caquillas, que por raras, son tan valiosas.

Eso el oro, porque el oxígeno es una basurilla muy común. El oxígeno es, de hecho, el elemento más común de la corteza terrestre, de la que supone casi la mitad de su masa. Así que el oxígeno es una basurilla muy poco valiosa, y por encima es lo más rastrero que hay; vamos, que se queda pegado a todo y a todos, y forma óxidos con casi cualquier metal o no metal que se le ponga por delante, que tanto le da carne que pescado. En realidad, la corteza terrestre -la litosfera- es una capa de minerales oxidados –litófilos-, minerales formados por elementos con especial afinidad por el oxígeno.

La atmósfera original de la Tierra no tenía gota de oxígeno (todo lo más, media gota). Y pese a ello la vida surgió. Incluso hay quien cree que la vida no pudiera haber brotado en una atmósfera como la actual, pues el oxígeno es demasiado reactivo y enseguida habría oxidado y degradado las delicadas y largas moléculas de carbono que están en origen de la vida y que deben ser protegidas por otras moléculas más resistentes formando capas y membranas, Al fin y al cabo, nuestra piel no es sino una coraza de células muertas y execrencias varias, y cualquier quiebra de esa coraza es una herida abierta. Todo el ciclo de la respiración –los famosos ciclos de Krebs y el otro- no son sino vueltas y revueltas para no tratar de forma directa con el oxígeno, peligroso comburente. Respirar es romper los enlaces de las moléculas orgánicas y aprovechar su energía y para hacerlo los organismos usan los electrones del oxígeno (o del azufre o incluso del hierro ferroso) con los cuales completan los orbitales antes compartidos. La diferencia entre respirar y combustionar es la misma que existe entre una explosión atómica y hacer funcionar una central nuclear, se trata de mantener el control del proceso. En este sentido, la quema de combustibles fósiles es equivalente a una gran exhalación.

Y ahora, ¿qué es lo que tenemos en nuestra atmósfera?: Pues tenemos un 21 % de oxígeno y un 0,03 % de CO2. Y la culpa no es del chachachá, es cosa de la fotosíntesis. Venus y Marte, nuestros planetas vecinos, tienen ambos atmósferas anóxicas compuestas en un 95 % por CO2, que es la atmósfera que posiblemente tendría la Tierra de no ser por la fotosíntesis. Y entonces ¿dónde está el carbono terrestre? Pues en su mayor parte está enterrado en la corteza, puesto a buen recaudo por las plantas. La masa de la Tierra es de unos 6 1012 GT, y la corteza terrestre es el 0,04 % de la masa total, unas 2,4 109 GT. El carbono es aproximadamente un 0,1 % de la corteza, unas 2,4 106 GT. Ahora bien, esto es más o menos lo que pesa la atmósfera terrestre (5,1 106 GT), de este modo tenemos que la práctica totalidad del carbono de la atmósfera primitiva de la Tierra fue secuestrado por las plantas fotosintéticas y escondido en la corteza.

Esconder el carbono es una excelente estrategia de competencia y aniquilación, el tipo de maniobra implacable que tanto gusta a los biólogos evolutivos y otros moralistas económicos: reduce la disponibilidad de lo necesario –el carbono- y genera a su alrededor un ambiente excitable y sumamente corrosivo, una venenosa atmósfera de oxígeno. Y por si todo esto fuera poco, la atmósfera de oxígeno supone un beneficio general para la vida en la Tierra, pues al ser el O2 más ligero que el inocuo CO2, (aunque no que el venenoso CO), lo mantiene pegadito a la superficie terrestre, impidiendo que el preciado carbono pueda escapar al espacio exterior.

Así pues, como si de un perro con su preciado su hueso se tratase, las plantas han enterrado 2.400.000 GT de carbono y sólo quedan en la atmósfera 750 GT de este carbono (atmófilo donde los haya), poco más que las 560 GT que forman la materia viva de la Tierra.

En expresión resumida, la fotosíntesis puede expresarse como sigue:

6 CO2 + 6 H2O + luz → C6H12O6 + calor

El caso es que la disponibilidad de CO2 es el principal factor limitante de la producción biológica del planeta.

Para el conjunto de la biosfera, el aprovechamiento de la energía solar es del 0,1 % de la energía lumínica disponible, y aunque el agua es escasa en muchas áreas continentales, en conjunto, el aprovechamiento de los recursos hídricos disponibles apenas alcanza el 1 % del total, pues las precipitaciones sobre los continentes (unos 110.000 km3) multiplican por cien el volumen de agua en la biomasa terrestre (unos 1.120 km3) y para el 70 % de la superficie del planeta ocupada por mares, la disponibilidad de agua es, simplemente, total. En contraste con esta hiperabundancia de luz y agua, el carbono disponible en la atmósfera (750 GT) apenas multiplica por quince la demanda anual de carbono para producción primaria terrestre (50 GT).

La escasez de CO2 en los ecosistemas terrestres es una buena explicación para la ineficiencia del propio proceso fotosintético, que tiene un rendimiento medio del 1 % en la transformación de la energía lumínica en energía química, mientras que los  actuales paneles fotovoltaicos presentan rendimientos cercanos al 20 % en conversión energética. La clave del bajo rendimiento fotosintético es la escasa actividad de la enzima Rubisco, que cataliza la condensación de tres moléculas de CO2 por segundo, mientras que la mayoría de las enzimas unen alrededor de mil moléculas de sustrato por segundo. La Rubisco es la enzima más abundante de la biosfera al constituir alrededor del 50% de la proteína soluble de las hojas de las plantas,  y es la variable interna de mayor influencia sobre la fijación de CO2.

La mayor disponibilidad de carbono en los océanos (38.000 GT, un 2 % en forma de CO2 disuelto y el resto como bicarbonato), podría explicar también la enorme productividad primaria de la biomasa marina, que con apenas un 10 % de la biomasa terrestre (50 y 560 GT CO2 respectivamente) genera la mitad de la  producción primaria, es decir una productividad diez veces superior a la terrestre.

El afán de las plantas fotosintéticas por secuestrar carbono mantiene en la atmósfera lo que posiblemente es una mínima reserva  de CO para asegurar el nivel de producción primaria. Por supuesto, sólo una pequeña parte (quizas un 0,2-1 %) de la producción primaria es definitivamente enterrada en la litosfera, mientras que el resto es de nuevo degradada y reincoporada a las reservas atmosféricas de CO2, pero con un consumo anual bruto de 1/15 de las reservas atmosféricas, la disponibilidad de carbono parece sumamente dependiente incluso de una pequeña pérdida del 0,2-1 % anual. En el océano, contando con que el carbono en forma de CO2 sea un 5 % del total y el resto bicarbonato, el consumo bruto anual puede rondar el 1/40 del carbono asimilable y la reserva de carbono en forma de bicarbonatos es aquí considerable, pero su conversión es siempre más lenta y podría verse afectada por la elevación del pH derivada de una rápida caída en la presión parcial del CO2. A corto plazo -al menos en una escala geológica- la continuidad de la vida sobre la Tierra parece depender de un aporte estable de CO2 desde la litosfera y en equilibrio con la sedimentación.

En este momento no hay ningún mecanismo que explique cómo las emisiones de volcánicas de CO2 y la meteorización de las rocas carbonatadas puedan haber alcanzado un equilibrio dinámico con la sedimentación de carbonoo siquiera si este equilibrio o se mantuvo o se alcanzó en algún momento del pasado. Sin embargo este es un supuesto habitual, y puede encontrase en cualquier informe oficial, como este del USGS:

Before human influences, transfers were approximately equalized so that the amount of CO2 in the atmosphere had remained nearly constant for thousands of years

Pero incluso una pequeña diferencia anual de -0,2 GT (un error bastante menor que las desaparecidas 1-3 GT de CO2 antropogénico) entre el carbono sedimentado y el emitido por volcanes y la meteorización de los carbonatos pueden convertirse en una pérdida de 2.000 GT en sólo 10.000 años y en 20.000 GT -la mitad del carbono de la superficie terrestre- en 100.000 años, provocando un colapso biológico y ambiental grabado en el registro geológico como una súbita e intempestiva extinción masiva. Puede que semejante a lo ocurrido a finales del Carbonífero.

Y hablando del Carbonífero, período de extensos bosques y un insuperable record del 35 % de oxígeno en la atmósfera, vuelvo a la campaña pro-oxigenación atmosférica de mi querido colega Ian Stewart. Un objetivo realista pero mesurable, significativo a escala planetaria y que constituya un patrimonio para las generaciones venideras, quizá  sería aumentar un 1 % la masa de oxígeno en la atmósfera en el plazo de una generación. El oxígeno constituye un 23 % de la masa atmosférica, es decir algo más de 1,2 106 GT, y un 1% son 12.000 GT. Como para liberar 2 átomos de oxígeno hay que fijar 1 átomo de carbono, resulta que aumentar ese 1 % de oxígeno en el término de una generación (digamos… en 20 años) equivale a fijar 4.500 GT de carbón, o sea, 225 GT por año. Lo malo es que, como hemos visto, en la atmósfera solo hay unas 750 GT de CO2 , así que el tercer año de nuestro proyecto agotaríamos el carbono atmosférico y todas las plantas del planeta dejarían de crecer. ¡¡Sin duda un Carbonífero relámpago!!