fbpx
Conecta con nosotros

Ciencia

La clave para gestionar las redes eléctricas del futuro, el hidrógeno

Avatar

Publicado

el

Paneles solares
 

Es una verdad universalmente admitida que las fuentes energéticas de la humanidad deben ser de carácter renovable. Lo que nos conduce a un uso creciente de las energías eólica y solar fotovoltaica. Estas últimas son actualmente las más desarrolladas y las más competitivas respecto a otras alternativas no sostenibles.

La forma práctica de usar estas fuentes de energía es su transformación en electricidad. Por ello, cualquier país suficientemente avanzado tenderá a la electrificación del sistema energético en los próximos años.

Sin embargo, la gestión de una red eléctrica basada en energías renovables no es sencilla, dado su carácter intermitente. No solo hay que gestionar el ciclo día-noche de la solar fotovoltaica, sino también los ciclos estacionales verano-invierno.

Es necesario almacenar la energía en periodos en los que existan excedentes. De esta forma, se podrán usar en momentos en los que la disponibilidad de energía es menor (menos viento o menos radiación solar en invierno).

Existen diferentes métodos de almacenamiento de energía eléctrica, como las baterías o el bombeo hidráulico. La mayor parte de ellos no permiten cubrir la demanda necesaria o no permiten el almacenamiento a largo plazo de grandes cantidades de energía. Pero existe un vector energético que sí permite ser almacenado y distribuido cumpliendo estos requisitos: el hidrógeno.

Producción y almacenamiento del hidrógeno


El proceso de producción de hidrógeno a partir de la energía eléctrica es conocido como electrolisis. Se realiza aplicando corriente eléctrica al agua, separando así sus elementos: hidrógeno y oxígeno. De esta forma, la electricidad renovable producida se almacena en forma de hidrógeno.

Cuando es necesario disponer de nuevo de electricidad, es posible realizar el proceso inverso: alimentando una pila de combustible con el hidrógeno almacenado se obtiene la electricidad que requerimos, produciéndose también agua.

Existen diversas formas de almacenar hidrógeno, pero la más utilizada actualmente son los depósitos a alta presión. La presión estándar de almacenamiento es 700 bar (unas 700 veces la presión atmosférica). Su uso es seguro gracias a los avances de los últimos años en tecnología de materiales. Podemos almacenar grandes cantidades de energía durante largos periodos de tiempo y, por tanto, gestionar la red eléctrica.

Más allá de la electricidad


Existen otros usos de este hidrógeno renovable diferentes de la electricidad, como los de empresas que requieren calor industrial de calidad. Incluso es posible usar la red de distribución de gas natural inyectando en ella gas de origen renovable.

Esquema de almacenaje y distribución directa (línea azul) o a través de la red de gas natural (línea roja) de hidrógeno renovable.
International Renewable Energy Agency (IRENA)

La eficiencia de los electrolizadores y las pilas de combustible suele ser alta, entre el 70 y 90 %, dependiendo de la tecnología usada. El uso directo de la electricidad renovable no tendría ninguna pérdida. Pero, si es necesario almacenarla, la tecnología del hidrógeno resulta ser la más efectiva.

Aplicaciones en transporte


Las primeras aplicaciones del hidrógeno como vector energético se están produciendo en el sector del transporte. Desde 2015 existen en el mercado vehículos eléctricos, como el Toyota Mirai o el Hyundai Nexo.

En los coches, la electricidad se produce en una pila de combustible alimentada por un depósito de hidrógeno. El repostaje del hidrógeno se realiza en una estación se servicio de forma muy similar a como se realiza con otros combustibles. Un tiempo de repostaje de entre 3 y 5 minutos permite una autonomía cercana a los 700 km.

Países como Japón (con más de 100 estaciones de servicio de hidrógeno) o Alemania (con 50 estaciones de servicio) se encuentran a la vanguardia de la tecnología.

Recarga del depósito de un Hyundai NEXO.
Hyundai

Aunque en Europa se considera una tecnología prioritaria desde hace unos años, en España no existe aún ninguna estación de servicio de hidrógeno abierta al público de forma similar a como existen en otros países europeos. Desde la Asociación Española del Hidrógeno estamos trabajando para que esta situación cambie.

¿El futuro ya está aquí?


La tecnología ha llegado a su desarrollo comercial en esta última década. Pero los próximos años traerán las mejoras necesarias para que su expansión sea posible.

El precio actual de la producción de hidrógeno se sitúa en unos 8 €/kg y el depósito de los vehículos comerciales contiene unos 6 kg de hidrógeno. Esto supone que el precio de llenar un depósito es similar al de la gasolina o el diésel. Sin embargo, el coste del hidrógeno disminuirá aún más en los próximos años.

En los Juegos Olímpicos de 2020 en Tokyo, la organización ha apostado por un transporte eléctrico basado en el hidrógeno. Será un gran impulso para esta tecnología y un incentivo para que los costes sean aún más bajos.

También se esperan mejoras en la tecnología de la electrolisis del agua y en la aplicación práctica de otros procesos nuevos, como la fotólisis directa del agua con luz solar.

En busca de materiales alternativos


Las nuevas tecnologías suelen generar un problema de aumento de la demanda de materiales estratégicos. Éstos son materiales escasos o que se producen en pocos lugares en el mundo. En el caso de los coches eléctricos de baterías, el litio y el cobalto son los materiales estratégicos. Para los electrolizadores y las pilas de combustible, es el platino. Aun así, la cantidad necesaria de platino no es muy superior a la de metales nobles de los tubos de escape de los vehículos de combustión interna.

Los grupos de investigación que trabajamos en estas tecnologías tenemos en cuenta este problema. Estamos empezando a tener éxito en el desarrollo de materiales alternativos al platino que sean abundantes y sostenibles. Muy probablemente, los sistemas electroquímicos de los vehículos eléctricos del futuro serán muy diferentes a los actuales.

Una última consideración: la mayor parte del hidrógeno producido actualmente se obtiene a partir de combustibles fósiles. Esto no encaja en el esquema de sostenibilidad descrito en este artículo. Pero en los próximos años veremos cómo se usarán cada vez más las fuentes de energía renovables. El hidrógeno tendrá un papel fundamental en esta transición.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Ciencia

Cómo los mosquitos cambiaron la historia de la humanidad

Avatar

Publicado

el

Entre 1980 y 2010 la malaria acabó con la vida de entre 1 200 000 y 2 780 000 personas cada año, lo que supuso un aumento de casi el 25 % en tres décadas. Según el informe de la OMS correspondiente a 2017, la malaria mató a 435 000 personas (entre 219 millones de casos), de las cuales dos tercios eran menores de cinco años.

Esto significa que es muy posible que la malaria haya matado a más personas que cualquier otra enfermedad a lo largo de la historia.

El historiador Timothy C. Winegard estima en su último libro, The Mosquito: A Human History of Our Deadliest Predator] (El mosquito: una historia humana de nuestro depredador más mortífero), que las hembras de los mosquitos Anopheles han enviado al otro mundo unos 52 000 millones de personas del total de 108 000 millones que han existido a lo largo de la historia de la Tierra.

En el transcurso de la historia el daño provocado por estos minúsculos insectos ha determinado el destino de imperios y naciones, paralizado actividades económicas y decidido el resultado de guerras decisivas. Por el camino, han matado a casi la mitad de la humanidad.

El linaje exterminador de los mosquitos, compuesto por unas tres mil especies, ha desempeñado un papel más importante en la configuración de nuestra historia que cualquier otro organismo del planeta.

La malaria o paludismo se transmite entre los seres humanos a través de mosquitos hembras del género Anopheles, cuyas 465 especies formalmente reconocidas habitan prácticamente en todo el mundo. El de la fotografía, Anopheles gambiae, trasmite el plasmodio más peligroso, Plasmodium falciparum.

Florence Nightingale llamó a las marismas pontinas, cercanas a Roma, «el valle de la sombra de la muerte». Es algo que los cartagineses y los primeros pueblos bárbaros que atacaron Roma ya habían comprobado por sí mismos.

El fin de la segunda Guerra Púnica terminó en las llanuras de Regia con un enfrentamiento entre el general cartaginés Aníbal Barca y el joven Publio Cornelio Escipión el Africano. Aníbal fue derrotado en la batalla de Zama (202 a. C.), que significó el final de un conflicto que había durado diecisiete años.

El declive cartaginés había comenzado mucho antes en las ciénagas pontinas, cuando los mosquitos de la malaria se cebaron con las tropas cartaginesas. El insecto ayudó a proteger a Roma de Aníbal y sus hordas, y proporcionó un trampolín para que sus habitantes dominaran el Mediterráneo.

Los visigodos, dirigidos por el rey Alarico, fueron los primeros bárbaros en atacar Roma. En 408, sus ejércitos sitiaron la ciudad, que tenía aproximadamente un millón de habitantes, en tres ocasiones distintas. En 410, asedió la ciudad por tercera y última vez. Una vez intramuros, sus tropas emprendieron tres días de pillaje, violaciones, destrucción y muerte.

Satisfechos con los estragos y el saqueo, los visigodos abandonaron la ciudad y se dirigieron al sur, dejando tras de sí un rastro de sangre y ruinas. Aunque tenía previsto regresar a Roma para arrasarla de una vez por todas, cuando terminó la campaña del sur las fuerzas de Alarico estaban diezmadas por la malaria. El poderoso rey, el primero en saquear Roma, murió de malaria en el otoño de 410. El mosquito había vuelto a salvar Roma.

Derrotado por una coalición de visigodos y romanos cerca del bosque de las Ardenas en junio de 451, Atila giró sus vociferantes hunos hacia el sur y comenzó una rápida invasión del norte de Italia. A su paso sembraba el pánico, la destrucción y la muerte. Como habían hecho los espartanos en las Termópilas, una pequeña fuerza romana logró detener a los hunos que avanzaban en las tierras pantanosas cercanas al río Po. Unas inesperadas legiones de mosquitos entraron rápidamente en la batalla y frenaron el avance huno. Una vez más, el general Anopheles salvó Roma.

Recordando una página del memorándum del ayudante militar de Aníbal, Atila mantuvo una audiencia con el Papa León I. A pesar de la leyenda de un piadoso papa cristiano que convence al bárbaro Atila para que abandone el asalto de Roma y se retire de Italia, los feroces hunos de Atila habían sido derrotados otra vez por los insectos. La respuesta de Atila a la súplica del Papa no fue más que una artimaña para salvar la cara. Lo más prudente era que el rey de los hunos regresara a la alta estepa más allá del Danubio, fría y seca, donde Anopheles no podía seguirle.

Aunque Atila no murió víctima de la malaria como Alejando Magno o Alarico, dos años más tarde, en el año 453, murió de complicaciones desencadenadas por el alcoholismo agudo. La división y las luchas internas surgieron rápidamente, y los hunos tribales abandonaron su frágil unidad y desaparecieron de la historia.

El animal más mortífero de la historia


El primero de agosto, la editorial estadounidense Ruston puso a la venta el libro de Winegard. Este ensayo muestra cómo los mosquitos han sido durante milenios la fuerza más poderosa para determinar el destino de la humanidad y condicionar el moderno orden mundial.

La historia de la protección de Roma por ejércitos de mosquitos es una más de las muchas que cuenta Winegard, que a lo largo de su ensayo presenta a estos insectos no solo como una molesta plaga, sino como una fuerza de la naturaleza que ha cambiado el resultado de acontecimientos significativos en la historia humana.

Desde la antigua Atenas hasta la Segunda Guerra Mundial, pasando por la Guerra de Independencia de Estados Unidos, la estrepitosa derrota de los ingleses frente a Blas de Lezo en el sitio de Cartagena de Indias y la creación de Gran Bretaña, Winegard destaca momentos clave en los que las enfermedades transmitidas por mosquitos causaron que ejércitos enteros se derrumbaran, que grandes líderes enfermaran o que las poblaciones fueran vulnerables a invasiones.

Un sobreviviente maya de las epidemias de malaria posteriores a Colón recordaba: «Grande era el hedor de la muerte. […] Todos estábamos así. ¡Nacimos para morir!». Los seres humanos vivieron y murieron a causa de enfermedades transmitidas por mosquitos durante miles de años sin comprender cómo les llegaba la parca.

El enemigo parecía, lo sigue pareciendo, insignificante.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

La incertidumbre que dejan los informes sobre el cambio climático: ¿Una opción para dudar?

Avatar

Publicado

el

Pixabay

El año 2018 fue el cuarto año más caluroso de la historia moderna de la Tierra. La segunda década del siglo XXI está batiendo el récord de temperatura media global desbancando a la primera, que había superado la espectacular marca de los años anteriores.

El listón de temperaturas elevadas en nuestro planeta está llegando a límites escalofriantes. Los que seguimos (con preocupación) la evolución del clima global hemos observado cómo la Organización Meteorológica Mundial (OMM) ha informado que durante los últimos 22 años se han batido 20 récords de temperatura media.

La tendencia va en aumento: la Tierra acumula 400 meses seguidos de temperaturas superiores a la media histórica, sumando más de 33 años consecutivos por encima de la referencia del siglo XX.

Consecuencias de la actividad del ser humano


El cambio climático puede considerarse una certeza y ello supone una verdadera amenaza para el mundo que conocemos. Todo indica que se trata de una amenaza generada principalmente por la actividad industrial humana.

El informe especial Global Warming of 1,5 ℃ del IPCC, publicado a finales de 2018, no da lugar a dudas: estima que esta actividad ha aumentado la temperatura del planeta en aproximadamente 1 ℃ con respecto a los niveles preindustriales.

En unos pocos decenios la concentración de CO₂ en la atmósfera ha aumentado más del 30 %, superando los 400 ppm y batiendo el récord datado hace 3 millones de años. No se trata de una evolución natural del clima: la evidencia es abrumadora y el consenso de la comunidad científica es prácticamente unánime.

Supercomputadores para pronosticar el futuro


Sin embargo, así como el cambio climático pasado es avalado por el histórico de datos recogidos a lo largo del último siglo, para conocer el futuro no hay observación empírica posible.

Si queremos estimar los posibles escenarios a los que se enfrenta nuestro planeta, dependemos casi exclusivamente de complejos modelos de simulación. A su vez, estos se componen de un conjunto de submodelos desarrollados por centros como la NASA, la UK Met Office o el Beijing Climate Center.

Simulaciones empleando el modelo climático del Goddard Earth Observing System (GEOS-5) de la NASA. William Putman/NASA/Goddard

Estas simulaciones se rigen por un corpus teórico, es decir, un conjunto de teorías científicas, leyes y datos. Estos actúan como “reglas” que hacen que la simulación emule adecuadamente el sistema natural que se pretende conocer. Por ejemplo, en el caso de las simulaciones atmosféricas, este corpus es construido con las ecuaciones que definen la mecánica de los fluidos y el efecto calorífico de la radiación solar.

En conjunto con otros submodelos, como la simulación del ciclo del carbono o el movimiento tectónico, estas simulaciones se utilizan para construir posibles escenarios futuros. Estos se utilizan para la toma de decisiones en política de mitigación o de adaptación medioambiental, ya sea en forma de monetización del carbono o de aplicación de estrategias de geoingeniería, por ejemplo.

Sin embargo, a pesar de que los mecanismos que gobiernan el cambio climático antropogénico son bien entendidos, estas proyecciones presentan incertidumbre en la precisión de sus resultados. Su cuantificación es, precisamente, la principal herramienta para comunicar el (des)conocimiento de expertos a políticos.

Fuentes de incertidumbre


La literatura especializada establece hasta siete factores que determinan el grado de incertidumbre:

  • La estructura de los modelos. Simplifican la realidad: se seleccionan los rasgos que mejor definen los fenómenos naturales, pero sin exceder la capacidad de procesamiento de los ordenadores.
  • La utilización de aproximaciones numéricas para calcular las soluciones de las ecuaciones diferenciales complejas que conforman los modelos.
  • La capacidad de resolución limitada de los ordenadores. Esto hace que los procesos a microescala tengan que ser descritos usando valores medios y estimaciones de lo que en realidad sucede a muy pequeña escala.
  • La variabilidad natural interna del clima. Se trata de un sistema muy complejo que cambia de forma natural.
  • Limitaciones en la obtención de datos. Se reducen a aquellos que los científicos han podido recabar en estaciones meteorológicas, balizas y otros instrumentos de medición.
  • Las condiciones iniciales y de contorno de los sistemas, cuyos valores son asignados por los científicos.
  • El escenario económico futuro. Depende de multitud de factores impredecibles, como las políticas de mitigación que se van a llevar a cabo y su efecto en el clima futuro global.

Todas estas fuentes de incertidumbre hacen que existan diferentes representaciones del clima para cada uno de los distintos modelos. No obstante, todas las opiniones científicas convergen en un consenso que queda reflejado en los informes de incertidumbre del Grupo I del IPCC.

Proyecciones de futuro de la temperatura superficial de la Tierra. Policymaker Summary of The Phisical Science Basis (4th IPCC Report).

Cómo interpretar la incertidumbre


La primera impresión que genera esta incertidumbre en el público general es que el cambio climático es una hipótesis, de algún modo, incierta.

Sin embargo, los modelos de incertidumbre presentados en los sucesivos informes del cambio climático no tienen como objetivo dilucidar si el cambio climático es incierto o no. Sirven para informar de la calidad de los modelos obtenidos y trasladar la toma de decisiones políticas fuera de los resultados obtenidos por los científicos.

Parece claro que no podemos conocer el futuro a ciencia cierta y, como diría Zygmunt Bauman, la única certeza es la incertidumbre. Ello no impide, sin embargo, que podamos estimar de forma más o menos robusta el futuro plausible que nos espera.

Acompañar los resultados de las simulaciones con modelos probabilísticos de incertidumbre no es una muestra de debilidad, sino un instrumento que permite comunicar esas estimaciones de manera transparente, sin comprometer la investigación científica con cuestiones políticas, sociales o éticas.

Se trata de una actividad que los científicos y el IPCC consideran como un ejemplo de rigor, a pesar de que haya mercaderes de la duda que la exploten como una debilidad. La certeza de la incertidumbre en los informes del IPCC es, paradójicamente, la única forma disponible para hacer que las proyecciones del clima que nos espera sean lo más certeras posible.

 

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

Algo más aterrador que lo que dijo la ONU, solo que dicho por científicos de hace 40 años

Avatar

Publicado

el

Hace unas semanas, el mundo celebraba el 50 aniversario de la llegada del hombre a la Luna. Sin embargo, ha pasado casi inadvertido otro aniversario científico, quizá de igual importancia para el futuro de nuestra civilización.

Hace cuarenta años, un grupo de científicos se reunió en la Institución Oceanográfica de Woods Hole, en Massachussetts, para la primera sesión del “Grupo Ad Hoc sobre Dióxido de Carbono y Clima”. La reunión dio lugar a la preparación del llamado Informe Charney, la primera evaluación exhaustiva sobre el cambio climático mundial debido al dióxido de carbono.

No suena tan increíble como el aterrizaje en la Luna y, desde luego, no había millones de personas conteniendo la respiración a la espera de los resultados de la reunión.

Sin embargo, el Informe Charney es un buen trabajo científico y el éxito de sus predicciones a lo largo de estos 40 años ha establecido firmemente la ciencia del calentamiento global.

¿Qué es ese ‘gas de efecto invernadero’?


Ya en el siglo XIX, otros científicos habían demostrado que el dióxido de carbono era lo que hoy llamamos un “gas de efecto invernadero”. En la década de los 50 del siglo XX, los científicos predijeron el aumento de la temperatura en varios grados producido por la quema de combustibles fósiles.

En 1972, John Sawyer, responsable de investigación de la Oficina Meteorológica del Reino Unido, escribió un artículo de cuatro páginas publicado en la revista Nature que resumía lo que se sabía hasta ese momento. El artículo predecía un calentamiento de casi 0,6 ℃ para finales del siglo XX.

Pero estas predicciones eran todavía controvertidas en los años 70. En todo caso, el mundo se había enfriado a mediados del siglo XX y todavía se especulaba en los medios de comunicación con que quizá nos estábamos dirigiendo hacia una nueva edad de hielo.

El encuentro de Woods Hole reunió a 10 distinguidos científicos del clima, que habían solicitado asesoramiento a otros investigadores de todo el mundo. El grupo estaba liderado por Jule Charney, del Instituto de Tecnología de Massachusetts (MIT), uno de los estudiosos de la atmósfera más respetados del siglo XX.

El informe expone claramente lo que se sabía sobre los posibles efectos del incremento de dióxido de carbono en el clima, así como las incertidumbres. La conclusión del informe fue clara:

Estimamos que el calentamiento más probable al duplicar las emisiones de CO₂ estará cerca de 3 ℃ con un margen de error de 1,5 ℃.

Durante los 40 años transcurridos desde aquella reunión, la media anual de concentración de CO₂ en la atmósfera, medida en Mauna Loa, Hawaii, se ha incrementado cerca de un 21 %. Durante el mismo periodo, la temperatura media global de la superficie terrestre se ha incrementado en torno a 0,66 ℃, casi exactamente lo que podría haberse esperado si una duplicación de CO₂ produce cerca de 2,5 ℃ de calentamiento, justo un poco por debajo de su mejor estimación. Un pronóstico notablemente premonitorio.

Author provided/The Conversation, CC BY-ND

Repercusión del artículo


A pesar de la gran consideración con la que los autores del Informe Charney fueron recibidos por sus compañeros científicos de aquella época, el informe no produjo cambios inmediatos de comportamiento por parte de los ciudadanos o los políticos.

Con el tiempo, como el mundo ha continuado calentándose como se predijo, el informe ha sido considerado como un hito relevante para calibrar las consecuencias que nuestros actos tienen sobre el clima. La nueva hornada de científicos del clima venera a Charney y sus coautores por su perspicacia y claridad.

Base científica


El informe ejemplifica cómo trabaja la buena ciencia: tras un examen desde los puntos de vista físico y químico, se establece una hipótesis, y, basándose en los resultados de su investigación, se hacen predicciones sólidas. Aquí, “predicciones sólidas” significa algo que sería improbable que suceda si sus hipótesis y sus investigaciones fueran incorrectas.

En este caso, sus predicciones más específicas fueron que el calentamiento entre 1,5 ℃ y 4,5 ℃ vendría acompañado de una duplicación del CO₂ atmosférico. En ese momento, las temperaturas globales, a falta de sus hipótesis y ciencia, podría haberse esperado que se mantuvieran prácticamente iguales durante los 40 años posteriores, que se enfriaran un poco, posiblemente incluso que enfriaran mucho, o que calentaran un montón (o un poco).

En ausencia de una ciencia del calentamiento global, cualquiera de estos resultados podría haber sido factible, así que sus predicciones específicas reflejaron una prueba muy rigurosa de su ciencia.

Los autores del Informe Charney no resumieron sin sentido crítico la ciencia. También actuaron de forma escéptica, intentando encontrar factores que pudiesen invalidar sus conclusiones. Así, determinaron:

Hemos intentado, pero no ha sido posible encontrar efectos físicos pasados por alto o subestimados que puedan reducir el calentamiento global estimado actual como consecuencia de la duplicación del CO₂ atmosférico a proporciones insignificantes o revertirlas completamente.

El informe y la exitosa verificación de su predicción aportan una base científica firme para el debate sobre qué debemos hacer ante el calentamiento global.

Durante los 40 años siguientes, como el mundo se calentó tal y como Charney y sus compañeros esperaban, la ciencia del cambio climático mejoró, con modelos que incluyeron varios de los factores que faltaban en las conclusiones de 1979.

Sin embargo, esta ciencia posterior solo ha confirmado las conclusiones del Informe Charney, aunque ahora son posibles muchas más predicciones detalladas sobre el cambio climático.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo
Publicidad