fbpx
Conecta con nosotros

Ciencia

Científicos observan la anomalía gravitacional en la Tierra.

Jean Muñoz Iturriaga

Publicado

el

 

La física moderna nos ha acostumbrado a nociones extrañas y contraintuitivas de la realidad, especialmente la física cuántica, que es famosa por dejar objetos físicos en extraños estados de superposición. Por ejemplo, el gato de Schrödinger, que se encuentra incapaz de decidir si está muerto o vivo. A veces, sin embargo, la mecánica cuántica es más decisiva e incluso destructiva.

Las simetrías son el santo grial para los físicos. La simetría significa que uno puede transformar un objeto de cierta manera que lo deja invariante. Por ejemplo, una bola redonda se puede girar por un ángulo arbitrario, pero siempre se ve igual. Los físicos dicen que es simétrico bajo rotaciones. Una vez que se identifica la simetría de un sistema físico, a menudo es posible predecir su dinámica.

A veces, sin embargo, las leyes de la mecánica cuántica destruyen una simetría que felizmente existiría en un mundo sin mecánica cuántica, es decir, los sistemas clásicos. Incluso para los físicos esto parece tan extraño que llamaron a este fenómeno una "anomalía".

Durante la mayor parte de su historia, estas anomalías cuánticas se limitaron al mundo de la física de partículas elementales explorado en laboratorios de aceleración enormes como el Large Hadron Collider en el CERN en Suiza. Ahora bien, un nuevo tipo de materiales, los llamados semimetales de Weyl, similares al grafeno 3-D, nos permiten poner en funcionamiento la simetría destructiva de la anomalía cuántica para trabajar en los fenómenos cotidianos, como la creación de corriente eléctrica.

En estos materiales exóticos los electrones se comportan efectivamente de la misma manera que las partículas elementales estudiadas en aceleradores de energía. Estas partículas tienen la extraña propiedad de que no pueden estar en reposo, tienen que moverse con una velocidad constante en todo momento. También tienen otra propiedad llamada spin. Es como un imán minúsculo unido a las partículas, las que vienen en dos especies. El giro puede apuntar en la dirección del movimiento o en la dirección opuesta.

Un equipo internacional de científicos han verificado un efecto fundamental en un cristal que anteriormente se pensaba que sólo era observable en el universo profundo. Los experimentos han verificado una anomalía cuántica que había sido experimentalmente elusiva antes. Los resultados aparecen en la revista Nature. Fotografía: Michael Büker

La quiralidad es la propiedad de un objeto de no ser superponible con su imagen especular. Como ejemplo sencillo, la mano izquierda humana no es superponible con su imagen especular (la mano derecha).

Cuando se habla de partículas diestras y zurdas, esta propiedad se denomina quiralidad. Normalmente las dos especies diferentes de partículas, idénticas excepto por su quiralidad (mano), vendrían con simetrías separadas unidas a ellas y sus números serían conservados por separado. Sin embargo, una anomalía cuántica puede destruir su coexistencia pacífica y cambia una partícula zurda en una mano derecha o viceversa.

Apareciendo en un artículo publicado hoy en Nature, un equipo internacional de físicos, científicos materiales y teóricos de cuerdas, han observado tal material, un efecto de una anomalía cuántica más exótica que hasta ahora se pensaba que sólo se activaba por la curvatura del espacio-tiempo Como lo describe la teoría de la relatividad de Einstein.

Pero para sorpresa del equipo, descubrieron que también existe en la Tierra en las propiedades de la física del estado sólido, que gran parte de la industria de la computación se basa en, que abarca desde pequeños transistores a los centros de datos en la nube. "Por primera vez, hemos observado experimentalmente esta anomalía cuántica fundamental en la Tierra, que es extremadamente importante para nuestra comprensión del universo", dijo el Dr. Johannes Gooth, científico de IBM Research y autor principal del artículo. "Ahora podemos construir nuevos dispositivos de estado sólido basados ​​en esta anomalía que nunca se han considerado antes para potencialmente eludir algunos de los problemas inherentes a los dispositivos electrónicos clásicos, como los transistores".

Nuevos cálculos, utilizando en parte los métodos de la teoría de cuerdas, mostraron que esta anomalía gravitacional también es responsable de producir una corriente si el material se calienta al mismo tiempo que se aplica un campo magnético. "Este es un descubrimiento increíblemente emocionante, podemos concluir claramente que la misma ruptura de simetría se puede observar en cualquier sistema físico, ya sea que ocurriera en el comienzo del universo o esté sucediendo hoy, justo aquí en la Tierra", dijo el Prof. Dr. Karl Landsteiner, teórico de cuerdas en el Instituto de Física Teórica UAM / CSIC y coautor del artículo.

Los científicos de IBM predicen que este descubrimiento abrirá una serie de nuevos desarrollos alrededor de sensores, interruptores y enfriadores termoeléctricos o dispositivos de recolección de energía, para un mejor consumo de energía.

 

[Fuente]

Seguir leyendo
Advertisement

Ciencia

Cómo los mosquitos cambiaron la historia de la humanidad

Avatar

Publicado

el

Entre 1980 y 2010 la malaria acabó con la vida de entre 1 200 000 y 2 780 000 personas cada año, lo que supuso un aumento de casi el 25 % en tres décadas. Según el informe de la OMS correspondiente a 2017, la malaria mató a 435 000 personas (entre 219 millones de casos), de las cuales dos tercios eran menores de cinco años.

Esto significa que es muy posible que la malaria haya matado a más personas que cualquier otra enfermedad a lo largo de la historia.

El historiador Timothy C. Winegard estima en su último libro, The Mosquito: A Human History of Our Deadliest Predator] (El mosquito: una historia humana de nuestro depredador más mortífero), que las hembras de los mosquitos Anopheles han enviado al otro mundo unos 52 000 millones de personas del total de 108 000 millones que han existido a lo largo de la historia de la Tierra.

En el transcurso de la historia el daño provocado por estos minúsculos insectos ha determinado el destino de imperios y naciones, paralizado actividades económicas y decidido el resultado de guerras decisivas. Por el camino, han matado a casi la mitad de la humanidad.

El linaje exterminador de los mosquitos, compuesto por unas tres mil especies, ha desempeñado un papel más importante en la configuración de nuestra historia que cualquier otro organismo del planeta.

La malaria o paludismo se transmite entre los seres humanos a través de mosquitos hembras del género Anopheles, cuyas 465 especies formalmente reconocidas habitan prácticamente en todo el mundo. El de la fotografía, Anopheles gambiae, trasmite el plasmodio más peligroso, Plasmodium falciparum.

Florence Nightingale llamó a las marismas pontinas, cercanas a Roma, «el valle de la sombra de la muerte». Es algo que los cartagineses y los primeros pueblos bárbaros que atacaron Roma ya habían comprobado por sí mismos.

El fin de la segunda Guerra Púnica terminó en las llanuras de Regia con un enfrentamiento entre el general cartaginés Aníbal Barca y el joven Publio Cornelio Escipión el Africano. Aníbal fue derrotado en la batalla de Zama (202 a. C.), que significó el final de un conflicto que había durado diecisiete años.

El declive cartaginés había comenzado mucho antes en las ciénagas pontinas, cuando los mosquitos de la malaria se cebaron con las tropas cartaginesas. El insecto ayudó a proteger a Roma de Aníbal y sus hordas, y proporcionó un trampolín para que sus habitantes dominaran el Mediterráneo.

Los visigodos, dirigidos por el rey Alarico, fueron los primeros bárbaros en atacar Roma. En 408, sus ejércitos sitiaron la ciudad, que tenía aproximadamente un millón de habitantes, en tres ocasiones distintas. En 410, asedió la ciudad por tercera y última vez. Una vez intramuros, sus tropas emprendieron tres días de pillaje, violaciones, destrucción y muerte.

Satisfechos con los estragos y el saqueo, los visigodos abandonaron la ciudad y se dirigieron al sur, dejando tras de sí un rastro de sangre y ruinas. Aunque tenía previsto regresar a Roma para arrasarla de una vez por todas, cuando terminó la campaña del sur las fuerzas de Alarico estaban diezmadas por la malaria. El poderoso rey, el primero en saquear Roma, murió de malaria en el otoño de 410. El mosquito había vuelto a salvar Roma.

Derrotado por una coalición de visigodos y romanos cerca del bosque de las Ardenas en junio de 451, Atila giró sus vociferantes hunos hacia el sur y comenzó una rápida invasión del norte de Italia. A su paso sembraba el pánico, la destrucción y la muerte. Como habían hecho los espartanos en las Termópilas, una pequeña fuerza romana logró detener a los hunos que avanzaban en las tierras pantanosas cercanas al río Po. Unas inesperadas legiones de mosquitos entraron rápidamente en la batalla y frenaron el avance huno. Una vez más, el general Anopheles salvó Roma.

Recordando una página del memorándum del ayudante militar de Aníbal, Atila mantuvo una audiencia con el Papa León I. A pesar de la leyenda de un piadoso papa cristiano que convence al bárbaro Atila para que abandone el asalto de Roma y se retire de Italia, los feroces hunos de Atila habían sido derrotados otra vez por los insectos. La respuesta de Atila a la súplica del Papa no fue más que una artimaña para salvar la cara. Lo más prudente era que el rey de los hunos regresara a la alta estepa más allá del Danubio, fría y seca, donde Anopheles no podía seguirle.

Aunque Atila no murió víctima de la malaria como Alejando Magno o Alarico, dos años más tarde, en el año 453, murió de complicaciones desencadenadas por el alcoholismo agudo. La división y las luchas internas surgieron rápidamente, y los hunos tribales abandonaron su frágil unidad y desaparecieron de la historia.

El animal más mortífero de la historia


El primero de agosto, la editorial estadounidense Ruston puso a la venta el libro de Winegard. Este ensayo muestra cómo los mosquitos han sido durante milenios la fuerza más poderosa para determinar el destino de la humanidad y condicionar el moderno orden mundial.

La historia de la protección de Roma por ejércitos de mosquitos es una más de las muchas que cuenta Winegard, que a lo largo de su ensayo presenta a estos insectos no solo como una molesta plaga, sino como una fuerza de la naturaleza que ha cambiado el resultado de acontecimientos significativos en la historia humana.

Desde la antigua Atenas hasta la Segunda Guerra Mundial, pasando por la Guerra de Independencia de Estados Unidos, la estrepitosa derrota de los ingleses frente a Blas de Lezo en el sitio de Cartagena de Indias y la creación de Gran Bretaña, Winegard destaca momentos clave en los que las enfermedades transmitidas por mosquitos causaron que ejércitos enteros se derrumbaran, que grandes líderes enfermaran o que las poblaciones fueran vulnerables a invasiones.

Un sobreviviente maya de las epidemias de malaria posteriores a Colón recordaba: «Grande era el hedor de la muerte. […] Todos estábamos así. ¡Nacimos para morir!». Los seres humanos vivieron y murieron a causa de enfermedades transmitidas por mosquitos durante miles de años sin comprender cómo les llegaba la parca.

El enemigo parecía, lo sigue pareciendo, insignificante.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

La incertidumbre que dejan los informes sobre el cambio climático: ¿Una opción para dudar?

Avatar

Publicado

el

Pixabay

El año 2018 fue el cuarto año más caluroso de la historia moderna de la Tierra. La segunda década del siglo XXI está batiendo el récord de temperatura media global desbancando a la primera, que había superado la espectacular marca de los años anteriores.

El listón de temperaturas elevadas en nuestro planeta está llegando a límites escalofriantes. Los que seguimos (con preocupación) la evolución del clima global hemos observado cómo la Organización Meteorológica Mundial (OMM) ha informado que durante los últimos 22 años se han batido 20 récords de temperatura media.

La tendencia va en aumento: la Tierra acumula 400 meses seguidos de temperaturas superiores a la media histórica, sumando más de 33 años consecutivos por encima de la referencia del siglo XX.

Consecuencias de la actividad del ser humano


El cambio climático puede considerarse una certeza y ello supone una verdadera amenaza para el mundo que conocemos. Todo indica que se trata de una amenaza generada principalmente por la actividad industrial humana.

El informe especial Global Warming of 1,5 ℃ del IPCC, publicado a finales de 2018, no da lugar a dudas: estima que esta actividad ha aumentado la temperatura del planeta en aproximadamente 1 ℃ con respecto a los niveles preindustriales.

En unos pocos decenios la concentración de CO₂ en la atmósfera ha aumentado más del 30 %, superando los 400 ppm y batiendo el récord datado hace 3 millones de años. No se trata de una evolución natural del clima: la evidencia es abrumadora y el consenso de la comunidad científica es prácticamente unánime.

Supercomputadores para pronosticar el futuro


Sin embargo, así como el cambio climático pasado es avalado por el histórico de datos recogidos a lo largo del último siglo, para conocer el futuro no hay observación empírica posible.

Si queremos estimar los posibles escenarios a los que se enfrenta nuestro planeta, dependemos casi exclusivamente de complejos modelos de simulación. A su vez, estos se componen de un conjunto de submodelos desarrollados por centros como la NASA, la UK Met Office o el Beijing Climate Center.

Simulaciones empleando el modelo climático del Goddard Earth Observing System (GEOS-5) de la NASA. William Putman/NASA/Goddard

Estas simulaciones se rigen por un corpus teórico, es decir, un conjunto de teorías científicas, leyes y datos. Estos actúan como “reglas” que hacen que la simulación emule adecuadamente el sistema natural que se pretende conocer. Por ejemplo, en el caso de las simulaciones atmosféricas, este corpus es construido con las ecuaciones que definen la mecánica de los fluidos y el efecto calorífico de la radiación solar.

En conjunto con otros submodelos, como la simulación del ciclo del carbono o el movimiento tectónico, estas simulaciones se utilizan para construir posibles escenarios futuros. Estos se utilizan para la toma de decisiones en política de mitigación o de adaptación medioambiental, ya sea en forma de monetización del carbono o de aplicación de estrategias de geoingeniería, por ejemplo.

Sin embargo, a pesar de que los mecanismos que gobiernan el cambio climático antropogénico son bien entendidos, estas proyecciones presentan incertidumbre en la precisión de sus resultados. Su cuantificación es, precisamente, la principal herramienta para comunicar el (des)conocimiento de expertos a políticos.

Fuentes de incertidumbre


La literatura especializada establece hasta siete factores que determinan el grado de incertidumbre:

  • La estructura de los modelos. Simplifican la realidad: se seleccionan los rasgos que mejor definen los fenómenos naturales, pero sin exceder la capacidad de procesamiento de los ordenadores.
  • La utilización de aproximaciones numéricas para calcular las soluciones de las ecuaciones diferenciales complejas que conforman los modelos.
  • La capacidad de resolución limitada de los ordenadores. Esto hace que los procesos a microescala tengan que ser descritos usando valores medios y estimaciones de lo que en realidad sucede a muy pequeña escala.
  • La variabilidad natural interna del clima. Se trata de un sistema muy complejo que cambia de forma natural.
  • Limitaciones en la obtención de datos. Se reducen a aquellos que los científicos han podido recabar en estaciones meteorológicas, balizas y otros instrumentos de medición.
  • Las condiciones iniciales y de contorno de los sistemas, cuyos valores son asignados por los científicos.
  • El escenario económico futuro. Depende de multitud de factores impredecibles, como las políticas de mitigación que se van a llevar a cabo y su efecto en el clima futuro global.

Todas estas fuentes de incertidumbre hacen que existan diferentes representaciones del clima para cada uno de los distintos modelos. No obstante, todas las opiniones científicas convergen en un consenso que queda reflejado en los informes de incertidumbre del Grupo I del IPCC.

Proyecciones de futuro de la temperatura superficial de la Tierra. Policymaker Summary of The Phisical Science Basis (4th IPCC Report).

Cómo interpretar la incertidumbre


La primera impresión que genera esta incertidumbre en el público general es que el cambio climático es una hipótesis, de algún modo, incierta.

Sin embargo, los modelos de incertidumbre presentados en los sucesivos informes del cambio climático no tienen como objetivo dilucidar si el cambio climático es incierto o no. Sirven para informar de la calidad de los modelos obtenidos y trasladar la toma de decisiones políticas fuera de los resultados obtenidos por los científicos.

Parece claro que no podemos conocer el futuro a ciencia cierta y, como diría Zygmunt Bauman, la única certeza es la incertidumbre. Ello no impide, sin embargo, que podamos estimar de forma más o menos robusta el futuro plausible que nos espera.

Acompañar los resultados de las simulaciones con modelos probabilísticos de incertidumbre no es una muestra de debilidad, sino un instrumento que permite comunicar esas estimaciones de manera transparente, sin comprometer la investigación científica con cuestiones políticas, sociales o éticas.

Se trata de una actividad que los científicos y el IPCC consideran como un ejemplo de rigor, a pesar de que haya mercaderes de la duda que la exploten como una debilidad. La certeza de la incertidumbre en los informes del IPCC es, paradójicamente, la única forma disponible para hacer que las proyecciones del clima que nos espera sean lo más certeras posible.

 

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

Algo más aterrador que lo que dijo la ONU, solo que dicho por científicos de hace 40 años

Avatar

Publicado

el

Hace unas semanas, el mundo celebraba el 50 aniversario de la llegada del hombre a la Luna. Sin embargo, ha pasado casi inadvertido otro aniversario científico, quizá de igual importancia para el futuro de nuestra civilización.

Hace cuarenta años, un grupo de científicos se reunió en la Institución Oceanográfica de Woods Hole, en Massachussetts, para la primera sesión del “Grupo Ad Hoc sobre Dióxido de Carbono y Clima”. La reunión dio lugar a la preparación del llamado Informe Charney, la primera evaluación exhaustiva sobre el cambio climático mundial debido al dióxido de carbono.

No suena tan increíble como el aterrizaje en la Luna y, desde luego, no había millones de personas conteniendo la respiración a la espera de los resultados de la reunión.

Sin embargo, el Informe Charney es un buen trabajo científico y el éxito de sus predicciones a lo largo de estos 40 años ha establecido firmemente la ciencia del calentamiento global.

¿Qué es ese ‘gas de efecto invernadero’?


Ya en el siglo XIX, otros científicos habían demostrado que el dióxido de carbono era lo que hoy llamamos un “gas de efecto invernadero”. En la década de los 50 del siglo XX, los científicos predijeron el aumento de la temperatura en varios grados producido por la quema de combustibles fósiles.

En 1972, John Sawyer, responsable de investigación de la Oficina Meteorológica del Reino Unido, escribió un artículo de cuatro páginas publicado en la revista Nature que resumía lo que se sabía hasta ese momento. El artículo predecía un calentamiento de casi 0,6 ℃ para finales del siglo XX.

Pero estas predicciones eran todavía controvertidas en los años 70. En todo caso, el mundo se había enfriado a mediados del siglo XX y todavía se especulaba en los medios de comunicación con que quizá nos estábamos dirigiendo hacia una nueva edad de hielo.

El encuentro de Woods Hole reunió a 10 distinguidos científicos del clima, que habían solicitado asesoramiento a otros investigadores de todo el mundo. El grupo estaba liderado por Jule Charney, del Instituto de Tecnología de Massachusetts (MIT), uno de los estudiosos de la atmósfera más respetados del siglo XX.

El informe expone claramente lo que se sabía sobre los posibles efectos del incremento de dióxido de carbono en el clima, así como las incertidumbres. La conclusión del informe fue clara:

Estimamos que el calentamiento más probable al duplicar las emisiones de CO₂ estará cerca de 3 ℃ con un margen de error de 1,5 ℃.

Durante los 40 años transcurridos desde aquella reunión, la media anual de concentración de CO₂ en la atmósfera, medida en Mauna Loa, Hawaii, se ha incrementado cerca de un 21 %. Durante el mismo periodo, la temperatura media global de la superficie terrestre se ha incrementado en torno a 0,66 ℃, casi exactamente lo que podría haberse esperado si una duplicación de CO₂ produce cerca de 2,5 ℃ de calentamiento, justo un poco por debajo de su mejor estimación. Un pronóstico notablemente premonitorio.

Author provided/The Conversation, CC BY-ND

Repercusión del artículo


A pesar de la gran consideración con la que los autores del Informe Charney fueron recibidos por sus compañeros científicos de aquella época, el informe no produjo cambios inmediatos de comportamiento por parte de los ciudadanos o los políticos.

Con el tiempo, como el mundo ha continuado calentándose como se predijo, el informe ha sido considerado como un hito relevante para calibrar las consecuencias que nuestros actos tienen sobre el clima. La nueva hornada de científicos del clima venera a Charney y sus coautores por su perspicacia y claridad.

Base científica


El informe ejemplifica cómo trabaja la buena ciencia: tras un examen desde los puntos de vista físico y químico, se establece una hipótesis, y, basándose en los resultados de su investigación, se hacen predicciones sólidas. Aquí, “predicciones sólidas” significa algo que sería improbable que suceda si sus hipótesis y sus investigaciones fueran incorrectas.

En este caso, sus predicciones más específicas fueron que el calentamiento entre 1,5 ℃ y 4,5 ℃ vendría acompañado de una duplicación del CO₂ atmosférico. En ese momento, las temperaturas globales, a falta de sus hipótesis y ciencia, podría haberse esperado que se mantuvieran prácticamente iguales durante los 40 años posteriores, que se enfriaran un poco, posiblemente incluso que enfriaran mucho, o que calentaran un montón (o un poco).

En ausencia de una ciencia del calentamiento global, cualquiera de estos resultados podría haber sido factible, así que sus predicciones específicas reflejaron una prueba muy rigurosa de su ciencia.

Los autores del Informe Charney no resumieron sin sentido crítico la ciencia. También actuaron de forma escéptica, intentando encontrar factores que pudiesen invalidar sus conclusiones. Así, determinaron:

Hemos intentado, pero no ha sido posible encontrar efectos físicos pasados por alto o subestimados que puedan reducir el calentamiento global estimado actual como consecuencia de la duplicación del CO₂ atmosférico a proporciones insignificantes o revertirlas completamente.

El informe y la exitosa verificación de su predicción aportan una base científica firme para el debate sobre qué debemos hacer ante el calentamiento global.

Durante los 40 años siguientes, como el mundo se calentó tal y como Charney y sus compañeros esperaban, la ciencia del cambio climático mejoró, con modelos que incluyeron varios de los factores que faltaban en las conclusiones de 1979.

Sin embargo, esta ciencia posterior solo ha confirmado las conclusiones del Informe Charney, aunque ahora son posibles muchas más predicciones detalladas sobre el cambio climático.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo
Publicidad