fbpx
Conecta con nosotros

Ciencia

El problema ético de los niños con tres padres

Una nueva tecnología de reproducción asistida ha sido probada en Grecia. Sin embargo, no ha sido usada con los fines para los que fue aprobada en Reino Unido.

Avatar

Publicado

el

 

El 9 de abril de 2019 nacía en Grecia una criatura engendrada mediante una técnica denominada transferencia mitocondrial, bautizada en los medios como “niño con tres padres”.

El fin de esta nueva herramienta es sencillo: en algunos casos, el ADN de la mitocondria de una mujer se muestra tan defectuoso que puede ocasionar graves patologías a la descendencia. O, incluso, impedir el desarrollo del embrión. Para solucionar este problema la técnica recurre al óvulo de una donante, cuya mitocondria se transfiere a un óvulo o embrión afectado de modo que la madre pueda engendrar hijos sanos.

En principio esto resulta loable. Sin embargo, hay también razones por las que poner en duda su legitimidad moral. Sobre todo si se utiliza como solución contra la infertilidad en lugar de como medio para impedir enfermedades.

La intervención en la línea germinal


Una de las primeras objeciones que se suelen formular a la transferencia mitocondrial es que supone una forma de edición genética de la línea germinal -el genoma que se transmite a la descendencia-, por más que el cambio sea pequeño y no afecte al material genético del núcleo celular. Si se visualiza la línea germinal humana como algo sagrado, habría que oponerse al uso de esta técnica.

Hay varias respuestas posibles a este argumento. La más obvia es que es difícil pensar que un reemplazo mitocondrial afecte en algo al genoma humano como tal. Se sustituye una expresión patológica de unos genes muy concretos por otra que no lo es. Ahí acaba la historia, con lo que no existe ninguna forma de innovación a nivel genético.

Aunque no fuera así, conviene recordar que no hay buenos motivos por los que oponerse a todo cambio en la línea germinal, sobre todo cuando se trata de curar o evitar enfermedades. Además, cualquier cambio en el ADN germinal solo llegará a ser importante si hablamos de descendientes femeninos. Si la criatura engendrada es un varón (lo que puede garantizarse mediante diagnóstico genético preimplantatorio), su ADN mitocondrial nunca se transmitirá.

Posteriori/Shutterstock

Identidad y muerte del embrión


Otro motivo por el que dudar de la moralidad de esta técnica es que un cambio efectuado en etapas tan tempranas de la vida puede tener consecuencias de hondo calado. Hay quienes, como Maureen L. Condic, sostienen que una transferencia mitocondrial que se efectúe sobre un embrión -no así si se realiza en el óvulo- supone en realidad su muerte. La nueva estructura generada con el trasplante sería una entidad diferente.

Sin llegar tan lejos, es posible pensar que la transferencia alteraría drásticamente la identidad genética de la criatura. Esto supone, a juicio de muchos, un serio problema, no solo ético sino también jurídico. En este sentido, el nuevo Reglamento Europeo de Ensayos Clínicos proclama, en su artículo 90, que “no podrán realizarse ensayos de terapia génica que produzcan modificaciones en la identidad génica germinal del sujeto”.

Podría, por tanto, plantearse que el caso frente al que nos hallamos es tanto inmoral como ilegal en el marco de la Unión Europea.

Esta última argumentación es fácil de refutar: un representante de un centro llamado European Bioethics Research ya intentó en su día excluir la posibilidad de aplicar esta técnica en el Reino Unido (el único país de la UE que ha legalizado esta técnica) a través de una petición al Parlamento Europeo. Fue rechazada sobre la base de que la normativa sobre ensayos clínicos no se extiende a la transferencia mitocondrial. Si pensamos, en cambio, en la vertiente ética de la discusión, quizás merezca la pena resaltar que la defensa de la identidad no puede ser tan ferviente que excluya la posibilidad de variar una expresión genética que predisponga a una enfermedad.

¿Niños a demanda?


Pensarán que considero, en suma, que las técnicas de transferencia mitocondrial no tienen problemas éticos relevantes. Tal vez fuera así si no existiese un último factor necesario a tener en cuenta: el factor de la seguridad de la técnica. Y este es, precisamente, el que me genera reparos. A mi juicio, ahora mismo hay motivos para albergar ciertas dudas a este respecto, a pesar de que la autoridad británica correspondiente (la HFEA) la haya respaldado.

Habrá quien señale que soy demasiado exigente, que siempre existen dudas cuando aplicamos una tecnología novedosa. Nadie tenía en los años 80 la absoluta certeza de que las técnicas de fecundación in vitro fueran inocuas y, a pesar de eso, seguimos adelante con ellas.

La comparación es un tanto engañosa. De hecho, entender la diferencia con el caso de la transferencia mitocondrial puede ayudar a entender el porqué de mis reparos.

La fecundación in vitro sirvió para que personas infértiles pudieran tener descendencia biológica, un problema que no tenía alternativas más allá de la adopción. De ahí que la técnica pareciera legítima desde un punto de vista moral, a pesar de los riesgos inherentes.

Esto no sucede, a mi juicio, en el caso de la transferencia mitocondrial. A diferencia de lo que ocurre en el caso de la fecundación in vitro, esta nueva tecnología no abre a las personas una posibilidad tan maravillosa como la de ser padres, sino que capacita a una mujer para engendrar un niño genéticamente relacionado con ella.

Sin querer restar importancia a este hecho, parece razonable plantearse si el deseo de conservar los genes es tan importante como para optar por esta técnica en lugar de otras de cuya seguridad tenemos menos dudas. Por ejemplo, la fecundación de un óvulo donado y libre de problemas relacionados con la mitocondria.

Existen alternativas más seguras


Llegados a este punto tendríamos que empezar a valorar cosas muy complejas, pero que están en el corazón del debate.

En mi opinión, uno de los grandes logros de nuestra evolución moral (sí, ¡la ha habido!) ha sido el cambio de perspectiva en torno a la paternidad. A día de hoy somos cada vez más conscientes de la responsabilidad y obligaciones morales que implica ser padres.

Una de ellas es la de intentar traer a este mundo a niños que gocen de la mejor salud posible. Si aceptamos este principio general resulta muy evidente que, en general, siempre tendremos que optar por una técnica segura antes que por otra que no lo parece tanto, salvo que haya un motivo poderoso por el que romper esta regla.

¿Es el deseo de mantener el lazo genético con la descendencia uno de estos motivos? En mi opinión, no. No solo porque no creo que la relación genética sea tan importante, sino porque me crea la sensación de estar aceptando que un deseo de los padres, comprensible, pero no de entidad suficiente, se pueda anteponer al bienestar de la descendencia.

Francamente, prefiero un escenario en el que ocurra lo contrario. Es decir, que los progenitores sean capaces de renunciar a un anhelo en favor del mejor interés de sus hijos. Hijos que serán tan biológicamente suyos como los producidos por transferencia mitocondrial, aunque no compartan sus mismos genes. Ni que decir tiene que si me convencieran de la seguridad absoluta de esta tecnología esta objeción perdería su vigencia. Ojalá que así sea.The Conversation


Iñigo De Miguel Beriain, Investigador distinguido Facultad de Derecho. Ikerbasque Research Professor, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Lea el original.


 

Ciencia

Cómo los mosquitos cambiaron la historia de la humanidad

Avatar

Publicado

el

Entre 1980 y 2010 la malaria acabó con la vida de entre 1 200 000 y 2 780 000 personas cada año, lo que supuso un aumento de casi el 25 % en tres décadas. Según el informe de la OMS correspondiente a 2017, la malaria mató a 435 000 personas (entre 219 millones de casos), de las cuales dos tercios eran menores de cinco años.

Esto significa que es muy posible que la malaria haya matado a más personas que cualquier otra enfermedad a lo largo de la historia.

El historiador Timothy C. Winegard estima en su último libro, The Mosquito: A Human History of Our Deadliest Predator] (El mosquito: una historia humana de nuestro depredador más mortífero), que las hembras de los mosquitos Anopheles han enviado al otro mundo unos 52 000 millones de personas del total de 108 000 millones que han existido a lo largo de la historia de la Tierra.

En el transcurso de la historia el daño provocado por estos minúsculos insectos ha determinado el destino de imperios y naciones, paralizado actividades económicas y decidido el resultado de guerras decisivas. Por el camino, han matado a casi la mitad de la humanidad.

El linaje exterminador de los mosquitos, compuesto por unas tres mil especies, ha desempeñado un papel más importante en la configuración de nuestra historia que cualquier otro organismo del planeta.

La malaria o paludismo se transmite entre los seres humanos a través de mosquitos hembras del género Anopheles, cuyas 465 especies formalmente reconocidas habitan prácticamente en todo el mundo. El de la fotografía, Anopheles gambiae, trasmite el plasmodio más peligroso, Plasmodium falciparum.

Florence Nightingale llamó a las marismas pontinas, cercanas a Roma, «el valle de la sombra de la muerte». Es algo que los cartagineses y los primeros pueblos bárbaros que atacaron Roma ya habían comprobado por sí mismos.

El fin de la segunda Guerra Púnica terminó en las llanuras de Regia con un enfrentamiento entre el general cartaginés Aníbal Barca y el joven Publio Cornelio Escipión el Africano. Aníbal fue derrotado en la batalla de Zama (202 a. C.), que significó el final de un conflicto que había durado diecisiete años.

El declive cartaginés había comenzado mucho antes en las ciénagas pontinas, cuando los mosquitos de la malaria se cebaron con las tropas cartaginesas. El insecto ayudó a proteger a Roma de Aníbal y sus hordas, y proporcionó un trampolín para que sus habitantes dominaran el Mediterráneo.

Los visigodos, dirigidos por el rey Alarico, fueron los primeros bárbaros en atacar Roma. En 408, sus ejércitos sitiaron la ciudad, que tenía aproximadamente un millón de habitantes, en tres ocasiones distintas. En 410, asedió la ciudad por tercera y última vez. Una vez intramuros, sus tropas emprendieron tres días de pillaje, violaciones, destrucción y muerte.

Satisfechos con los estragos y el saqueo, los visigodos abandonaron la ciudad y se dirigieron al sur, dejando tras de sí un rastro de sangre y ruinas. Aunque tenía previsto regresar a Roma para arrasarla de una vez por todas, cuando terminó la campaña del sur las fuerzas de Alarico estaban diezmadas por la malaria. El poderoso rey, el primero en saquear Roma, murió de malaria en el otoño de 410. El mosquito había vuelto a salvar Roma.

Derrotado por una coalición de visigodos y romanos cerca del bosque de las Ardenas en junio de 451, Atila giró sus vociferantes hunos hacia el sur y comenzó una rápida invasión del norte de Italia. A su paso sembraba el pánico, la destrucción y la muerte. Como habían hecho los espartanos en las Termópilas, una pequeña fuerza romana logró detener a los hunos que avanzaban en las tierras pantanosas cercanas al río Po. Unas inesperadas legiones de mosquitos entraron rápidamente en la batalla y frenaron el avance huno. Una vez más, el general Anopheles salvó Roma.

Recordando una página del memorándum del ayudante militar de Aníbal, Atila mantuvo una audiencia con el Papa León I. A pesar de la leyenda de un piadoso papa cristiano que convence al bárbaro Atila para que abandone el asalto de Roma y se retire de Italia, los feroces hunos de Atila habían sido derrotados otra vez por los insectos. La respuesta de Atila a la súplica del Papa no fue más que una artimaña para salvar la cara. Lo más prudente era que el rey de los hunos regresara a la alta estepa más allá del Danubio, fría y seca, donde Anopheles no podía seguirle.

Aunque Atila no murió víctima de la malaria como Alejando Magno o Alarico, dos años más tarde, en el año 453, murió de complicaciones desencadenadas por el alcoholismo agudo. La división y las luchas internas surgieron rápidamente, y los hunos tribales abandonaron su frágil unidad y desaparecieron de la historia.

El animal más mortífero de la historia


El primero de agosto, la editorial estadounidense Ruston puso a la venta el libro de Winegard. Este ensayo muestra cómo los mosquitos han sido durante milenios la fuerza más poderosa para determinar el destino de la humanidad y condicionar el moderno orden mundial.

La historia de la protección de Roma por ejércitos de mosquitos es una más de las muchas que cuenta Winegard, que a lo largo de su ensayo presenta a estos insectos no solo como una molesta plaga, sino como una fuerza de la naturaleza que ha cambiado el resultado de acontecimientos significativos en la historia humana.

Desde la antigua Atenas hasta la Segunda Guerra Mundial, pasando por la Guerra de Independencia de Estados Unidos, la estrepitosa derrota de los ingleses frente a Blas de Lezo en el sitio de Cartagena de Indias y la creación de Gran Bretaña, Winegard destaca momentos clave en los que las enfermedades transmitidas por mosquitos causaron que ejércitos enteros se derrumbaran, que grandes líderes enfermaran o que las poblaciones fueran vulnerables a invasiones.

Un sobreviviente maya de las epidemias de malaria posteriores a Colón recordaba: «Grande era el hedor de la muerte. […] Todos estábamos así. ¡Nacimos para morir!». Los seres humanos vivieron y murieron a causa de enfermedades transmitidas por mosquitos durante miles de años sin comprender cómo les llegaba la parca.

El enemigo parecía, lo sigue pareciendo, insignificante.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

La incertidumbre que dejan los informes sobre el cambio climático: ¿Una opción para dudar?

Avatar

Publicado

el

Pixabay

El año 2018 fue el cuarto año más caluroso de la historia moderna de la Tierra. La segunda década del siglo XXI está batiendo el récord de temperatura media global desbancando a la primera, que había superado la espectacular marca de los años anteriores.

El listón de temperaturas elevadas en nuestro planeta está llegando a límites escalofriantes. Los que seguimos (con preocupación) la evolución del clima global hemos observado cómo la Organización Meteorológica Mundial (OMM) ha informado que durante los últimos 22 años se han batido 20 récords de temperatura media.

La tendencia va en aumento: la Tierra acumula 400 meses seguidos de temperaturas superiores a la media histórica, sumando más de 33 años consecutivos por encima de la referencia del siglo XX.

Consecuencias de la actividad del ser humano


El cambio climático puede considerarse una certeza y ello supone una verdadera amenaza para el mundo que conocemos. Todo indica que se trata de una amenaza generada principalmente por la actividad industrial humana.

El informe especial Global Warming of 1,5 ℃ del IPCC, publicado a finales de 2018, no da lugar a dudas: estima que esta actividad ha aumentado la temperatura del planeta en aproximadamente 1 ℃ con respecto a los niveles preindustriales.

En unos pocos decenios la concentración de CO₂ en la atmósfera ha aumentado más del 30 %, superando los 400 ppm y batiendo el récord datado hace 3 millones de años. No se trata de una evolución natural del clima: la evidencia es abrumadora y el consenso de la comunidad científica es prácticamente unánime.

Supercomputadores para pronosticar el futuro


Sin embargo, así como el cambio climático pasado es avalado por el histórico de datos recogidos a lo largo del último siglo, para conocer el futuro no hay observación empírica posible.

Si queremos estimar los posibles escenarios a los que se enfrenta nuestro planeta, dependemos casi exclusivamente de complejos modelos de simulación. A su vez, estos se componen de un conjunto de submodelos desarrollados por centros como la NASA, la UK Met Office o el Beijing Climate Center.

Simulaciones empleando el modelo climático del Goddard Earth Observing System (GEOS-5) de la NASA. William Putman/NASA/Goddard

Estas simulaciones se rigen por un corpus teórico, es decir, un conjunto de teorías científicas, leyes y datos. Estos actúan como “reglas” que hacen que la simulación emule adecuadamente el sistema natural que se pretende conocer. Por ejemplo, en el caso de las simulaciones atmosféricas, este corpus es construido con las ecuaciones que definen la mecánica de los fluidos y el efecto calorífico de la radiación solar.

En conjunto con otros submodelos, como la simulación del ciclo del carbono o el movimiento tectónico, estas simulaciones se utilizan para construir posibles escenarios futuros. Estos se utilizan para la toma de decisiones en política de mitigación o de adaptación medioambiental, ya sea en forma de monetización del carbono o de aplicación de estrategias de geoingeniería, por ejemplo.

Sin embargo, a pesar de que los mecanismos que gobiernan el cambio climático antropogénico son bien entendidos, estas proyecciones presentan incertidumbre en la precisión de sus resultados. Su cuantificación es, precisamente, la principal herramienta para comunicar el (des)conocimiento de expertos a políticos.

Fuentes de incertidumbre


La literatura especializada establece hasta siete factores que determinan el grado de incertidumbre:

  • La estructura de los modelos. Simplifican la realidad: se seleccionan los rasgos que mejor definen los fenómenos naturales, pero sin exceder la capacidad de procesamiento de los ordenadores.
  • La utilización de aproximaciones numéricas para calcular las soluciones de las ecuaciones diferenciales complejas que conforman los modelos.
  • La capacidad de resolución limitada de los ordenadores. Esto hace que los procesos a microescala tengan que ser descritos usando valores medios y estimaciones de lo que en realidad sucede a muy pequeña escala.
  • La variabilidad natural interna del clima. Se trata de un sistema muy complejo que cambia de forma natural.
  • Limitaciones en la obtención de datos. Se reducen a aquellos que los científicos han podido recabar en estaciones meteorológicas, balizas y otros instrumentos de medición.
  • Las condiciones iniciales y de contorno de los sistemas, cuyos valores son asignados por los científicos.
  • El escenario económico futuro. Depende de multitud de factores impredecibles, como las políticas de mitigación que se van a llevar a cabo y su efecto en el clima futuro global.

Todas estas fuentes de incertidumbre hacen que existan diferentes representaciones del clima para cada uno de los distintos modelos. No obstante, todas las opiniones científicas convergen en un consenso que queda reflejado en los informes de incertidumbre del Grupo I del IPCC.

Proyecciones de futuro de la temperatura superficial de la Tierra. Policymaker Summary of The Phisical Science Basis (4th IPCC Report).

Cómo interpretar la incertidumbre


La primera impresión que genera esta incertidumbre en el público general es que el cambio climático es una hipótesis, de algún modo, incierta.

Sin embargo, los modelos de incertidumbre presentados en los sucesivos informes del cambio climático no tienen como objetivo dilucidar si el cambio climático es incierto o no. Sirven para informar de la calidad de los modelos obtenidos y trasladar la toma de decisiones políticas fuera de los resultados obtenidos por los científicos.

Parece claro que no podemos conocer el futuro a ciencia cierta y, como diría Zygmunt Bauman, la única certeza es la incertidumbre. Ello no impide, sin embargo, que podamos estimar de forma más o menos robusta el futuro plausible que nos espera.

Acompañar los resultados de las simulaciones con modelos probabilísticos de incertidumbre no es una muestra de debilidad, sino un instrumento que permite comunicar esas estimaciones de manera transparente, sin comprometer la investigación científica con cuestiones políticas, sociales o éticas.

Se trata de una actividad que los científicos y el IPCC consideran como un ejemplo de rigor, a pesar de que haya mercaderes de la duda que la exploten como una debilidad. La certeza de la incertidumbre en los informes del IPCC es, paradójicamente, la única forma disponible para hacer que las proyecciones del clima que nos espera sean lo más certeras posible.

 

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

Algo más aterrador que lo que dijo la ONU, solo que dicho por científicos de hace 40 años

Avatar

Publicado

el

Hace unas semanas, el mundo celebraba el 50 aniversario de la llegada del hombre a la Luna. Sin embargo, ha pasado casi inadvertido otro aniversario científico, quizá de igual importancia para el futuro de nuestra civilización.

Hace cuarenta años, un grupo de científicos se reunió en la Institución Oceanográfica de Woods Hole, en Massachussetts, para la primera sesión del “Grupo Ad Hoc sobre Dióxido de Carbono y Clima”. La reunión dio lugar a la preparación del llamado Informe Charney, la primera evaluación exhaustiva sobre el cambio climático mundial debido al dióxido de carbono.

No suena tan increíble como el aterrizaje en la Luna y, desde luego, no había millones de personas conteniendo la respiración a la espera de los resultados de la reunión.

Sin embargo, el Informe Charney es un buen trabajo científico y el éxito de sus predicciones a lo largo de estos 40 años ha establecido firmemente la ciencia del calentamiento global.

¿Qué es ese ‘gas de efecto invernadero’?


Ya en el siglo XIX, otros científicos habían demostrado que el dióxido de carbono era lo que hoy llamamos un “gas de efecto invernadero”. En la década de los 50 del siglo XX, los científicos predijeron el aumento de la temperatura en varios grados producido por la quema de combustibles fósiles.

En 1972, John Sawyer, responsable de investigación de la Oficina Meteorológica del Reino Unido, escribió un artículo de cuatro páginas publicado en la revista Nature que resumía lo que se sabía hasta ese momento. El artículo predecía un calentamiento de casi 0,6 ℃ para finales del siglo XX.

Pero estas predicciones eran todavía controvertidas en los años 70. En todo caso, el mundo se había enfriado a mediados del siglo XX y todavía se especulaba en los medios de comunicación con que quizá nos estábamos dirigiendo hacia una nueva edad de hielo.

El encuentro de Woods Hole reunió a 10 distinguidos científicos del clima, que habían solicitado asesoramiento a otros investigadores de todo el mundo. El grupo estaba liderado por Jule Charney, del Instituto de Tecnología de Massachusetts (MIT), uno de los estudiosos de la atmósfera más respetados del siglo XX.

El informe expone claramente lo que se sabía sobre los posibles efectos del incremento de dióxido de carbono en el clima, así como las incertidumbres. La conclusión del informe fue clara:

Estimamos que el calentamiento más probable al duplicar las emisiones de CO₂ estará cerca de 3 ℃ con un margen de error de 1,5 ℃.

Durante los 40 años transcurridos desde aquella reunión, la media anual de concentración de CO₂ en la atmósfera, medida en Mauna Loa, Hawaii, se ha incrementado cerca de un 21 %. Durante el mismo periodo, la temperatura media global de la superficie terrestre se ha incrementado en torno a 0,66 ℃, casi exactamente lo que podría haberse esperado si una duplicación de CO₂ produce cerca de 2,5 ℃ de calentamiento, justo un poco por debajo de su mejor estimación. Un pronóstico notablemente premonitorio.

Author provided/The Conversation, CC BY-ND

Repercusión del artículo


A pesar de la gran consideración con la que los autores del Informe Charney fueron recibidos por sus compañeros científicos de aquella época, el informe no produjo cambios inmediatos de comportamiento por parte de los ciudadanos o los políticos.

Con el tiempo, como el mundo ha continuado calentándose como se predijo, el informe ha sido considerado como un hito relevante para calibrar las consecuencias que nuestros actos tienen sobre el clima. La nueva hornada de científicos del clima venera a Charney y sus coautores por su perspicacia y claridad.

Base científica


El informe ejemplifica cómo trabaja la buena ciencia: tras un examen desde los puntos de vista físico y químico, se establece una hipótesis, y, basándose en los resultados de su investigación, se hacen predicciones sólidas. Aquí, “predicciones sólidas” significa algo que sería improbable que suceda si sus hipótesis y sus investigaciones fueran incorrectas.

En este caso, sus predicciones más específicas fueron que el calentamiento entre 1,5 ℃ y 4,5 ℃ vendría acompañado de una duplicación del CO₂ atmosférico. En ese momento, las temperaturas globales, a falta de sus hipótesis y ciencia, podría haberse esperado que se mantuvieran prácticamente iguales durante los 40 años posteriores, que se enfriaran un poco, posiblemente incluso que enfriaran mucho, o que calentaran un montón (o un poco).

En ausencia de una ciencia del calentamiento global, cualquiera de estos resultados podría haber sido factible, así que sus predicciones específicas reflejaron una prueba muy rigurosa de su ciencia.

Los autores del Informe Charney no resumieron sin sentido crítico la ciencia. También actuaron de forma escéptica, intentando encontrar factores que pudiesen invalidar sus conclusiones. Así, determinaron:

Hemos intentado, pero no ha sido posible encontrar efectos físicos pasados por alto o subestimados que puedan reducir el calentamiento global estimado actual como consecuencia de la duplicación del CO₂ atmosférico a proporciones insignificantes o revertirlas completamente.

El informe y la exitosa verificación de su predicción aportan una base científica firme para el debate sobre qué debemos hacer ante el calentamiento global.

Durante los 40 años siguientes, como el mundo se calentó tal y como Charney y sus compañeros esperaban, la ciencia del cambio climático mejoró, con modelos que incluyeron varios de los factores que faltaban en las conclusiones de 1979.

Sin embargo, esta ciencia posterior solo ha confirmado las conclusiones del Informe Charney, aunque ahora son posibles muchas más predicciones detalladas sobre el cambio climático.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo
Publicidad