fbpx
Conecta con nosotros

Ciencia

Por qué hacer Humanidades es hacer ciencia

Y Silvia Gumiel, de la Universidad de Alcalá, defiende que las Humanidades también aplican el método científico, y lo hace analizando su campo de estudio: la lingüística, la más humana de todas las ciencias y la más científica de todas las humanidades.

Avatar

Publicado

el

 

Cada vez resulta más habitual en esta sociedad o, al menos, en este país, dividir a los intelectuales –y a sus alumnos– en dos grandes ramas de conocimiento: las letras y las ciencias, como si los primeros no fueran científicos y los segundos no hubieran de tener un cierto dominio del conocimiento humanístico que nos ha conducido al avance científico del que gozamos en la actualidad.

Esta división es peligrosa al menos por dos razones. La primera, y quizás más evidente, es el cierto desprecio que se palpa en ocasiones por las disciplinas de humanidades; todos somos conscientes de que los alumnos más brillantes del Bachillerato son enviados hacia las carreras de la rama científico-tecnológica sin importar demasiado cuáles son sus intereses.

Si eres listo, a ciencias


¿Cómo vas a malgastar una cabeza como la tuya en estudiar Historia?, podrán escuchar estos alumnos de sus amigos, familiares, profesores o de los orientadores del centro en el que estudian. Se contribuye, de esta manera, a despreciar el conocimiento, el espíritu crítico o la libertad de pensamiento que tan necesarios resultarán en un futuro en el que el mercado laboral habrá cambiado, sin duda, y necesitará egresados con una formación sólida y versátil, como lo es la formación humanística.

La segunda razón por la que esta división no es adecuada es que, de hecho, hay disciplinas catalogadas dentro de la rama de Artes y Humanidades que son ciencia en el sentido más estricto de la palabra. Y aunque son varias, voy a referirme a la que yo conozco: la Lingüística.

¿Qué es una disciplina científica?


Para entender si una disciplina puede ser considerada científica tenemos, primero, que ser capaces de definir qué es una ciencia. El diccionario de la RAE define esta palabra en su primera acepción como “Conjunto de conocimientos obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados y de los que se deducen principios y leyes generales con capacidad predictiva y comprobables experimentalmente”.

Así, la ciencia se concibe como un proceso, y no como un resultado. Todas las disciplinas científicas se distinguen, al menos, por tener un objeto de estudio (que diferencia unas de otras) y por seguir un método científico.

Me referiré a la primera característica en el siguiente apartado, mientras que en este enumeraré los pasos que ha de seguir el método científico.

Un método de cinco pasos


Existe cierto consenso en la comunidad científica de que todas las disciplinas han de seguir un método común que consta de cinco pasos: observación, hipótesis, experimentación, teoría y ley.

Con la observación recopilamos hechos acerca de un fenómeno que define nuestro objeto de estudio. La observación del fenómeno nos permite avanzar una hipótesis, que podemos definir como una primera explicación de los hechos. La hipótesis debe ser puesta a prueba en el tercer paso, la experimentación, que nos permite comprobar si los datos se ajustan a la hipótesis. Este paso nos permite comprobar nuestra hipótesis o modificarla si es necesario y, a partir de ella, formular una teoría, que ha sido confirmada por la experimentación y explica una cantidad mayor de fenómenos que la hipótesis. Por último,se promulga una ley que puede ser considerada una hipótesis donde se han demostrado mayor cantidad de hechos, que permite hacer predicciones sobre hechos futuros y que tiene mayor probabilidad de ser probada.

El método científico se revela, pues, como el más seguro no solo para describir y descubrir los procesos que gobiernan nuestro mundo, sino también para entender el porqué de estos procesos.

Otra característica fundamental del método científico es que las hipótesis deben ser siempre refutables; de este modo, el científico debe detectar también los posibles problemas de su hipótesis y darles solución o bien proponer una nueva hipótesis explicativa. De esta manera, el método de la ciencia es también el del ensayo-error.

A modo de conclusión a este apartado, podemos decir que una ciencia se define por, al menos, tres características:

  1. Tiene un objeto de estudio.
  2. Sigue el método científico.
  3. Las hipótesis que se formulan son refutables.

La Lingüística y sus diferentes enfoques


A partir de lo dicho anteriormente, cabe preguntarse si la Lingüística es una ciencia en sentido estricto; la respuesta será afirmativa si estudia un objeto del mundo natural, si sigue el método científico y, por último, si sus hipótesis son refutables.

Para empezar, he de explicar que la Lingüística es una disciplina que abarca multitud de contenidos. Cuando uno decide dedicarse al estudio del lenguaje o de las lenguas en profundidad puede optar por muchos y muy diferentes enfoques.

Así, entre otras opciones, el investigador interesado en cómo las variables sociales condicionan los usos de la lengua hará Sociolingüística. Aquel al que le interesan los cambios que la lengua va sufriendo a lo largo de la historia se decantará por la Lingüística diacrónica; los científicos más interesados en cómo adquieren los niños la lengua materna se dedicarán a la Adquisición del lenguaje y aquellos que se dediquen a procurar que las máquinas puedan procesar una lengua natural harán Lingüística computacional.

Hasta el siglo XX, las reflexiones sobre el lenguaje en general, y la gramática en particular, estaban más centradas en el saber erudito.

En la Edad Media, las artes liberales (aquellas que se libraban del trabajo manual) eran siete que se agrupaban dentro del Trivium (Gramática, Retórica y Dialéctica) y el Quadrivium (Aritmética, Geometría, Astronomía y Música).

Durante los siglos posteriores, el estudio de la gramática sufrió diversos cambios, pero no fue hasta 1916, con la publicación del Curso de Lingüística General, de Ferdinand de Saussure, cuando la Lingüística alcanzó por primera vez la categoría de ciencia; la razón de ello es que Saussure hizo explícito cuál es el objeto de estudio de esta disciplina: la lengua, que él mismo estudió siguiendo el método científico y definiéndola como un sistema.

Estudio de seres humanos


No obstante, la verdadera revolución en esta disciplina llegó a mediados del siglo pasado con la aparición de Noam Chomsky y lo que conocemos como Gramática Generativa. Hasta el momento, las explicaciones sobre las lenguas se centraban en el uso que los seres humanos hacíamos de estas (su función) y las gramáticas se concebían como descripciones sistemáticas de las distintas lenguas.

Chomsky demostró que en realidad hay un único lenguaje humano y las diferentes lenguas no son sino variaciones de este. Para ello mostró que el lenguaje es una facultad humana que se sitúa dentro del cerebro y no en la esfera de lo social, esto es, fuera de este (lo que explica que los niños sean capaces de construir oraciones de gran complejidad antes incluso de poder atarse unos zapatos o hacer sumas muy sencillas), recuperando de este modo las teorías racionalistas de Descartes y otros autores.

El lenguaje, objeto de las ciencias naturales


Se propone, por tanto, la existencia de subsistema del lenguaje que ha de ser abordado de forma similar a como se estudian otros subsistemas de la mente, como la visión. Desde este momento, el lenguaje se convierte en un objeto natural del mundo que, por tanto, ha de ser estudiado como un objeto de las ciencias naturales.

A partir de lo dicho, y volviendo a la pregunta inicial, podemos afirmar que la Lingüística es una ciencia por los siguientes motivos: en primer lugar, tiene un objeto de estudio, el lenguaje.

Es cierto que la aproximación a este varía en función de la disciplina que se estudie: si nos dedicamos a la Gramática estaremos estudiando el lenguaje como un objeto del mundo natural, si optamos por la Sociolingüística, por ejemplo, nos aproximaremos a la versión más social de las lenguas.

En cualquier caso, y sea cual sea la aproximación, la observación del lenguaje se hace desde una perspectiva rigurosa y siguiendo la metodología científica señalada anteriormente.

Por último, las teorías planteadas en los distintos ámbitos de la Lingüística son siempre refutables, lo que permite que la disciplina vaya sufriendo avances.

De este modo, el papel del lingüista –al menos de la mayor parte de los lingüistas– no es determinar qué está bien dicho y qué no o establecer qué palabras deben llevar tilde (Lingüística prescriptiva); tampoco lo es conocer muchas lenguas. El lingüista, en tanto que científico, se encarga de observar las lenguas y establecer descripciones sobre su comportamiento (Lingüística descriptiva).

Finalmente, mediante el establecimiento de generalizaciones se pretende, en última instancia, proponer explicaciones para el comportamiento de las lenguas (Lingüística explicativa) que nos permitan conocer mejor el lenguaje desde diferentes aproximaciones.

Si entendemos que el lenguaje es la facultad que nos hace humanos (solo los seres humanos hablan), entonces el conocimiento del lenguaje nos aproximará a un mejor entendimiento de la esencia humana.

Como escuché decir en una ocasión a Victoria Escandell-Vidal, la Lingüística es, por tanto, la más humana de todas las ciencias y la más científica de todas las humanidades.The Conversation


Silvia Gumiel Molina, Profesora Titular de Lengua española, Universidad de Alcalá

Este artículo fue publicado originalmente en The Conversation. Lea el original.


 

Ciencia

Cómo los mosquitos cambiaron la historia de la humanidad

Avatar

Publicado

el

Entre 1980 y 2010 la malaria acabó con la vida de entre 1 200 000 y 2 780 000 personas cada año, lo que supuso un aumento de casi el 25 % en tres décadas. Según el informe de la OMS correspondiente a 2017, la malaria mató a 435 000 personas (entre 219 millones de casos), de las cuales dos tercios eran menores de cinco años.

Esto significa que es muy posible que la malaria haya matado a más personas que cualquier otra enfermedad a lo largo de la historia.

El historiador Timothy C. Winegard estima en su último libro, The Mosquito: A Human History of Our Deadliest Predator] (El mosquito: una historia humana de nuestro depredador más mortífero), que las hembras de los mosquitos Anopheles han enviado al otro mundo unos 52 000 millones de personas del total de 108 000 millones que han existido a lo largo de la historia de la Tierra.

En el transcurso de la historia el daño provocado por estos minúsculos insectos ha determinado el destino de imperios y naciones, paralizado actividades económicas y decidido el resultado de guerras decisivas. Por el camino, han matado a casi la mitad de la humanidad.

El linaje exterminador de los mosquitos, compuesto por unas tres mil especies, ha desempeñado un papel más importante en la configuración de nuestra historia que cualquier otro organismo del planeta.

La malaria o paludismo se transmite entre los seres humanos a través de mosquitos hembras del género Anopheles, cuyas 465 especies formalmente reconocidas habitan prácticamente en todo el mundo. El de la fotografía, Anopheles gambiae, trasmite el plasmodio más peligroso, Plasmodium falciparum.

Florence Nightingale llamó a las marismas pontinas, cercanas a Roma, «el valle de la sombra de la muerte». Es algo que los cartagineses y los primeros pueblos bárbaros que atacaron Roma ya habían comprobado por sí mismos.

El fin de la segunda Guerra Púnica terminó en las llanuras de Regia con un enfrentamiento entre el general cartaginés Aníbal Barca y el joven Publio Cornelio Escipión el Africano. Aníbal fue derrotado en la batalla de Zama (202 a. C.), que significó el final de un conflicto que había durado diecisiete años.

El declive cartaginés había comenzado mucho antes en las ciénagas pontinas, cuando los mosquitos de la malaria se cebaron con las tropas cartaginesas. El insecto ayudó a proteger a Roma de Aníbal y sus hordas, y proporcionó un trampolín para que sus habitantes dominaran el Mediterráneo.

Los visigodos, dirigidos por el rey Alarico, fueron los primeros bárbaros en atacar Roma. En 408, sus ejércitos sitiaron la ciudad, que tenía aproximadamente un millón de habitantes, en tres ocasiones distintas. En 410, asedió la ciudad por tercera y última vez. Una vez intramuros, sus tropas emprendieron tres días de pillaje, violaciones, destrucción y muerte.

Satisfechos con los estragos y el saqueo, los visigodos abandonaron la ciudad y se dirigieron al sur, dejando tras de sí un rastro de sangre y ruinas. Aunque tenía previsto regresar a Roma para arrasarla de una vez por todas, cuando terminó la campaña del sur las fuerzas de Alarico estaban diezmadas por la malaria. El poderoso rey, el primero en saquear Roma, murió de malaria en el otoño de 410. El mosquito había vuelto a salvar Roma.

Derrotado por una coalición de visigodos y romanos cerca del bosque de las Ardenas en junio de 451, Atila giró sus vociferantes hunos hacia el sur y comenzó una rápida invasión del norte de Italia. A su paso sembraba el pánico, la destrucción y la muerte. Como habían hecho los espartanos en las Termópilas, una pequeña fuerza romana logró detener a los hunos que avanzaban en las tierras pantanosas cercanas al río Po. Unas inesperadas legiones de mosquitos entraron rápidamente en la batalla y frenaron el avance huno. Una vez más, el general Anopheles salvó Roma.

Recordando una página del memorándum del ayudante militar de Aníbal, Atila mantuvo una audiencia con el Papa León I. A pesar de la leyenda de un piadoso papa cristiano que convence al bárbaro Atila para que abandone el asalto de Roma y se retire de Italia, los feroces hunos de Atila habían sido derrotados otra vez por los insectos. La respuesta de Atila a la súplica del Papa no fue más que una artimaña para salvar la cara. Lo más prudente era que el rey de los hunos regresara a la alta estepa más allá del Danubio, fría y seca, donde Anopheles no podía seguirle.

Aunque Atila no murió víctima de la malaria como Alejando Magno o Alarico, dos años más tarde, en el año 453, murió de complicaciones desencadenadas por el alcoholismo agudo. La división y las luchas internas surgieron rápidamente, y los hunos tribales abandonaron su frágil unidad y desaparecieron de la historia.

El animal más mortífero de la historia


El primero de agosto, la editorial estadounidense Ruston puso a la venta el libro de Winegard. Este ensayo muestra cómo los mosquitos han sido durante milenios la fuerza más poderosa para determinar el destino de la humanidad y condicionar el moderno orden mundial.

La historia de la protección de Roma por ejércitos de mosquitos es una más de las muchas que cuenta Winegard, que a lo largo de su ensayo presenta a estos insectos no solo como una molesta plaga, sino como una fuerza de la naturaleza que ha cambiado el resultado de acontecimientos significativos en la historia humana.

Desde la antigua Atenas hasta la Segunda Guerra Mundial, pasando por la Guerra de Independencia de Estados Unidos, la estrepitosa derrota de los ingleses frente a Blas de Lezo en el sitio de Cartagena de Indias y la creación de Gran Bretaña, Winegard destaca momentos clave en los que las enfermedades transmitidas por mosquitos causaron que ejércitos enteros se derrumbaran, que grandes líderes enfermaran o que las poblaciones fueran vulnerables a invasiones.

Un sobreviviente maya de las epidemias de malaria posteriores a Colón recordaba: «Grande era el hedor de la muerte. […] Todos estábamos así. ¡Nacimos para morir!». Los seres humanos vivieron y murieron a causa de enfermedades transmitidas por mosquitos durante miles de años sin comprender cómo les llegaba la parca.

El enemigo parecía, lo sigue pareciendo, insignificante.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

La incertidumbre que dejan los informes sobre el cambio climático: ¿Una opción para dudar?

Avatar

Publicado

el

Pixabay

El año 2018 fue el cuarto año más caluroso de la historia moderna de la Tierra. La segunda década del siglo XXI está batiendo el récord de temperatura media global desbancando a la primera, que había superado la espectacular marca de los años anteriores.

El listón de temperaturas elevadas en nuestro planeta está llegando a límites escalofriantes. Los que seguimos (con preocupación) la evolución del clima global hemos observado cómo la Organización Meteorológica Mundial (OMM) ha informado que durante los últimos 22 años se han batido 20 récords de temperatura media.

La tendencia va en aumento: la Tierra acumula 400 meses seguidos de temperaturas superiores a la media histórica, sumando más de 33 años consecutivos por encima de la referencia del siglo XX.

Consecuencias de la actividad del ser humano


El cambio climático puede considerarse una certeza y ello supone una verdadera amenaza para el mundo que conocemos. Todo indica que se trata de una amenaza generada principalmente por la actividad industrial humana.

El informe especial Global Warming of 1,5 ℃ del IPCC, publicado a finales de 2018, no da lugar a dudas: estima que esta actividad ha aumentado la temperatura del planeta en aproximadamente 1 ℃ con respecto a los niveles preindustriales.

En unos pocos decenios la concentración de CO₂ en la atmósfera ha aumentado más del 30 %, superando los 400 ppm y batiendo el récord datado hace 3 millones de años. No se trata de una evolución natural del clima: la evidencia es abrumadora y el consenso de la comunidad científica es prácticamente unánime.

Supercomputadores para pronosticar el futuro


Sin embargo, así como el cambio climático pasado es avalado por el histórico de datos recogidos a lo largo del último siglo, para conocer el futuro no hay observación empírica posible.

Si queremos estimar los posibles escenarios a los que se enfrenta nuestro planeta, dependemos casi exclusivamente de complejos modelos de simulación. A su vez, estos se componen de un conjunto de submodelos desarrollados por centros como la NASA, la UK Met Office o el Beijing Climate Center.

Simulaciones empleando el modelo climático del Goddard Earth Observing System (GEOS-5) de la NASA. William Putman/NASA/Goddard

Estas simulaciones se rigen por un corpus teórico, es decir, un conjunto de teorías científicas, leyes y datos. Estos actúan como “reglas” que hacen que la simulación emule adecuadamente el sistema natural que se pretende conocer. Por ejemplo, en el caso de las simulaciones atmosféricas, este corpus es construido con las ecuaciones que definen la mecánica de los fluidos y el efecto calorífico de la radiación solar.

En conjunto con otros submodelos, como la simulación del ciclo del carbono o el movimiento tectónico, estas simulaciones se utilizan para construir posibles escenarios futuros. Estos se utilizan para la toma de decisiones en política de mitigación o de adaptación medioambiental, ya sea en forma de monetización del carbono o de aplicación de estrategias de geoingeniería, por ejemplo.

Sin embargo, a pesar de que los mecanismos que gobiernan el cambio climático antropogénico son bien entendidos, estas proyecciones presentan incertidumbre en la precisión de sus resultados. Su cuantificación es, precisamente, la principal herramienta para comunicar el (des)conocimiento de expertos a políticos.

Fuentes de incertidumbre


La literatura especializada establece hasta siete factores que determinan el grado de incertidumbre:

  • La estructura de los modelos. Simplifican la realidad: se seleccionan los rasgos que mejor definen los fenómenos naturales, pero sin exceder la capacidad de procesamiento de los ordenadores.
  • La utilización de aproximaciones numéricas para calcular las soluciones de las ecuaciones diferenciales complejas que conforman los modelos.
  • La capacidad de resolución limitada de los ordenadores. Esto hace que los procesos a microescala tengan que ser descritos usando valores medios y estimaciones de lo que en realidad sucede a muy pequeña escala.
  • La variabilidad natural interna del clima. Se trata de un sistema muy complejo que cambia de forma natural.
  • Limitaciones en la obtención de datos. Se reducen a aquellos que los científicos han podido recabar en estaciones meteorológicas, balizas y otros instrumentos de medición.
  • Las condiciones iniciales y de contorno de los sistemas, cuyos valores son asignados por los científicos.
  • El escenario económico futuro. Depende de multitud de factores impredecibles, como las políticas de mitigación que se van a llevar a cabo y su efecto en el clima futuro global.

Todas estas fuentes de incertidumbre hacen que existan diferentes representaciones del clima para cada uno de los distintos modelos. No obstante, todas las opiniones científicas convergen en un consenso que queda reflejado en los informes de incertidumbre del Grupo I del IPCC.

Proyecciones de futuro de la temperatura superficial de la Tierra. Policymaker Summary of The Phisical Science Basis (4th IPCC Report).

Cómo interpretar la incertidumbre


La primera impresión que genera esta incertidumbre en el público general es que el cambio climático es una hipótesis, de algún modo, incierta.

Sin embargo, los modelos de incertidumbre presentados en los sucesivos informes del cambio climático no tienen como objetivo dilucidar si el cambio climático es incierto o no. Sirven para informar de la calidad de los modelos obtenidos y trasladar la toma de decisiones políticas fuera de los resultados obtenidos por los científicos.

Parece claro que no podemos conocer el futuro a ciencia cierta y, como diría Zygmunt Bauman, la única certeza es la incertidumbre. Ello no impide, sin embargo, que podamos estimar de forma más o menos robusta el futuro plausible que nos espera.

Acompañar los resultados de las simulaciones con modelos probabilísticos de incertidumbre no es una muestra de debilidad, sino un instrumento que permite comunicar esas estimaciones de manera transparente, sin comprometer la investigación científica con cuestiones políticas, sociales o éticas.

Se trata de una actividad que los científicos y el IPCC consideran como un ejemplo de rigor, a pesar de que haya mercaderes de la duda que la exploten como una debilidad. La certeza de la incertidumbre en los informes del IPCC es, paradójicamente, la única forma disponible para hacer que las proyecciones del clima que nos espera sean lo más certeras posible.

 

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

Algo más aterrador que lo que dijo la ONU, solo que dicho por científicos de hace 40 años

Avatar

Publicado

el

Hace unas semanas, el mundo celebraba el 50 aniversario de la llegada del hombre a la Luna. Sin embargo, ha pasado casi inadvertido otro aniversario científico, quizá de igual importancia para el futuro de nuestra civilización.

Hace cuarenta años, un grupo de científicos se reunió en la Institución Oceanográfica de Woods Hole, en Massachussetts, para la primera sesión del “Grupo Ad Hoc sobre Dióxido de Carbono y Clima”. La reunión dio lugar a la preparación del llamado Informe Charney, la primera evaluación exhaustiva sobre el cambio climático mundial debido al dióxido de carbono.

No suena tan increíble como el aterrizaje en la Luna y, desde luego, no había millones de personas conteniendo la respiración a la espera de los resultados de la reunión.

Sin embargo, el Informe Charney es un buen trabajo científico y el éxito de sus predicciones a lo largo de estos 40 años ha establecido firmemente la ciencia del calentamiento global.

¿Qué es ese ‘gas de efecto invernadero’?


Ya en el siglo XIX, otros científicos habían demostrado que el dióxido de carbono era lo que hoy llamamos un “gas de efecto invernadero”. En la década de los 50 del siglo XX, los científicos predijeron el aumento de la temperatura en varios grados producido por la quema de combustibles fósiles.

En 1972, John Sawyer, responsable de investigación de la Oficina Meteorológica del Reino Unido, escribió un artículo de cuatro páginas publicado en la revista Nature que resumía lo que se sabía hasta ese momento. El artículo predecía un calentamiento de casi 0,6 ℃ para finales del siglo XX.

Pero estas predicciones eran todavía controvertidas en los años 70. En todo caso, el mundo se había enfriado a mediados del siglo XX y todavía se especulaba en los medios de comunicación con que quizá nos estábamos dirigiendo hacia una nueva edad de hielo.

El encuentro de Woods Hole reunió a 10 distinguidos científicos del clima, que habían solicitado asesoramiento a otros investigadores de todo el mundo. El grupo estaba liderado por Jule Charney, del Instituto de Tecnología de Massachusetts (MIT), uno de los estudiosos de la atmósfera más respetados del siglo XX.

El informe expone claramente lo que se sabía sobre los posibles efectos del incremento de dióxido de carbono en el clima, así como las incertidumbres. La conclusión del informe fue clara:

Estimamos que el calentamiento más probable al duplicar las emisiones de CO₂ estará cerca de 3 ℃ con un margen de error de 1,5 ℃.

Durante los 40 años transcurridos desde aquella reunión, la media anual de concentración de CO₂ en la atmósfera, medida en Mauna Loa, Hawaii, se ha incrementado cerca de un 21 %. Durante el mismo periodo, la temperatura media global de la superficie terrestre se ha incrementado en torno a 0,66 ℃, casi exactamente lo que podría haberse esperado si una duplicación de CO₂ produce cerca de 2,5 ℃ de calentamiento, justo un poco por debajo de su mejor estimación. Un pronóstico notablemente premonitorio.

Author provided/The Conversation, CC BY-ND

Repercusión del artículo


A pesar de la gran consideración con la que los autores del Informe Charney fueron recibidos por sus compañeros científicos de aquella época, el informe no produjo cambios inmediatos de comportamiento por parte de los ciudadanos o los políticos.

Con el tiempo, como el mundo ha continuado calentándose como se predijo, el informe ha sido considerado como un hito relevante para calibrar las consecuencias que nuestros actos tienen sobre el clima. La nueva hornada de científicos del clima venera a Charney y sus coautores por su perspicacia y claridad.

Base científica


El informe ejemplifica cómo trabaja la buena ciencia: tras un examen desde los puntos de vista físico y químico, se establece una hipótesis, y, basándose en los resultados de su investigación, se hacen predicciones sólidas. Aquí, “predicciones sólidas” significa algo que sería improbable que suceda si sus hipótesis y sus investigaciones fueran incorrectas.

En este caso, sus predicciones más específicas fueron que el calentamiento entre 1,5 ℃ y 4,5 ℃ vendría acompañado de una duplicación del CO₂ atmosférico. En ese momento, las temperaturas globales, a falta de sus hipótesis y ciencia, podría haberse esperado que se mantuvieran prácticamente iguales durante los 40 años posteriores, que se enfriaran un poco, posiblemente incluso que enfriaran mucho, o que calentaran un montón (o un poco).

En ausencia de una ciencia del calentamiento global, cualquiera de estos resultados podría haber sido factible, así que sus predicciones específicas reflejaron una prueba muy rigurosa de su ciencia.

Los autores del Informe Charney no resumieron sin sentido crítico la ciencia. También actuaron de forma escéptica, intentando encontrar factores que pudiesen invalidar sus conclusiones. Así, determinaron:

Hemos intentado, pero no ha sido posible encontrar efectos físicos pasados por alto o subestimados que puedan reducir el calentamiento global estimado actual como consecuencia de la duplicación del CO₂ atmosférico a proporciones insignificantes o revertirlas completamente.

El informe y la exitosa verificación de su predicción aportan una base científica firme para el debate sobre qué debemos hacer ante el calentamiento global.

Durante los 40 años siguientes, como el mundo se calentó tal y como Charney y sus compañeros esperaban, la ciencia del cambio climático mejoró, con modelos que incluyeron varios de los factores que faltaban en las conclusiones de 1979.

Sin embargo, esta ciencia posterior solo ha confirmado las conclusiones del Informe Charney, aunque ahora son posibles muchas más predicciones detalladas sobre el cambio climático.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo
Publicidad