fbpx
Conecta con nosotros

Ciencia

Aprenda a diferenciar entre buena ciencia, mala ciencia y pseudociencia

Avatar

Publicado

el

Ilustración con fórmulas matemáticas
Pixabay
 

A pesar de su apariencia seria y técnica, algunos documentos que circulan por las redes, y muchos informes elaborados para empresas y administraciones, no son ciencia. No lo son porque no han utilizado el método científico ni pasado filtros de calidad independientes. Eso es pseudociencia. En otros casos, el artículo ha pasado algunos filtros, pero carece de calidad: eso es mala ciencia. ¿Cómo podemos distinguir unas de otras?

Numerosos filtros de calidad

El método científico es un proceso de experimentación que se utiliza para explorar observaciones y responder preguntas. El objetivo es descubrir relaciones de causa y efecto. Para ello se reúnen y examinan las evidencias y se estudia si toda la información disponible se puede combinar en una respuesta lógica.

El paso final del proceso científico consiste en comunicar los resultados. Estos suelen hacerse públicos primero en congresos, con un póster o comunicación oral. Los congresos serios cuentan con comités científicos que seleccionan los mejores para su presentación, y rechazan otros si la calidad es insuficiente.

Por último se envía el trabajo para su publicación en una revista científica con evaluación por pares. Esta consiste en que el editor encargado y dos o más revisores expertos independientes lean el trabajo y juzguen su calidad, originalidad y rigor. Si el trabajo pasa los filtros, será publicado y sus resultados serán utilizados, criticados y citados por otros. Así pasarán a formar parte del conocimiento científico.

¿Cómo valorar la calidad de la ciencia?

Hay científicos, grupos y centros de investigación buenos y malos. También congresos y revistas científicas mejores y peores. ¿Cómo valorar la calidad de la ciencia que hacen?

Fijarse solo en el número de artículos es un error, es mejor medir el impacto de los trabajos. Una forma de hacerlo es ver el uso que hace de ellos el resto de la comunidad científica. En otras palabras, analizar cuántas veces es citado por otros trabajos. Para ello, un indicador muy utilizado, aunque debatido, es el índice de Hirsch o índice H.

También se puede estudiar la calidad de las revistas en las que se publican los trabajos, ya que las de mejor nivel son también las que tienen mayor competencia para publicar. Esto se mide con los índices de impacto y de uso, que las revistas suelen anunciar en sus páginas web.

Lo ideal es mirar más allá de los índices y considerar el impacto práctico de las investigaciones. Por ejemplo, si han generado patentes y contratos, han dado lugar a la creación de empresas y si han tenido efectos positivos sobre la sociedad en forma de mejoras en la esperanza de vida, productividad y regulaciones.

Pongamos como ejemplo la investigación sobre vacunas. La vacuna contra la tuberculosis BCG, desarrollada a principios del siglo XX por los investigadores Calmette y Guérin del Instituto Pasteur, es todavía la más utilizada del mundo. Hoy todavía salva miles de vidas cada año. Se estima que los 100 millones de dosis administradas anualmente a bebés previenen 41 000 casos de tuberculosis grave en niños. Los resultados se publicaron en 1927 en forma de libro, que cuenta con más de 200 citas por parte de otros científicos.

Una búsqueda en la base de datos de artículos científicos Scopus revela su impacto real: hay 48 000 entradas sobre la vacuna BCG.

Hoy la buena ciencia accede con frecuencia a las mejores revistas, suele ser muy citada y genera impactos más allá del círculo científico. La mala ciencia es la que solo sirve para engordar el currículum: se publica mal y ni es citada, ni genera debate científico, ni tiene mayor impacto en nuestra sociedad.

Pseudociencia y mala ciencia

Los informes y otros documentos no publicados ni siquiera son ciencia, pues no han pasado por una evaluación por pares. Los mejores de ellos contienen artículos científicos evaluados por pares, o terminarán dando lugar a alguno.

Otros, a pesar de ser rigurosos en los aspectos técnicos, no reúnen los requisitos de calidad y novedad que exigen las buenas revistas científicas, pero sirven a quien los encargó.

En el peor de los casos, la información contenida en tales documentos está sesgada a fin de obtener las conclusiones deseadas por su promotor o su autor: parece ciencia, pero es homeopatía. Gonzalo Casino escribe lo siguiente en su artículo Contra la mala ciencia:

“La mala ciencia también tiene sus beneficiarios. Y estos son no solo los científicos mediocres incapaces de hacer ciencia excelente, sino también todos aquellos grupos económicos o profesionales que prefieren los resultados defectuosos o ambiguos de la mala ciencia a los de un buen estudio, porque probablemente éstos no les favorecerían”.

Atención: los buenos científicos también pueden hacer mala ciencia. Por interés, por oportunismo o simplemente porque les convenga disfrazar de ciencia lo que es pura especulación. Dependerá de la ética de cada cual identificar cada texto como lo que realmente es, ciencia u opinión. La ciencia se puede reconocer si se siguen los criterios establecidos para ello. Esa es la que avanza el conocimiento y el desarrollo de la sociedad, y cuya financiación y divulgación debe priorizarse.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Ciencia

Cómo los mosquitos cambiaron la historia de la humanidad

Avatar

Publicado

el

Entre 1980 y 2010 la malaria acabó con la vida de entre 1 200 000 y 2 780 000 personas cada año, lo que supuso un aumento de casi el 25 % en tres décadas. Según el informe de la OMS correspondiente a 2017, la malaria mató a 435 000 personas (entre 219 millones de casos), de las cuales dos tercios eran menores de cinco años.

Esto significa que es muy posible que la malaria haya matado a más personas que cualquier otra enfermedad a lo largo de la historia.

El historiador Timothy C. Winegard estima en su último libro, The Mosquito: A Human History of Our Deadliest Predator] (El mosquito: una historia humana de nuestro depredador más mortífero), que las hembras de los mosquitos Anopheles han enviado al otro mundo unos 52 000 millones de personas del total de 108 000 millones que han existido a lo largo de la historia de la Tierra.

En el transcurso de la historia el daño provocado por estos minúsculos insectos ha determinado el destino de imperios y naciones, paralizado actividades económicas y decidido el resultado de guerras decisivas. Por el camino, han matado a casi la mitad de la humanidad.

El linaje exterminador de los mosquitos, compuesto por unas tres mil especies, ha desempeñado un papel más importante en la configuración de nuestra historia que cualquier otro organismo del planeta.

La malaria o paludismo se transmite entre los seres humanos a través de mosquitos hembras del género Anopheles, cuyas 465 especies formalmente reconocidas habitan prácticamente en todo el mundo. El de la fotografía, Anopheles gambiae, trasmite el plasmodio más peligroso, Plasmodium falciparum.

Florence Nightingale llamó a las marismas pontinas, cercanas a Roma, «el valle de la sombra de la muerte». Es algo que los cartagineses y los primeros pueblos bárbaros que atacaron Roma ya habían comprobado por sí mismos.

El fin de la segunda Guerra Púnica terminó en las llanuras de Regia con un enfrentamiento entre el general cartaginés Aníbal Barca y el joven Publio Cornelio Escipión el Africano. Aníbal fue derrotado en la batalla de Zama (202 a. C.), que significó el final de un conflicto que había durado diecisiete años.

El declive cartaginés había comenzado mucho antes en las ciénagas pontinas, cuando los mosquitos de la malaria se cebaron con las tropas cartaginesas. El insecto ayudó a proteger a Roma de Aníbal y sus hordas, y proporcionó un trampolín para que sus habitantes dominaran el Mediterráneo.

Los visigodos, dirigidos por el rey Alarico, fueron los primeros bárbaros en atacar Roma. En 408, sus ejércitos sitiaron la ciudad, que tenía aproximadamente un millón de habitantes, en tres ocasiones distintas. En 410, asedió la ciudad por tercera y última vez. Una vez intramuros, sus tropas emprendieron tres días de pillaje, violaciones, destrucción y muerte.

Satisfechos con los estragos y el saqueo, los visigodos abandonaron la ciudad y se dirigieron al sur, dejando tras de sí un rastro de sangre y ruinas. Aunque tenía previsto regresar a Roma para arrasarla de una vez por todas, cuando terminó la campaña del sur las fuerzas de Alarico estaban diezmadas por la malaria. El poderoso rey, el primero en saquear Roma, murió de malaria en el otoño de 410. El mosquito había vuelto a salvar Roma.

Derrotado por una coalición de visigodos y romanos cerca del bosque de las Ardenas en junio de 451, Atila giró sus vociferantes hunos hacia el sur y comenzó una rápida invasión del norte de Italia. A su paso sembraba el pánico, la destrucción y la muerte. Como habían hecho los espartanos en las Termópilas, una pequeña fuerza romana logró detener a los hunos que avanzaban en las tierras pantanosas cercanas al río Po. Unas inesperadas legiones de mosquitos entraron rápidamente en la batalla y frenaron el avance huno. Una vez más, el general Anopheles salvó Roma.

Recordando una página del memorándum del ayudante militar de Aníbal, Atila mantuvo una audiencia con el Papa León I. A pesar de la leyenda de un piadoso papa cristiano que convence al bárbaro Atila para que abandone el asalto de Roma y se retire de Italia, los feroces hunos de Atila habían sido derrotados otra vez por los insectos. La respuesta de Atila a la súplica del Papa no fue más que una artimaña para salvar la cara. Lo más prudente era que el rey de los hunos regresara a la alta estepa más allá del Danubio, fría y seca, donde Anopheles no podía seguirle.

Aunque Atila no murió víctima de la malaria como Alejando Magno o Alarico, dos años más tarde, en el año 453, murió de complicaciones desencadenadas por el alcoholismo agudo. La división y las luchas internas surgieron rápidamente, y los hunos tribales abandonaron su frágil unidad y desaparecieron de la historia.

El animal más mortífero de la historia


El primero de agosto, la editorial estadounidense Ruston puso a la venta el libro de Winegard. Este ensayo muestra cómo los mosquitos han sido durante milenios la fuerza más poderosa para determinar el destino de la humanidad y condicionar el moderno orden mundial.

La historia de la protección de Roma por ejércitos de mosquitos es una más de las muchas que cuenta Winegard, que a lo largo de su ensayo presenta a estos insectos no solo como una molesta plaga, sino como una fuerza de la naturaleza que ha cambiado el resultado de acontecimientos significativos en la historia humana.

Desde la antigua Atenas hasta la Segunda Guerra Mundial, pasando por la Guerra de Independencia de Estados Unidos, la estrepitosa derrota de los ingleses frente a Blas de Lezo en el sitio de Cartagena de Indias y la creación de Gran Bretaña, Winegard destaca momentos clave en los que las enfermedades transmitidas por mosquitos causaron que ejércitos enteros se derrumbaran, que grandes líderes enfermaran o que las poblaciones fueran vulnerables a invasiones.

Un sobreviviente maya de las epidemias de malaria posteriores a Colón recordaba: «Grande era el hedor de la muerte. […] Todos estábamos así. ¡Nacimos para morir!». Los seres humanos vivieron y murieron a causa de enfermedades transmitidas por mosquitos durante miles de años sin comprender cómo les llegaba la parca.

El enemigo parecía, lo sigue pareciendo, insignificante.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

La incertidumbre que dejan los informes sobre el cambio climático: ¿Una opción para dudar?

Avatar

Publicado

el

Pixabay

El año 2018 fue el cuarto año más caluroso de la historia moderna de la Tierra. La segunda década del siglo XXI está batiendo el récord de temperatura media global desbancando a la primera, que había superado la espectacular marca de los años anteriores.

El listón de temperaturas elevadas en nuestro planeta está llegando a límites escalofriantes. Los que seguimos (con preocupación) la evolución del clima global hemos observado cómo la Organización Meteorológica Mundial (OMM) ha informado que durante los últimos 22 años se han batido 20 récords de temperatura media.

La tendencia va en aumento: la Tierra acumula 400 meses seguidos de temperaturas superiores a la media histórica, sumando más de 33 años consecutivos por encima de la referencia del siglo XX.

Consecuencias de la actividad del ser humano


El cambio climático puede considerarse una certeza y ello supone una verdadera amenaza para el mundo que conocemos. Todo indica que se trata de una amenaza generada principalmente por la actividad industrial humana.

El informe especial Global Warming of 1,5 ℃ del IPCC, publicado a finales de 2018, no da lugar a dudas: estima que esta actividad ha aumentado la temperatura del planeta en aproximadamente 1 ℃ con respecto a los niveles preindustriales.

En unos pocos decenios la concentración de CO₂ en la atmósfera ha aumentado más del 30 %, superando los 400 ppm y batiendo el récord datado hace 3 millones de años. No se trata de una evolución natural del clima: la evidencia es abrumadora y el consenso de la comunidad científica es prácticamente unánime.

Supercomputadores para pronosticar el futuro


Sin embargo, así como el cambio climático pasado es avalado por el histórico de datos recogidos a lo largo del último siglo, para conocer el futuro no hay observación empírica posible.

Si queremos estimar los posibles escenarios a los que se enfrenta nuestro planeta, dependemos casi exclusivamente de complejos modelos de simulación. A su vez, estos se componen de un conjunto de submodelos desarrollados por centros como la NASA, la UK Met Office o el Beijing Climate Center.

Simulaciones empleando el modelo climático del Goddard Earth Observing System (GEOS-5) de la NASA. William Putman/NASA/Goddard

Estas simulaciones se rigen por un corpus teórico, es decir, un conjunto de teorías científicas, leyes y datos. Estos actúan como “reglas” que hacen que la simulación emule adecuadamente el sistema natural que se pretende conocer. Por ejemplo, en el caso de las simulaciones atmosféricas, este corpus es construido con las ecuaciones que definen la mecánica de los fluidos y el efecto calorífico de la radiación solar.

En conjunto con otros submodelos, como la simulación del ciclo del carbono o el movimiento tectónico, estas simulaciones se utilizan para construir posibles escenarios futuros. Estos se utilizan para la toma de decisiones en política de mitigación o de adaptación medioambiental, ya sea en forma de monetización del carbono o de aplicación de estrategias de geoingeniería, por ejemplo.

Sin embargo, a pesar de que los mecanismos que gobiernan el cambio climático antropogénico son bien entendidos, estas proyecciones presentan incertidumbre en la precisión de sus resultados. Su cuantificación es, precisamente, la principal herramienta para comunicar el (des)conocimiento de expertos a políticos.

Fuentes de incertidumbre


La literatura especializada establece hasta siete factores que determinan el grado de incertidumbre:

  • La estructura de los modelos. Simplifican la realidad: se seleccionan los rasgos que mejor definen los fenómenos naturales, pero sin exceder la capacidad de procesamiento de los ordenadores.
  • La utilización de aproximaciones numéricas para calcular las soluciones de las ecuaciones diferenciales complejas que conforman los modelos.
  • La capacidad de resolución limitada de los ordenadores. Esto hace que los procesos a microescala tengan que ser descritos usando valores medios y estimaciones de lo que en realidad sucede a muy pequeña escala.
  • La variabilidad natural interna del clima. Se trata de un sistema muy complejo que cambia de forma natural.
  • Limitaciones en la obtención de datos. Se reducen a aquellos que los científicos han podido recabar en estaciones meteorológicas, balizas y otros instrumentos de medición.
  • Las condiciones iniciales y de contorno de los sistemas, cuyos valores son asignados por los científicos.
  • El escenario económico futuro. Depende de multitud de factores impredecibles, como las políticas de mitigación que se van a llevar a cabo y su efecto en el clima futuro global.

Todas estas fuentes de incertidumbre hacen que existan diferentes representaciones del clima para cada uno de los distintos modelos. No obstante, todas las opiniones científicas convergen en un consenso que queda reflejado en los informes de incertidumbre del Grupo I del IPCC.

Proyecciones de futuro de la temperatura superficial de la Tierra. Policymaker Summary of The Phisical Science Basis (4th IPCC Report).

Cómo interpretar la incertidumbre


La primera impresión que genera esta incertidumbre en el público general es que el cambio climático es una hipótesis, de algún modo, incierta.

Sin embargo, los modelos de incertidumbre presentados en los sucesivos informes del cambio climático no tienen como objetivo dilucidar si el cambio climático es incierto o no. Sirven para informar de la calidad de los modelos obtenidos y trasladar la toma de decisiones políticas fuera de los resultados obtenidos por los científicos.

Parece claro que no podemos conocer el futuro a ciencia cierta y, como diría Zygmunt Bauman, la única certeza es la incertidumbre. Ello no impide, sin embargo, que podamos estimar de forma más o menos robusta el futuro plausible que nos espera.

Acompañar los resultados de las simulaciones con modelos probabilísticos de incertidumbre no es una muestra de debilidad, sino un instrumento que permite comunicar esas estimaciones de manera transparente, sin comprometer la investigación científica con cuestiones políticas, sociales o éticas.

Se trata de una actividad que los científicos y el IPCC consideran como un ejemplo de rigor, a pesar de que haya mercaderes de la duda que la exploten como una debilidad. La certeza de la incertidumbre en los informes del IPCC es, paradójicamente, la única forma disponible para hacer que las proyecciones del clima que nos espera sean lo más certeras posible.

 

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Ciencia

Algo más aterrador que lo que dijo la ONU, solo que dicho por científicos de hace 40 años

Avatar

Publicado

el

Hace unas semanas, el mundo celebraba el 50 aniversario de la llegada del hombre a la Luna. Sin embargo, ha pasado casi inadvertido otro aniversario científico, quizá de igual importancia para el futuro de nuestra civilización.

Hace cuarenta años, un grupo de científicos se reunió en la Institución Oceanográfica de Woods Hole, en Massachussetts, para la primera sesión del “Grupo Ad Hoc sobre Dióxido de Carbono y Clima”. La reunión dio lugar a la preparación del llamado Informe Charney, la primera evaluación exhaustiva sobre el cambio climático mundial debido al dióxido de carbono.

No suena tan increíble como el aterrizaje en la Luna y, desde luego, no había millones de personas conteniendo la respiración a la espera de los resultados de la reunión.

Sin embargo, el Informe Charney es un buen trabajo científico y el éxito de sus predicciones a lo largo de estos 40 años ha establecido firmemente la ciencia del calentamiento global.

¿Qué es ese ‘gas de efecto invernadero’?


Ya en el siglo XIX, otros científicos habían demostrado que el dióxido de carbono era lo que hoy llamamos un “gas de efecto invernadero”. En la década de los 50 del siglo XX, los científicos predijeron el aumento de la temperatura en varios grados producido por la quema de combustibles fósiles.

En 1972, John Sawyer, responsable de investigación de la Oficina Meteorológica del Reino Unido, escribió un artículo de cuatro páginas publicado en la revista Nature que resumía lo que se sabía hasta ese momento. El artículo predecía un calentamiento de casi 0,6 ℃ para finales del siglo XX.

Pero estas predicciones eran todavía controvertidas en los años 70. En todo caso, el mundo se había enfriado a mediados del siglo XX y todavía se especulaba en los medios de comunicación con que quizá nos estábamos dirigiendo hacia una nueva edad de hielo.

El encuentro de Woods Hole reunió a 10 distinguidos científicos del clima, que habían solicitado asesoramiento a otros investigadores de todo el mundo. El grupo estaba liderado por Jule Charney, del Instituto de Tecnología de Massachusetts (MIT), uno de los estudiosos de la atmósfera más respetados del siglo XX.

El informe expone claramente lo que se sabía sobre los posibles efectos del incremento de dióxido de carbono en el clima, así como las incertidumbres. La conclusión del informe fue clara:

Estimamos que el calentamiento más probable al duplicar las emisiones de CO₂ estará cerca de 3 ℃ con un margen de error de 1,5 ℃.

Durante los 40 años transcurridos desde aquella reunión, la media anual de concentración de CO₂ en la atmósfera, medida en Mauna Loa, Hawaii, se ha incrementado cerca de un 21 %. Durante el mismo periodo, la temperatura media global de la superficie terrestre se ha incrementado en torno a 0,66 ℃, casi exactamente lo que podría haberse esperado si una duplicación de CO₂ produce cerca de 2,5 ℃ de calentamiento, justo un poco por debajo de su mejor estimación. Un pronóstico notablemente premonitorio.

Author provided/The Conversation, CC BY-ND

Repercusión del artículo


A pesar de la gran consideración con la que los autores del Informe Charney fueron recibidos por sus compañeros científicos de aquella época, el informe no produjo cambios inmediatos de comportamiento por parte de los ciudadanos o los políticos.

Con el tiempo, como el mundo ha continuado calentándose como se predijo, el informe ha sido considerado como un hito relevante para calibrar las consecuencias que nuestros actos tienen sobre el clima. La nueva hornada de científicos del clima venera a Charney y sus coautores por su perspicacia y claridad.

Base científica


El informe ejemplifica cómo trabaja la buena ciencia: tras un examen desde los puntos de vista físico y químico, se establece una hipótesis, y, basándose en los resultados de su investigación, se hacen predicciones sólidas. Aquí, “predicciones sólidas” significa algo que sería improbable que suceda si sus hipótesis y sus investigaciones fueran incorrectas.

En este caso, sus predicciones más específicas fueron que el calentamiento entre 1,5 ℃ y 4,5 ℃ vendría acompañado de una duplicación del CO₂ atmosférico. En ese momento, las temperaturas globales, a falta de sus hipótesis y ciencia, podría haberse esperado que se mantuvieran prácticamente iguales durante los 40 años posteriores, que se enfriaran un poco, posiblemente incluso que enfriaran mucho, o que calentaran un montón (o un poco).

En ausencia de una ciencia del calentamiento global, cualquiera de estos resultados podría haber sido factible, así que sus predicciones específicas reflejaron una prueba muy rigurosa de su ciencia.

Los autores del Informe Charney no resumieron sin sentido crítico la ciencia. También actuaron de forma escéptica, intentando encontrar factores que pudiesen invalidar sus conclusiones. Así, determinaron:

Hemos intentado, pero no ha sido posible encontrar efectos físicos pasados por alto o subestimados que puedan reducir el calentamiento global estimado actual como consecuencia de la duplicación del CO₂ atmosférico a proporciones insignificantes o revertirlas completamente.

El informe y la exitosa verificación de su predicción aportan una base científica firme para el debate sobre qué debemos hacer ante el calentamiento global.

Durante los 40 años siguientes, como el mundo se calentó tal y como Charney y sus compañeros esperaban, la ciencia del cambio climático mejoró, con modelos que incluyeron varios de los factores que faltaban en las conclusiones de 1979.

Sin embargo, esta ciencia posterior solo ha confirmado las conclusiones del Informe Charney, aunque ahora son posibles muchas más predicciones detalladas sobre el cambio climático.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo
Publicidad