fbpx
Conecta con nosotros

Tecnología

El despliegue de las redes 5G, o la geopolítica digital

Avatar

Publicado

el

Conseguir conexiones a internet rápidas y fiables constituye ya un objetivo prioritario para cualquier país que quiera no perder el tren de la nueva economía digital. Esta conectividad es ya un factor de competitividad clave para la economía de los estados, al igual que lo han sido en el pasado otras infraestructuras no digitales como las de energía o las de transporte.

La propia UE lo ha entendido así y, por eso, ha incluido entre sus metas el despliegue adecuado, rápido y fiable de las redes de comunicación 5G. Según sus planes, en 2020 todos los países miembros deberán disponer de, al menos, una ciudad principal con 5G disponible comercialmente y en 2025 el despliegue deberá ser total.

Las inversiones que requiere esta nueva red suponen, según la Comisión Europea, 910 000 millones de euros adicionales al PIB de la Unión y la creación de 1,3 millones de puestos de trabajo. Sin este esfuerzo inversor no se logrará un mercado único digital y Europa quedaría por detrás de EE. UU. y China en la carrera por el dominio tecnológico mundial.

Ahora bien, si es tan importante no perder esa carrera, cabe plantearse qué hace tan relevante desde el punto de vista geopolítico una cuestión aparentemente, y en puridad, solo tecnológica. La conectividad 5G no es simplemente una mejora de lo ya existente como en su día supuso el paso del 3G al 4G. Es un cambio profundo en la conectividad que va a permitir, entre otras cosas, un tiempo de respuesta de la red de un milisegundo y una velocidad de conexión 100 veces más rápida que la actual red 4G, además de un ahorro de energía del 90% respecto a los sistemas actuales.

Un impulso económico transversal


Esa velocidad y fiabilidad de la conexión va a ser, como afirma el Plan Nacional 5G aprobado por el Gobierno de España en 2018, una pieza clave en la transformación digital de la sociedad y la economía, ya que el pleno desarrollo del internet de las cosas, la conducción autónoma, la impresión 3D, la industria 4.0, la telemedicina, el uso masivo del big data, la robótica avanzada o la realidad virtual, entre otras realidades, se soportará sobre la base del 5G.

Se espera que el despliegue alcance su madurez tecnológica y comercial a partir de 2020 y que su impacto mejore la productividad, la eficiencia y la eficacia de empresas y administraciones públicas logrando un efecto de impulso económico transversal sobre el conjunto de la economía.

El modelo elegido en la mayoría de los países para su implementación consiste en permitir que los operadores celebren acuerdos voluntarios entre ellos para la distribución, colocación y uso compartido de las costosas infraestructuras, casi siempre sobre la base de un operador dominante que permite utilizar sus recursos a los demás operadores sobre la base de acuerdos y compensaciones.

Es necesaria una gran inversión que deberá ser costeada por las empresas privadas de telecomunicaciones que asuman ese reto. Y ello porque es necesario desplegar infraestructura adicional a la ya desplegada con el 4G: más fibra e instalar miles de small cells cada centenar de metros para cubrir todo el territorio. Además, las administraciones públicas deberán asegurar una correcta gestión del espectro radioeléctrico, que es de dominio público, con el objeto de liberar ancho de banda.

El ring geopolítico del 5G


Pero lo que está en juego es algo más que una correcta utilización de las oportunidades que ofrece la tecnología. También está en juego la preponderancia tecnológica. Así lo han entendido en los últimos años Estados Unidos y China, ambos metidos de lleno en una carrera para lograr la supremacía tecnológica: la prevalencia de las tecnologías y sistemas otorga a aquel que logra esa posición una ventaja competitiva indudable a la hora de poder imponer sus intereses geopolíticos, económicos, comerciales o incluso culturales.

El 5G también se ha convertido en arena conflictiva en el que ambas potencias compiten en una guerra comercial, utilizando en ocasiones razones de seguridad nacional que, probablemente, también incluyen una buena dosis de protección a empresas nacionales y disputa por la imposición de la tecnología propia. No es de extrañar que esa disputa se haya agudizado en el último año porque es mucho lo que está en juego. Forma parte del conflicto abierto más amplio e importante relativo a los microchips, que son críticos para todos los sistemas, aunque especialmente relevantes para la industria de seguridad y defensa.

En el ámbito del despliegue de las redes 5G va a tener una especial relevancia la fabricación de las small cells, que van a ser parte importante de la arquitectura del sistema. Son cinco los fabricantes principales de estos elementos: Nokia, Ericsson, Samsung, Huawei y ZTE, las dos últimas empresas chinas. Esa es la razón por la que la utilización de tecnología de estas dos compañías ha producido enfrentamientos entre EE. UU. y China.

Ya en 2012, la Comisión de Inteligencia del Congreso de los Estados Unidos avisó que tanto ZTE como Huawei podrían ser una amenaza para la seguridad nacional. Estas disputas geopolíticas se refieren sobre todo a la posibilidad de que fabricantes chinos introduzcan en sus productos dispositivos que permitan el envío de información de forma encubierta o que, sencillamente, puedan escapar al control del operador de esos equipos poniendo en peligro la seguridad, integridad o confidencialidad de los sistemas.

La seguridad nacional también está implicada para el resto de países y no solo para esas superpotencias, ya que la dependencia tecnológica o la opción por unos u otros sistemas pueden ser opciones estratégicas que condicionen su futuro desarrollo.

Una manifestación de esa preocupación sería, por ejemplo, la prohibición por parte del Gobierno de Nueva Zelanda dirigida a un operador de redes de telecomunicaciones, Spark, sobre la utilización de sistemas de Huawei para el despliegue de su red 5G. El Ejecutivo sigue así los pasos de Australia y Estados Unidos, que ya impiden que el equipamiento de ese fabricante se integre en sus redes de comunicaciones.

Recientemente, Alemania se ha unido a este veto a la tecnología china para el despliegue de las redes 5G alegando razones de ciberseguridad. Por ello, China afirma que Estados Unidos están presionando a sus aliados para que tomen partido en esta nueva guerra tecnológica.

La ciberseguridad, una preocupación global

Los aspectos relativos a la ciberseguridad de redes y sistemas son esenciales para asegurar el desarrollo de la economía mundial. En su informe sobre riesgos globales, el Foro Económico Mundial de Davos de 2019 señaló los ciberataques como la amenaza más probable solo por detrás de los eventos climatológicos extremos, de los desastres naturales y el robo masivo de datos. No obstante, lo que no parece serio es restringir las libertades económicas que amparan el libre comercio mundial sin motivos sólidos, fundados y no apriorísticamente determinados por categorías completas de empresas según la nacionalidad.

Existen serias sospechas sobre el cumplimiento de las normativas sobre privacidad o propiedad industrial de algunos fabricantes, así como el temor con base en hechos constatados, de que esa tecnología disponga de puertas traseras. Dado que cabe la sospecha de que algunas de esas prevenciones sean reforzadas por razones comerciales o económicas, no se puede por menos que insistir en la necesidad de que los estados estén presentes a la hora de determinar cuáles son los estándares y los requisitos a cumplir a la hora de asegurar ese nivel adecuado de ciberseguridad.

En este sentido, es especialmente útil la realización de auditorías de ciberseguridad sobre todos los nuevos elementos que se incorporen a las redes. Han de estar libres de toda sospecha tras el correspondiente examen, análisis y certificación por autoridades públicas competentes en la materia. La tecnología que se va a emplear por las empresas a la hora de desplegar esas redes 5G, venga de donde venga, debe ser fiable en la medida de lo posible.


Una versión de este artículo fue recogida originalmente en la publicación CIBER Elcano del Real Instituto Elcano, colaborador de contenido de The Conversation España.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Tecnología

La tecnología informática de las misiones Apolo se adelantó una década a su tiempo

Avatar

Publicado

el

Se cumplen ahora 50 años de la misión de la Nasa Apolo 11, que transportó por primera vez seres humanos a la superficie de la Luna. En este medio siglo que ha transcurrido la tecnología ha dado pasos de gigante, se ha popularizado de manera ubicua y permeado en la mayoría de ámbitos sociales. Toda esta evolución vertiginosa puede hacer que se pierda la perspectiva y que no se aprecie su valor real. ¿Cómo era la tecnología de esa época?


En los años 60, la tecnología informática era muy distinta de la actual. Su uso cotidiano era prácticamente nulo, limitado a universidades y centros de investigación para hacer cálculos científicos. A mediados de esa década destacaban computadores clásicos como el IBM System/360 y la serie 1100 de UNIVAC, que tenían frecuencias de reloj del orden de 1 MHz y unos pesos que alcanzaban más de los 2 000 kg.

Durante esa década surge la necesidad de contar con un sistema informático que pudiera integrarse en las distintas misiones del programa Apolo. En este contexto se diseñó el AGC, el Apolo Guidance Computer, un sistema creado en el MIT Instrumentation Laboratory bajo la dirección de Charles Stark Draper.

Apollo Guidance Computer (AGC) Wikimedia Commons

Este computador, con una frecuencia de reloj de 1 MHz, 4 K de memoria RAM y 32 K de memoria ROM, fue innovador en la utilización de circuitos integrados de manera masiva, unos 2 800 fabricados por la empresa Fairchild Semiconductor, con un coste aproximado de unos 150 000 dólares de la época.

La programación del sistema también fue diseñada en el MIT por Margaret Hamilton, una precursora en la disciplina de la ingeniería del software. Para ello estableció una serie de principios, novedosos en aquella época, con el objetivo de conseguir la robustez del código, y por lo tanto la seguridad de la misión. El sistema estaba diseñado para usar un 85 % de su capacidad, dejando el 15 % restante como margen de seguridad para el caso de que sufriera una sobrecarga.

Margaret Hamilton, ingeniera jefe de software de vuelo del Apollo, en el Módulo de Comando Apollo. NASA / Wikimedia Commons

Las tareas ejecutadas en el computador seguían una rígida jerarquía de prioridad, de tal manera que si esa sobrecarga se producía, el sistema sabía cuáles eran los procesos críticos que había que preservar y cuáles había que eliminar para que siguiera funcionando de manera correcta.

Esta concepción del computador como un elemento tolerante a fallos fue una visión pionera para la época, cuya eficacia se pudo comprobar en la misión Apolo 11. Durante la fase de alunizaje de esta misión se produjo un incidente que podría haber resultado catastrófico. La operación de un radar durante el descenso saturó de datos al computador, el cual estuvo a punto de bloquearse, lo que produjo el aviso a la tripulación mediante los famosos códigos de error 1201 y 1202. En otras circunstancias, la misión habría tenido que ser abortada, pero gracias al diseño tolerante a fallos, de Margaret Hamilton, el sistema pudo recuperarse y cumplir su cometido.

Una comparación descontextualizada


Cinco décadas después, ¿cómo se puede comparar aquella tecnología informática del programa Apolo con la actual? Un análisis simplista puede sugerir que la de hoy supera en órdenes de magnitud el rendimiento y prestaciones de su antecesora. Por ejemplo, la gama más reciente de iPhone tendría una frecuencia de reloj 2 500 veces más alta que el AGC del programa Apolo, con una capacidad de memoria nada menos que un millón de veces mayor. Todo ello con un coste 100 veces inferior.

Esta comparación, descontextualizada, no pone de manifiesto la perspectiva histórica de ambas tecnologías. Para llevar a cabo un análisis más preciso, realicemos la comparación desde el punto de vista de tres parámetros distintos que puedan ofrecer una visión más completa: la eficacia, la fiabilidad y el impacto.

En primer lugar, efectivamente cualquier dispositivo móvil actual tiene un rendimiento órdenes de magnitud superior a los computadores de entonces. Pero, ¿es esto realmente una ventaja? El computador AGC cumplió con éxito la misión para la que fue creado: llevar una misión tripulada a la Luna. Respondió a las expectativas cumpliendo las especificaciones que rigieron su diseño. Es decir, fue eficaz. Un mayor rendimiento, aparte de los sobrecostes que conlleva, suele suponer más complejidad y un mayor número de fuentes de error. Por lo tanto, más rendimiento no implica mayor eficacia.

Por otra parte, es evidente la gran versatilidad de los dispositivos actuales. Pero, ¿realmente es esa versatilidad lo que se buscaba en las misiones Apolo? Al contrario, lo que se necesitaba era un sistema de propósito específico de alta fiabilidad. Gracias a su diseño, el AGC supo aportar esa fiabilidad y resolver con éxito problemas como el relatado anteriormente. En circunstancias similares, un sistema operativo actual de propósito general probablemente habría perdido el control, lo que hubiera llevado a un reinicio del sistema y a un fracaso en la misión. La fiabilidad conseguida por el AGC aportó el nivel de seguridad requerido, aun con un rendimiento más limitado.

Un ordenador IBM System 360/20 expuesto en el Deutsches Museum de Munich, Alemania. A la derecha se muestra una IBM 2560 MFCM (máquina de tarjetas multifunción). Ben Franske / Wikipedia, CC BY

Finalmente, ¿cuál ha sido el impacto producido por la última generación de móviles, la que manejamos actualmente, respecto a las generaciones previas? Cualitativamente, ninguno. Cuantitativamente, un incremento muy reducido de sus prestaciones. ¿Qué supuso la introducción de un computador como el AGC, en el contexto histórico y social de los años 60? Aprovechar el potencial de una tecnología en aquel entonces disruptiva para posibilitar una misión tripulada a la Luna.

Dentro de 50 años probablemente nadie se acordará del móvil de última generación que tenemos ahora en las manos, superado y enterrado por sucesivas e innumerables familias tecnológicas. En cambio, el programa Apolo se seguirá estudiando como un ejemplo de uso de tecnología disruptiva a través de la cual se cambió la historia.

En resumen, la tecnología informática de las misiones Apolo se adelantó una década a su tiempo, no siendo superada hasta finales de los años 70, y sentó las bases de la computación tolerante a fallos cuyos principios fundacionales aún siguen vigentes.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Tecnología

El Retiro de Madrid, un oasis urbano que actúa como climatizador frente al calor

Avatar

Publicado

el

Balazs Sebok/Shutterstock

Fruto de los impactos cada vez mayores del calentamiento global, las ciudades se enfrentan a nuevos problemas. Uno de ellos es la intensificación del efecto de isla de calor urbano (UHI). Este fenómeno hace que un área urbana pueda ser entre 1 y 6 ℃ más cálida que las zonas cercanas.

Son muchas las causas que producen este efecto:

  • El aumento de la absorción de la luz solar por las superficies de color oscuro de los edificios.
  • Las propiedades físicas de los materiales utilizados en estas zonas.
  • La imposición de calor debida a la morfología urbana, que afecta al sombreado y al movimiento del aire.
  • La compacidad urbana que se deriva de la densidad.
  • También la proporción de la parcela, el patrón topográfico, la proximidad del uso de la tierra y de los viajes y la falta de zonas verdes.

El fenómeno también se ve exacerbado por el creciente tamaño de la ciudad y de la población y por el aumento de la tasa de consumo de energía, que puede crear varios focos de calor.

Efecto refrigerante de los espacios verdes


Una mayor atención académica para estudiar el impacto de los espacios verdes urbanos en las islas de calor urbano puede proporcionar a los planificadores estrategias bioclimáticas para abordar este problema.

Las áreas verdes se consideran una forma adecuada de reducir los efectos de isla de calor urbano y proporcionar comodidad física y psicológica a las áreas urbanas cercanas. Este fenómeno es conocido como efecto de enfriamiento de los espacios verdes urbanos.

Las variables más importantes relacionadas con los efectos de enfriamiento de los espacios verdes son la intensidad y la densidad del enfriamiento. Ambas pueden desempeñar un papel importante para los diseñadores y planificadores urbanos en el tratamiento de la isla de calor urbano.

Parque del Buen Retiro. PNOA, cedido por © Instituto Geográfico Nacional/Wikimedia Commons

El impacto de los espacios verdes y sus especificaciones han sido investigados a través de diferentes enfoques. Se han utilizado sensores de observación de campo y de temperatura para medir la intensidad del efecto de enfriamiento (CEI) y de la distancia del efecto de enfriamiento (CED). También se han empleado mapas satelitales y métodos de teledetección para investigar el impacto de un conjunto de espacios verdes urbanos en grandes extensiones de una ciudad.

Se ha observado una buena concordancia entre los resultados derivados de los datos de satélite y los obtenidos de los estudios de campo. A partir de los resultados, se puede concluir que el enfriamiento producido por los grandes parques (con más de 10 ha) es más intenso y alcanza una mayor distancia media.

Estas extensas áreas verdes producen una reducción de la temperatura de 1-2 ℃ que se extiende a lo largo de una distancia de 350 m desde el límite del parque.

Estudio del parque del Retiro


En el centro de Madrid, el parque del Retiro, con una superficie total de 140 ha, tiene un impacto significativo en la reducción de los efectos de la isla de calor en la capital. Por ello, en una investigación que hemos llevado a cabo recientemente, seleccionamos esta área verde para estudiar su impacto sobre el confort térmico en los barrios situados al norte, oeste y sur.

Vistas del Retiro. Author provided

En cada uno de los vecindarios, se seleccionaron tres puntos a una distancia de 150-160 m, 300-360 m y 600-650 m, respectivamente (un total de 9 localidades). Los datos meteorológicos también se recopilaron durante tres días: el 22 de junio, el 10 de junio y el 24 de julio de 2018.

Los resultados del estudio mostraron que la temperatura del aire de las áreas cercanas al parque (100-150 m) es aproximadamente 1,5-2℃ más fría que en los puntos con distancias de 600 m a 650 m. Además, hubo una relación inversa entre la distancia del parque y el nivel de percepción del confort térmico de la gente.

¿Cuánto calor pasa usted?


Para estudiar la percepción subjetiva del confort térmico estival de los peatones, se utilizaron dos métodos: los mapas mentales (las personas eligen los lugares donde sienten un confort térmico óptimo) y un cuestionario sobre el nivel personal de percepción del efecto refrescante del parque del Retiro.

Figura 1. Análisis de AramMMA que superpone todas las percepciones de los residentes del parque del Retiro. Cada color indica el número de veces que el lugar ha sido mencionado por los residentes. Author provided

El software AramMMA (diseñado y evaluado por investigadores del Grupo ABIO de la Universidad Politécnica de Madrid) se usó para investigar los mapas mentales.

El análisis del programa mostró que los residentes cerca del parque del Retiro tenían una mayor percepción de frío (figura 1). Los resultados indicaron que, independientemente de la distancia de sus viviendas, los vecinos reconocieron el parque del Retiro como un lugar con un alto confort térmico. Esta percepción era más común en las áreas cercanas al parque, aunque en diferente grado: más en el norte (parte A) y oeste (parte B) y menos en el sur (parte C), como muestra la figura.

Además, las respuestas al cuestionario revelaron que los residentes de las tres áreas más cercanas al parque del Retiro fueron los que más contribuyeron a la percepción colectiva de efecto de enfriamiento.

Cabe mencionar que, según los resultados, el efecto de enfriamiento del Retiro fue apreciado hasta los 650-600 m de distancia, aunque en menor medida que en las partes más cercanas del parque.

Esta investigación inicial ha demostrado lo importante que es la percepción personal sobre las áreas verdes para mitigar el efecto de isla de calor urbano en ciudades densas.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Tecnología

Hasta qué punto podemos fiarnos de las predicciones del tiempo para el verano

Avatar

Publicado

el

Al entrar el verano astronómico, poco antes de las vacaciones de la mayoría de la población, la pregunta que estaba en boca de todos era cómo iba a ser esta estación desde un punto de vista meteorológico. Ahora, tras la primera ola de calor estival, que ha afectado a toda Europa, muchos temen que las elevadas temperaturas se conviertan en la tónica dominante de los próximos meses.

El intenso calor de la pasada semana dejó récords de temperaturas en muchas provincias españolas, como Girona, donde se alcanzaron los 43,4℃, récord absoluto desde que comenzó a operar esta estación meteorológica (1884).

Las cifras de junio recuerdan ya a estíos recientes tan sofocantes como el de 2015, con una ola de calor desde San Juan a Santiago y temperaturas récord en algunas ciudades, como los 44,5℃ alcanzados en Zaragoza. O a la máxima absoluta de España registrada en julio de 2017 en Montoro (Córdoba): 47,3℃. O a las casi seguidas 13 noches tórridas con mínimas iguales o superiores a 25℃ del pasado verano en el centro de la ciudad de Barcelona.

Desde el verano de 2003, mortífero por las altas temperaturas en Europa occidental, las olas de calor se han sucedido con mayor frecuencia que antes. Sea urbano o rural, el sufrido ciudadano teme cada vez más, sobre todo cuando no está de vacaciones, las altas temperaturas. Las que corresponden a un sol de justicia y a unas noches en que resulta imposible descansar.

¿Cómo pronosticar el tiempo para varios meses?


Para conocer cómo será una estación entera o incluso más meses por adelantado se recurre a las llamadas predicciones estacionales, que realizan los grandes centros meteorológicos mundiales. Estas predicciones suelen expresarse mediante enunciados simples, tales como temperatura superior, igual o inferior a la normal del mes. Y lo mismo para la precipitación.

En la actualidad, afinando más, se presentan como anomalías (en ℃ para la temperatura y en milímetros para la precipitación) respecto a los valores medios o normales de cada mes o con lenguaje probabilístico.

Uno de los mejores lugares, por su claridad, donde encontrar predicciones estacionales es la web del European Forest Fires Information System (EFFIS). Sus mapas de anomalías del continente europeo permiten conocer cómo será la temperatura y la precipitación en los 7 meses siguientes y están basados en los análisis del Centro Europeo de Predicción Meteorológica a Medio Plazo (ECMWF), una organización intergubernamental con sede en Reading (Reino Unido) a la que España pertenece.

Anomalías estacionales de la temperatura para julio. EFFIS

Pero surgen algunas preguntas al respecto de las predicciones estacionales: ¿en qué se basan? ¿qué confianza merecen? ¿hasta qué mes por adelantado dan resultados aceptables? ¿estiman mejor el tiempo de los próximos meses en nuestras latitudes o en otras más septentrionales o meridionales? Y por encima de todas estas cuestiones, está la siguiente: ¿cómo pretender una predicción a meses vista, cuando sabemos que la predicción meteorológica solo permite conocer el tiempo con unos pocos días de antelación?

Predicciones estacionales vs. meteorológicas


Las predicciones estacionales se obtienen mediante modelos o conjunto de modelos físico-matemáticos que estiman las anomalías de temperatura y de precipitación en los meses siguientes. No pretenden indicar el tiempo en una fecha determinada, como hace la predicción meteorológica, sino si la temperatura y la precipitación serán superiores o inferiores a las normales en un área relativamente amplia.

Estos modelos tienen en cuenta los siguientes factores:

  • La posición y persistencia de los llamados centros de acción, es decir, los grandes anticiclones y borrascas (como el anticiclón de las Azores).
  • La potencia y localización del vórtice polar, un gran torbellino que circunda los polos.
  • Si el agua del mar tiene una temperatura más alta o más baja que la habitual para la época.
  • Los valores meteorológicos registrados en los últimos meses y los casos análogos ocurridos en el pasado.

Como los grandes procesos atmosféricos y, sobre todo, las temperaturas marinas no cambian de un día para otro, es decir, muestran una notable persistencia, podemos inferir sus efectos en el tiempo durante períodos de algunos meses.

Son predicciones fundamentalmente probabilísticas que tienen un grado de incertidumbre notable, por lo que deben tomarse solo como aproximaciones a las variaciones térmicas y pluviométricas de los próximos meses respecto a lo que es normal en ellos. Naturalmente, cuanto más lejano en el tiempo es el mes objeto de la predicción, menor es la fiabilidad de la misma. Podría afirmarse en general que a tres meses vista las predicciones estacionales aportan información de utilidad y a medio año rozan una simple predicción aleatoria.

Además, las predicciones estacionales son más fiables en las latitudes tropicales que en las medias, donde se sitúa España, dado que aquí las variaciones aleatorias del tiempo día a día son mayores que en el trópico. Y son mejores para la temperatura que para la lluvia.

El verano en España


Los mapas difundidos por el EFFIS a comienzos de junio prevén para España un verano más cálido de lo normal en el interior peninsular y Baleares y por debajo de la normal climatológica en la costa del golfo de Cádiz (Huelva y Cádiz). En gran parte de los litorales y en Canarias se prevé un verano térmicamente normal.

Julio será más cálido de lo normal en el interior peninsular (especialmente en la meseta norte) y en Baleares, pero más fresco de lo que le corresponde en los litorales de Cádiz y Huelva y en las islas Canarias orientales. En agosto se repetirá el mismo patrón, aunque en las franjas litorales y en Baleares la temperatura no se separará de los promedios habituales del mes.

Anomalías estacionales de la temperatura previstas para agosto. EFFIS

Finalmente, en septiembre prácticamente en toda la España peninsular y Baleares se registrarán temperaturas algo superiores a las normales. Por los valores medios previstos, el verano de 2019, aun siendo en conjunto más cálido de lo normal, no parece que vaya a resultar extraordinario. Sí que se batirán algunos récords puntualmente, como ya ha ocurrido durante la intensa ola de calor de la última semana de junio. Como los valores medios o normales se establecen a partir de un período de unos 30 años, el progresivo calentamiento da lugar a veranos repetidamente por encima de los promedios.

Respecto a la precipitación, variable de más compleja predicción, los pronósticos apuntan un verano entre normal y seco en gran parte del territorio español.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo
Publicidad