fbpx
Connect with us

Tecnología

El Retiro de Madrid, un oasis urbano que actúa como climatizador frente al calor

Avatar

Publicado

el

Balazs Sebok/Shutterstock

Fruto de los impactos cada vez mayores del calentamiento global, las ciudades se enfrentan a nuevos problemas. Uno de ellos es la intensificación del efecto de isla de calor urbano (UHI). Este fenómeno hace que un área urbana pueda ser entre 1 y 6 ℃ más cálida que las zonas cercanas.

Son muchas las causas que producen este efecto:

  • El aumento de la absorción de la luz solar por las superficies de color oscuro de los edificios.
  • Las propiedades físicas de los materiales utilizados en estas zonas.
  • La imposición de calor debida a la morfología urbana, que afecta al sombreado y al movimiento del aire.
  • La compacidad urbana que se deriva de la densidad.
  • También la proporción de la parcela, el patrón topográfico, la proximidad del uso de la tierra y de los viajes y la falta de zonas verdes.

El fenómeno también se ve exacerbado por el creciente tamaño de la ciudad y de la población y por el aumento de la tasa de consumo de energía, que puede crear varios focos de calor.

Efecto refrigerante de los espacios verdes


Una mayor atención académica para estudiar el impacto de los espacios verdes urbanos en las islas de calor urbano puede proporcionar a los planificadores estrategias bioclimáticas para abordar este problema.

Las áreas verdes se consideran una forma adecuada de reducir los efectos de isla de calor urbano y proporcionar comodidad física y psicológica a las áreas urbanas cercanas. Este fenómeno es conocido como efecto de enfriamiento de los espacios verdes urbanos.

Las variables más importantes relacionadas con los efectos de enfriamiento de los espacios verdes son la intensidad y la densidad del enfriamiento. Ambas pueden desempeñar un papel importante para los diseñadores y planificadores urbanos en el tratamiento de la isla de calor urbano.

Parque del Buen Retiro. PNOA, cedido por © Instituto Geográfico Nacional/Wikimedia Commons

El impacto de los espacios verdes y sus especificaciones han sido investigados a través de diferentes enfoques. Se han utilizado sensores de observación de campo y de temperatura para medir la intensidad del efecto de enfriamiento (CEI) y de la distancia del efecto de enfriamiento (CED). También se han empleado mapas satelitales y métodos de teledetección para investigar el impacto de un conjunto de espacios verdes urbanos en grandes extensiones de una ciudad.

Se ha observado una buena concordancia entre los resultados derivados de los datos de satélite y los obtenidos de los estudios de campo. A partir de los resultados, se puede concluir que el enfriamiento producido por los grandes parques (con más de 10 ha) es más intenso y alcanza una mayor distancia media.

Estas extensas áreas verdes producen una reducción de la temperatura de 1-2 ℃ que se extiende a lo largo de una distancia de 350 m desde el límite del parque.

Estudio del parque del Retiro


En el centro de Madrid, el parque del Retiro, con una superficie total de 140 ha, tiene un impacto significativo en la reducción de los efectos de la isla de calor en la capital. Por ello, en una investigación que hemos llevado a cabo recientemente, seleccionamos esta área verde para estudiar su impacto sobre el confort térmico en los barrios situados al norte, oeste y sur.

Vistas del Retiro. Author provided

En cada uno de los vecindarios, se seleccionaron tres puntos a una distancia de 150-160 m, 300-360 m y 600-650 m, respectivamente (un total de 9 localidades). Los datos meteorológicos también se recopilaron durante tres días: el 22 de junio, el 10 de junio y el 24 de julio de 2018.

Los resultados del estudio mostraron que la temperatura del aire de las áreas cercanas al parque (100-150 m) es aproximadamente 1,5-2℃ más fría que en los puntos con distancias de 600 m a 650 m. Además, hubo una relación inversa entre la distancia del parque y el nivel de percepción del confort térmico de la gente.

¿Cuánto calor pasa usted?


Para estudiar la percepción subjetiva del confort térmico estival de los peatones, se utilizaron dos métodos: los mapas mentales (las personas eligen los lugares donde sienten un confort térmico óptimo) y un cuestionario sobre el nivel personal de percepción del efecto refrescante del parque del Retiro.

Figura 1. Análisis de AramMMA que superpone todas las percepciones de los residentes del parque del Retiro. Cada color indica el número de veces que el lugar ha sido mencionado por los residentes. Author provided

El software AramMMA (diseñado y evaluado por investigadores del Grupo ABIO de la Universidad Politécnica de Madrid) se usó para investigar los mapas mentales.

El análisis del programa mostró que los residentes cerca del parque del Retiro tenían una mayor percepción de frío (figura 1). Los resultados indicaron que, independientemente de la distancia de sus viviendas, los vecinos reconocieron el parque del Retiro como un lugar con un alto confort térmico. Esta percepción era más común en las áreas cercanas al parque, aunque en diferente grado: más en el norte (parte A) y oeste (parte B) y menos en el sur (parte C), como muestra la figura.

Además, las respuestas al cuestionario revelaron que los residentes de las tres áreas más cercanas al parque del Retiro fueron los que más contribuyeron a la percepción colectiva de efecto de enfriamiento.

Cabe mencionar que, según los resultados, el efecto de enfriamiento del Retiro fue apreciado hasta los 650-600 m de distancia, aunque en menor medida que en las partes más cercanas del parque.

Esta investigación inicial ha demostrado lo importante que es la percepción personal sobre las áreas verdes para mitigar el efecto de isla de calor urbano en ciudades densas.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Tecnología

Disminuye cantidad de vulnerabilidades y exploits reportados durante el último año

En cuanto a las detecciones de exploits en América Latina, el 50% se concentraron en México, Perú y Colombia.

El Retry

Publicado

el

Por

ESET, compañía de detección proactiva de amenazas, repasó el comportamiento general de las vulnerabilidades y exploits en los últimos años, y en particular durante 2019. El último año se registró una caída en la cantidad de vulnerabilidades reportadas y también en la cantidad de detecciones de exploits.


En cuanto a la distribución de exploits por país durante 2019, las detecciones de la región estuvieron concentradas en México (20,8%), Perú (18,4%) y Colombia (11,1%); seguidas por Brasil (10,3%), Argentina (7,4%) y Guatemala (7,1%).

Las vulnerabilidades (fallas de las cuales podrían aprovecharse actores maliciosos para intentar comprometer la confidencialidad, integridad o disponibilidad de la información o los sistemas) en el software y hardware de los productos tecnológicos son uno de los elementos que, con frecuencia, se identifican en los incidentes de seguridad.

En 2017 y 2018, el reporte de vulnerabilidades presentó un aumento considerable con respecto a años anteriores, llegando al máximo histórico en 2017 y siendo incluso superado en 2018 con un nuevo máximo (16.500 vulnerabilidades). Pero esa tendencia se rompió en 2019. Según CVE Details, al concluir 2019 se reportaron más de 12.170 vulnerabilidades, una cantidad inferior a las de 2018 (16.556) y 2017 (14.714).

Esto no quiere decir que la cantidad de vulnerabilidades reportadas sea baja. Si se toma como referencia los últimos diez años se puede corroborar que la cantidad de vulnerabilidades reportadas durante 2017, 2018 y 2019 es en la mayoría de los casos casi el doble que para el período que va desde 2009 a 2016. En los últimos tres años la cantidad de vulnerabilidades reportadas fue superior a las 12.000, mientras que entre el 2009 y el 2016 el promedio fue de poco más de 5.700 vulnerabilidades por año.

El otro elemento de esta combinación son los exploits, códigos que además de mostrar la existencia de la falla, también demuestran que se trata de una vulnerabilidad. Lo que implica que se puede comprometer la confidencialidad, integridad o disponibilidad de un sistema.

Según datos de la telemetría de ESET, el número de exploits y sus variantes presenta un decrecimiento en los últimos años y una tendencia a la baja desde 2014, año en el cual se registró la mayor cantidad de variantes (más de 5.300).

En cuanto a la distribución de exploits por país durante 2019, el 50% de las detecciones de la región estuvieron concentradas en México (20,8%), Perú (18,4%) y Colombia (11,1%); seguidas por Brasil (10,3%), Argentina (7,4%) y Guatemala (7,1%).

Si bien en términos generales se observan tendencias a la baja tanto en el número de vulnerabilidades reportadas, así como en las detecciones y en la cantidad de variantes de exploits, el riesgo asociado a la explotación de vulnerabilidades se mantiene latente, ya sea que se utilicen en ataques masivos o dirigidos.

Seguir leyendo

Tecnología

¿Son realmente fiables las aplicaciones que miden el rendimiento físico?

Conoce cuáles aplicaciones son las más eficientes a la hora de evaluar tu condición física.

Avatar

Publicado

el

Uno de los principales problemas a los que se enfrentan los entrenadores es cómo diseñar objetivamente los programas de entrenamiento. Medir el rendimiento físico es una parte indispensable de todo plan de ejercicio. Permite monitorizar y ajustar la carga de trabajo, analizar la fatiga o prevenir lesiones.


Una práctica común cuando se diseñan planes de preparación física es registrar variables que puedan ayudar a prescribir el estímulo de entrenamiento. Por ejemplo, los entrenadores suelen evaluar los niveles de fuerza máxima, potencia de salto, rango de movilidad (flexibilidad) o capacidad aeróbica de los deportistas.

Cuantificar estas variables ha requerido tradicionalmente la utilización de instrumentales tecnológicos complejos. Estos suelen ser extremadamente costosos, difíciles de utilizar sin formación específica y, en algunos casos, imposibles de transportar fuera del laboratorio.

Pero los avances tecnológicos han permitido diseñar sensores y microprocesadores cada vez más pequeños y asequibles. Gracias a ellos, han surgido durante los últimos años dispositivos portátiles, ligeros y de bajo coste que miden la condición física en situaciones de campo.

Aplicaciones al alcance de todos


Algunas de las ‘apps’ disponibles para evaluar la condición física. Author provided

Los nuevos dispositivos pueden ser utilizados por cualquier usuario sin formación avanzada en Ciencias del Ejercicio y directamente desde el móvil. Esto facilita su uso, especialmente en clubes y equipos con poco presupuesto y escasez de personal técnico.

Este tipo de tecnología, basada en apps para smartphones y sensores wearables (es decir, vestibles, como los relojes inteligentes) ha sido nombrada por el prestigioso American College of Sports Medicine como la tendencia número 1 en el sector del fitness a nivel mundial varios años consecutivos.

En el año 2016, una de cada tres personas con un teléfono inteligente empleaba aplicaciones de fitness para controlar su condición física o estado de salud.

¿Son todas las ‘apps’ fiables?


Sin embargo, la gran popularización de este tipo de dispositivos tiene un principal inconveniente: deben ser científicamente validados antes de que podamos utilizarlos con garantías. Hay que comprobar que, efectivamente, miden lo que dicen medir.

Una validación científica consiste en comparar sistemáticamente los resultados obtenidos por una nueva tecnología y otra tecnología de laboratorio de precisión y fiabilidad ya contrastadas, a la que nos referimos como patrón oro o gold standard.

Por ejemplo, si queremos comprobar si una nueva aplicación para medir el salto vertical usando la cámara del smartphone es válida, debemos monitorizar muchos saltos verticales con dos dispositivos simultáneamente y comprobar con diversas técnicas estadísticas si los resultados son similares o no.

El problema es que solo una pequeña porción de todas las aplicaciones y dispositivos wearables que hay en el mercado están validadas. Es más, algunas de las aplicaciones más reconocidas del mercado, con millones de descargas en todo el mundo, han demostrado no medir con precisión lo que decían medir (en este caso, el número diario de pasos).

Prueba de una aplicación en el laboratorio. Author provided

Aplicaciones que sí han pasado el examen


La investigación sobre el diseño y validación de aplicaciones para evaluar la condición física se ha incrementado notablemente en los últimos cinco años. Existen numerosos ejemplos de apps que sí pueden medir con precisión los parámetros para los que fueron diseñados.

Como diseñador, he liderado el desarrollo de algunas de estas aplicaciones. Por ejemplo, se ha demostrado que una sencilla herramienta que permite grabar vídeos en cámara lenta tiene unos niveles de validez y fiabilidad comparables a plataformas de fuerzas de laboratorio para medir el rendimiento en el test de salto vertical, una de las pruebas de evaluación de la condición física más utilizada en el mundo.

Los vídeos a cámara lenta permiten ver con una alta precisión el momento en que el deportista despega y aterriza en el salto. Midiendo eso, y utilizando algunas sencillas ecuaciones biomecánicas, la aplicación permite medir la altura alcanzada en el salto vertical con una diferencia de apenas unos milímetros en comparación con instrumental de laboratorio de miles de euros.

Siguiendo esta línea de trabajo, se ha confirmado la alta validez, fiabilidad y precisión de numerosas apps disponibles en el mercado para medir parámetros como la fuerza máxima, la velocidad en el esprint, la flexibilidad, o la frecuencia cardíaca.

No obstante, si bien existen numerosas herramientas fiables para deportistas y entrenadores, aún son una minoría dentro de un mercado con más de 300 000 aplicaciones de salud y forma física disponibles.

Los entrenadores deben seleccionar cuidadosamente las apps que van a utilizar para organizar sus entrenamientos. Lo más deseable es guiarse por los estudios de validación que van publicándose en las revistas científicas.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Seguir leyendo

Tecnología

La llegada del 5G: Realidades y necesidades de esta tecnología

Avatar

Publicado

el

Pixabay

La quinta generación de redes móviles (5G) no solo constituye una lógica y, por tanto, previsible evolución respecto a los sistemas precedentes como el 4G, sino que se ha convertido justo antes de su lanzamiento comercial en “el futuro de las comunicaciones tanto móviles como fijas”, en palabras de Richard Sutton.


En realidad, el desarrollo de muchas de las tecnologías que se consideran emergentes, como el internet de las cosas (IoT), la realidad virtual (VR), la realidad aumentada (AR), e incluso de otras cuyas formulaciones se conocen hace décadas, como la computación en la red (cloud computing), la inteligencia artificial (AI) o la gestión virtual de las propias redes (NFV), depende más del modelo de negocio adoptado que del soporte tecnológico, aunque con el 5G van a incrementar sus potencialidades.

Las lecciones aprendidas durante estos primeros 20 años de redes de banda ancha móviles, como el 3G y 4G, demuestran que un cambio profundo y económicamente rentable en las formas de uso y, sobre todo, en su asimilación como experiencia vital del usuario, no se produce únicamente añadiendo más kilobits de subida y bajada.

Otro factor determinante es el coste final de las subastas del espectro que las operadoras tienen que pagar para poder ofrecer el 5G. La exuberancia especulativa que a principios de siglo mostraron las subastas para las frecuencias 3G permitió comprender a los gobiernos que si las barreras de entrada son altas, las inversiones a largo plazo serán menores, lo que repercute en el desarrollo económico.

La norma general, hasta ahora, de las subastas nacionales de frecuencias para 5G es que los gobiernos han optado esta vez por costes más moderados, al poner sobre la mesa grandes porciones de espectro. Por el contrario, en aquellos países que optaron por la escasez artificial que supone trocear excesivamente el espectro (Italia) o reservar buena parte de este para otros servicios (Alemania), los costes aumentaron considerablemente.

Siendo conscientes de que el entusiasmo tecnológico constituye un buen punto de partida para la innovación, pero no siempre un aliado estratégico conveniente si se quieren crear bases sólidas para una reformulación tan profunda como la asociada al 5G, no se debe perder nunca de vista lo que la sociedad y el mercado realmente son en este primer tercio del siglo XXI.

Banda ancha para más


Cada nueva generación de telefonía móvil ha alcanzado un mayor número de usuarios que la anterior. Además, su adopción es muy similar a la observada en otras tecnologías y básicamente sigue la famosa curva de difusión formulada por Robert Everett hace más de 5 décadas. La diferencia fundamental entre los sistemas de telefonía móvil y el resto de las tecnologías no radica por tanto en su forma de adopción, sino en la dimensión alcanzada. Así, el total de usuarios únicos de redes móviles actualmente supone el 67 por ciento de la población mundial (GSMAIntelligence, 2019; USCensusBureau, 2019) y el número total de conexiones supera un 4 por ciento al de la población del planeta (Ericcson, 2018).

Esto significa que cuando el 5G comience a ser una realidad para esa minoría de primeros usuarios pioneros (early adopters), algo que no va ocurrir de manera significativa al menos hasta 2020, este sistema de quinta generación tendrá ya un mercado potencial de 8.000 millones de usuarios, a lo que habría que añadir al menos 2.000 millones de conexiones celulares en el internet de las cosas. Por lo tanto, el 5G nace ya con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia, algo que podría ocurrir antes del final de la próxima década.

Un factor importante es que el ritmo de adopción de los sistemas móviles digitales se ha ido incrementado exponencialmente, de modo que cada sistema tarda menos que el anterior en convertirse en el de mayor número de usuarios. Así, el 3G tardó casi 14 años en alcanzar un 30 por ciento de difusión entre los usuarios de redes móviles, pero el 4G en siete años ya había superado ese porcentaje convirtiéndose en el sistema con mayor número de usuarios del mundo a finales de 2017.

El 5G nace con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia.

Las sucesivas generaciones de sistemas móviles han ofrecido básicamente al usuario mayores velocidades, un concepto asumido en la nueva cultura del acceso creada a partir del iPhone de Apple. Este factor aparentemente simple permitió ahorrar a las operadoras cuantiosas inversiones en márketing para trasladar a sus clientes la poderosa idea de que el 3G era más rápido que el 2G, el 4G que el 3G y, por lo tanto, el 5G seguirá esta tendencia.

No obstante, cuando se justifica la evolución de los sistemas móviles por la velocidad de acceso se genera un problema: que cualquier esfuerzo inversor de las operadoras por actualizar sus redes se interpreta al final como una forma de hacer la tubería más ancha y que circulen más bits. Esta visión reduccionista ha permitido situar la innovación justo encima de estas redes y en el dispositivo de acceso. Lo que quiere decir que son las empresas que proveen los servicios más populares (Google, Amazon, Netflix…) y los fabricantes de móviles, los agentes que se perciben externamente como los verdaderos innovadores del mercado.

Sin emitir un juicio arriesgado y sin duda complejo sobre quién innova más en Internet, sí se puede afirmar que, si no se alteran las condiciones actuales del mercado, con el 5G nos dirigimos de nuevo a un escenario donde los que más invierten en su desarrollo corren el riesgo de ser los que menos recojan los previsibles dividendos.

Mismo punto de partida


No obstante, en la progresiva implantación del 5G, operadoras y empresas de servicios en Internet comparten una misma necesidad de partida: ambos necesitan incrementar su número de usuarios y este incremento persigue a su vez dos objetivos. En primer lugar, cerrar la brecha mundial entre los que hoy usan redes móviles y aquellos que acceden a estas pero con sistemas de banda ancha. En segundo lugar, integrar ese remanente del 33 por ciento de la población mundial que permanece ausente de las redes móviles, lo que en términos absolutos equivaldría a integrar más de 2.400 millones de personas, la mayoría de ellos en países en desarrollo o regiones emergentes, sobre una población mundial de 7.500 millones de personas.

No obstante, detrás de estas cifras que llaman al optimismo hay que tener en cuenta que, de ese total de personas no conectadas, al menos un 35 por ciento son niños o ancianos (World Bank, 2017), lo que en principio reduce ese margen razonablemente alcanzable de usuarios desconectados a 1.500 millones.

El 5G supone una mejora en tres factores: la velocidad, la latencia y el número de dispositivos que se pueden conectar simultáneamente.

Para que estos 1.500 millones de adultos dieran un salto de la desconexión al 5G, no solo se tendría que producir un amplio y rápido despliegue de infraestructuras que aumentara la cobertura, sino que los costes de conexión (redes y dispositivos) tendrían que ser considerablemente más asequibles que los actuales, teniendo en cuenta la menor renta disponible en los países en desarrollo donde se sitúa esa brecha.

El tercer y determinante factor diferencial del 5G es la densidad o número de dispositivos que la red sería capaz de atender en condiciones óptimas por unidad de cobertura y tiempo, estimada en un incremento exponencial del 100 por ciento respecto a la generación anterior. Esto haría posible la comunicación efectiva en zonas con alta densidad de población o en situaciones puntuales como eventos masivos, pero también la transmisión simultánea entre cualquier objeto conectado sin mediación.

Raúl Arias / Telos

Triple impacto


La implantación de redes 5G en los principales mercados supondrá un triple impacto:

  • En las tecnologías y en los servicios disponibles.
  • En el propio mercado de las telecomunicaciones.
  • Y, por último, en la aparición de innovaciones inimaginables hasta ahora.

En el primer grupo encontraríamos tecnologías como la realidad virtual (VR) y la realidad aumentada (AR). El 5G mejorará la experiencia de usuario en las dos al proporcionar mayores velocidades y latencias mejoradas, este último un factor crítico en contenidos populares como los videojuegos.

El segundo impacto está relacionado con el inquietante statu quo actual de las operadoras que en pocos años vieron como las aplicaciones IP se comían literalmente el, durante décadas, cautivo mercado de las llamadas telefónicas y las nuevas formas de expresión personal multimedia (emojis, textos, clips de audio y vídeo) convertían los teléfonos fijos en “jarrones chinos” — valiosos pero sin utilidad—, las líneas fijas residenciales en soportes colectivos para wifi y los teléfonos móviles en computadoras portátiles.

El tercer impacto es a la vez el más amenazante y esperanzador ya que se refiere a todo lo nuevo y desconocido que un sistema global de banda ancha que promete llevarnos al nivel gigabit puede traer. No podemos olvidar que, a pesar de los recientes cuestionamientos de principios como la neutralidad de la red, Internet sigue siendo una red descentralizada donde la innovación no necesita permisos de núcleos centrales y donde las operadoras no tienen que establecer a priori qué usos se le van a dar a la red.

Al igual que un Snapchat o un Instagram eran inconcebibles cuando se pusieron en marcha las redes 3G, las posibilidades tecnológicas del 5G serán un incentivo para los emprendedores que ahora pueden acceder a la misma tecnología y a una creciente disponibilidad de capital menos alérgico al riesgo. Además, la incorporación de miles de objetos cotidianos hasta ahora virtualmente desconectados a la nueva Internet incrementa exponencialmente las posibilidades de aparición de nuevas aplicaciones que signifiquen una ruptura de los modelos comunicacionales que vimos en los sistemas anteriores.

Por su parte, los fabricantes de móviles serán en gran medida los responsables de la primera interpretación del 5G entre los usuarios, ya que sus aparatos son los receptores privilegiados de la primera tecnología de conexión que permite integrarse en esta red. Pero la necesidad que tienen estas empresas de acortar el ciclo de renovación de sus dispositivos, cuya prolongación ha generado un estancamiento de las ventas mundiales, no es un argumento consistente para convencer a esa franja de usuarios pioneros que ya pagan 1.000 dólares por los móviles más avanzados.

Para los usuarios, el factor diferencial del 5G respecto a los sistemas actuales tendrá que venir de nuevos usos tanto de aplicaciones ya existentes como de nuevos entrantes que podrían hacer una interpretación creativa de las potencialidades del 5G —latencia, densidad de conexión, velocidad— para ofrecer no solo una mejora de los servicios existentes, sino de otros cuya demanda es todavía desconocida.

En definitiva, el 5G está destinado a convertirse en el soporte preferente de un Internet que en su tercera fase no solo aspira a cerrar la brecha de las personas desconectadas, sino a generar sinergias con sectores industriales históricamente indiferentes o cuyos canales de venta y procesos de fabricación apenas han variado en estos 25 años de despliegue de redes móviles.


La versión original de este artículo ha sido publicada en la Revista Telos 111, de Fundación Telefónica.The Conversation


Este artículo fue publicado originalmente en The Conversation. Lea el original.

Seguir leyendo
Publicidad

Síguenos en Facebook

Copyright © 2019 Todos los derechos reservados para los contenidos y marca de El Rework.