fbpx
Conecta con nosotros

Tecnología

Inauguran primer terminal de carga con energía solar para bicicletas eléctricas en la Región de Los Ríos

Avatar

Publicado

el

Esta semana se inauguró la primera estación de carga para bicicletas y dispositivos eléctricos, a través de energía solar, en la ciudad de Valdivia. La iniciativa ayudará a descongestionar la Ruta T-350, camino a Niebla y beneficiará a los cerca de 200 mil habitantes de la zona, además de turistas.


El proyecto liderado por Cervecería Kunstmann, en colaboración con el Programa de Apoyo a la Inversión Productiva (IPRO) de Fomento Los Ríos – Corfo, posiciona a los cerveceros como la primera empresa no eléctrica en desarrollar una iniciativa sustentable de esta magnitud.

La actividad contó con la participación de autoridades de la zona, entre ellos, Carlos Riquelme Caro, director de Fomento Los Ríos y Armin Kunstmann, presidente y fundador de la cervecería. “Buscamos incentivar el uso de transportes alternativos con energías renovables poniendo a disposición de los vecinos, turistas y nuestros colaboradores, esta innovadora infraestructura. Queremos mejorar la calidad de vida de los valdivianos, contribuyendo a la disminución de la emisión de gases, mejorando la movilidad en la ciudad y promoviendo la construcción de ciclovías”, indicó Armin Kunstmann.

La electromovilidad es una tendencia internacional a la que Chile se sumó en los últimos años, posicionándose como uno de los líderes mundiales en reutilización de energías. “Se está invirtiendo en buses, autos, scooters y bicicletas eléctricas, hoy impulsadas en Valdivia; demostrando que nuestra ciudad es amigable con el medio ambiente. Apoyamos este tipo de iniciativas ya que van en línea con nuestra motivación, ser un motor de cambio en la región”, agregó Riquelme, director de Fomento Los Ríos.

El terminal está ubicado en las inmediaciones de la fábrica y restaurant de los cerveceros, en el sector de Torobayo, donde se puede recargar bicicletas eléctricas, celulares y objetos electrónicos de bajo consumo. Incluye doce paneles solares con batería de litio, que almacenan una energía de 7.200 watts/hora. El proyecto, que contó con una inversión total de $25 millones, es de uso público y no tendrá costos asociados a su utilización.

Tecnología

La tecnología informática de las misiones Apolo se adelantó una década a su tiempo

Avatar

Publicado

el

Se cumplen ahora 50 años de la misión de la Nasa Apolo 11, que transportó por primera vez seres humanos a la superficie de la Luna. En este medio siglo que ha transcurrido la tecnología ha dado pasos de gigante, se ha popularizado de manera ubicua y permeado en la mayoría de ámbitos sociales. Toda esta evolución vertiginosa puede hacer que se pierda la perspectiva y que no se aprecie su valor real. ¿Cómo era la tecnología de esa época?


En los años 60, la tecnología informática era muy distinta de la actual. Su uso cotidiano era prácticamente nulo, limitado a universidades y centros de investigación para hacer cálculos científicos. A mediados de esa década destacaban computadores clásicos como el IBM System/360 y la serie 1100 de UNIVAC, que tenían frecuencias de reloj del orden de 1 MHz y unos pesos que alcanzaban más de los 2 000 kg.

Durante esa década surge la necesidad de contar con un sistema informático que pudiera integrarse en las distintas misiones del programa Apolo. En este contexto se diseñó el AGC, el Apolo Guidance Computer, un sistema creado en el MIT Instrumentation Laboratory bajo la dirección de Charles Stark Draper.

Apollo Guidance Computer (AGC) Wikimedia Commons

Este computador, con una frecuencia de reloj de 1 MHz, 4 K de memoria RAM y 32 K de memoria ROM, fue innovador en la utilización de circuitos integrados de manera masiva, unos 2 800 fabricados por la empresa Fairchild Semiconductor, con un coste aproximado de unos 150 000 dólares de la época.

La programación del sistema también fue diseñada en el MIT por Margaret Hamilton, una precursora en la disciplina de la ingeniería del software. Para ello estableció una serie de principios, novedosos en aquella época, con el objetivo de conseguir la robustez del código, y por lo tanto la seguridad de la misión. El sistema estaba diseñado para usar un 85 % de su capacidad, dejando el 15 % restante como margen de seguridad para el caso de que sufriera una sobrecarga.

Margaret Hamilton, ingeniera jefe de software de vuelo del Apollo, en el Módulo de Comando Apollo. NASA / Wikimedia Commons

Las tareas ejecutadas en el computador seguían una rígida jerarquía de prioridad, de tal manera que si esa sobrecarga se producía, el sistema sabía cuáles eran los procesos críticos que había que preservar y cuáles había que eliminar para que siguiera funcionando de manera correcta.

Esta concepción del computador como un elemento tolerante a fallos fue una visión pionera para la época, cuya eficacia se pudo comprobar en la misión Apolo 11. Durante la fase de alunizaje de esta misión se produjo un incidente que podría haber resultado catastrófico. La operación de un radar durante el descenso saturó de datos al computador, el cual estuvo a punto de bloquearse, lo que produjo el aviso a la tripulación mediante los famosos códigos de error 1201 y 1202. En otras circunstancias, la misión habría tenido que ser abortada, pero gracias al diseño tolerante a fallos, de Margaret Hamilton, el sistema pudo recuperarse y cumplir su cometido.

Una comparación descontextualizada


Cinco décadas después, ¿cómo se puede comparar aquella tecnología informática del programa Apolo con la actual? Un análisis simplista puede sugerir que la de hoy supera en órdenes de magnitud el rendimiento y prestaciones de su antecesora. Por ejemplo, la gama más reciente de iPhone tendría una frecuencia de reloj 2 500 veces más alta que el AGC del programa Apolo, con una capacidad de memoria nada menos que un millón de veces mayor. Todo ello con un coste 100 veces inferior.

Esta comparación, descontextualizada, no pone de manifiesto la perspectiva histórica de ambas tecnologías. Para llevar a cabo un análisis más preciso, realicemos la comparación desde el punto de vista de tres parámetros distintos que puedan ofrecer una visión más completa: la eficacia, la fiabilidad y el impacto.

En primer lugar, efectivamente cualquier dispositivo móvil actual tiene un rendimiento órdenes de magnitud superior a los computadores de entonces. Pero, ¿es esto realmente una ventaja? El computador AGC cumplió con éxito la misión para la que fue creado: llevar una misión tripulada a la Luna. Respondió a las expectativas cumpliendo las especificaciones que rigieron su diseño. Es decir, fue eficaz. Un mayor rendimiento, aparte de los sobrecostes que conlleva, suele suponer más complejidad y un mayor número de fuentes de error. Por lo tanto, más rendimiento no implica mayor eficacia.

Por otra parte, es evidente la gran versatilidad de los dispositivos actuales. Pero, ¿realmente es esa versatilidad lo que se buscaba en las misiones Apolo? Al contrario, lo que se necesitaba era un sistema de propósito específico de alta fiabilidad. Gracias a su diseño, el AGC supo aportar esa fiabilidad y resolver con éxito problemas como el relatado anteriormente. En circunstancias similares, un sistema operativo actual de propósito general probablemente habría perdido el control, lo que hubiera llevado a un reinicio del sistema y a un fracaso en la misión. La fiabilidad conseguida por el AGC aportó el nivel de seguridad requerido, aun con un rendimiento más limitado.

Un ordenador IBM System 360/20 expuesto en el Deutsches Museum de Munich, Alemania. A la derecha se muestra una IBM 2560 MFCM (máquina de tarjetas multifunción). Ben Franske / Wikipedia, CC BY

Finalmente, ¿cuál ha sido el impacto producido por la última generación de móviles, la que manejamos actualmente, respecto a las generaciones previas? Cualitativamente, ninguno. Cuantitativamente, un incremento muy reducido de sus prestaciones. ¿Qué supuso la introducción de un computador como el AGC, en el contexto histórico y social de los años 60? Aprovechar el potencial de una tecnología en aquel entonces disruptiva para posibilitar una misión tripulada a la Luna.

Dentro de 50 años probablemente nadie se acordará del móvil de última generación que tenemos ahora en las manos, superado y enterrado por sucesivas e innumerables familias tecnológicas. En cambio, el programa Apolo se seguirá estudiando como un ejemplo de uso de tecnología disruptiva a través de la cual se cambió la historia.

En resumen, la tecnología informática de las misiones Apolo se adelantó una década a su tiempo, no siendo superada hasta finales de los años 70, y sentó las bases de la computación tolerante a fallos cuyos principios fundacionales aún siguen vigentes.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Tecnología

El Retiro de Madrid, un oasis urbano que actúa como climatizador frente al calor

Avatar

Publicado

el

Balazs Sebok/Shutterstock

Fruto de los impactos cada vez mayores del calentamiento global, las ciudades se enfrentan a nuevos problemas. Uno de ellos es la intensificación del efecto de isla de calor urbano (UHI). Este fenómeno hace que un área urbana pueda ser entre 1 y 6 ℃ más cálida que las zonas cercanas.

Son muchas las causas que producen este efecto:

  • El aumento de la absorción de la luz solar por las superficies de color oscuro de los edificios.
  • Las propiedades físicas de los materiales utilizados en estas zonas.
  • La imposición de calor debida a la morfología urbana, que afecta al sombreado y al movimiento del aire.
  • La compacidad urbana que se deriva de la densidad.
  • También la proporción de la parcela, el patrón topográfico, la proximidad del uso de la tierra y de los viajes y la falta de zonas verdes.

El fenómeno también se ve exacerbado por el creciente tamaño de la ciudad y de la población y por el aumento de la tasa de consumo de energía, que puede crear varios focos de calor.

Efecto refrigerante de los espacios verdes


Una mayor atención académica para estudiar el impacto de los espacios verdes urbanos en las islas de calor urbano puede proporcionar a los planificadores estrategias bioclimáticas para abordar este problema.

Las áreas verdes se consideran una forma adecuada de reducir los efectos de isla de calor urbano y proporcionar comodidad física y psicológica a las áreas urbanas cercanas. Este fenómeno es conocido como efecto de enfriamiento de los espacios verdes urbanos.

Las variables más importantes relacionadas con los efectos de enfriamiento de los espacios verdes son la intensidad y la densidad del enfriamiento. Ambas pueden desempeñar un papel importante para los diseñadores y planificadores urbanos en el tratamiento de la isla de calor urbano.

Parque del Buen Retiro. PNOA, cedido por © Instituto Geográfico Nacional/Wikimedia Commons

El impacto de los espacios verdes y sus especificaciones han sido investigados a través de diferentes enfoques. Se han utilizado sensores de observación de campo y de temperatura para medir la intensidad del efecto de enfriamiento (CEI) y de la distancia del efecto de enfriamiento (CED). También se han empleado mapas satelitales y métodos de teledetección para investigar el impacto de un conjunto de espacios verdes urbanos en grandes extensiones de una ciudad.

Se ha observado una buena concordancia entre los resultados derivados de los datos de satélite y los obtenidos de los estudios de campo. A partir de los resultados, se puede concluir que el enfriamiento producido por los grandes parques (con más de 10 ha) es más intenso y alcanza una mayor distancia media.

Estas extensas áreas verdes producen una reducción de la temperatura de 1-2 ℃ que se extiende a lo largo de una distancia de 350 m desde el límite del parque.

Estudio del parque del Retiro


En el centro de Madrid, el parque del Retiro, con una superficie total de 140 ha, tiene un impacto significativo en la reducción de los efectos de la isla de calor en la capital. Por ello, en una investigación que hemos llevado a cabo recientemente, seleccionamos esta área verde para estudiar su impacto sobre el confort térmico en los barrios situados al norte, oeste y sur.

Vistas del Retiro. Author provided

En cada uno de los vecindarios, se seleccionaron tres puntos a una distancia de 150-160 m, 300-360 m y 600-650 m, respectivamente (un total de 9 localidades). Los datos meteorológicos también se recopilaron durante tres días: el 22 de junio, el 10 de junio y el 24 de julio de 2018.

Los resultados del estudio mostraron que la temperatura del aire de las áreas cercanas al parque (100-150 m) es aproximadamente 1,5-2℃ más fría que en los puntos con distancias de 600 m a 650 m. Además, hubo una relación inversa entre la distancia del parque y el nivel de percepción del confort térmico de la gente.

¿Cuánto calor pasa usted?


Para estudiar la percepción subjetiva del confort térmico estival de los peatones, se utilizaron dos métodos: los mapas mentales (las personas eligen los lugares donde sienten un confort térmico óptimo) y un cuestionario sobre el nivel personal de percepción del efecto refrescante del parque del Retiro.

Figura 1. Análisis de AramMMA que superpone todas las percepciones de los residentes del parque del Retiro. Cada color indica el número de veces que el lugar ha sido mencionado por los residentes. Author provided

El software AramMMA (diseñado y evaluado por investigadores del Grupo ABIO de la Universidad Politécnica de Madrid) se usó para investigar los mapas mentales.

El análisis del programa mostró que los residentes cerca del parque del Retiro tenían una mayor percepción de frío (figura 1). Los resultados indicaron que, independientemente de la distancia de sus viviendas, los vecinos reconocieron el parque del Retiro como un lugar con un alto confort térmico. Esta percepción era más común en las áreas cercanas al parque, aunque en diferente grado: más en el norte (parte A) y oeste (parte B) y menos en el sur (parte C), como muestra la figura.

Además, las respuestas al cuestionario revelaron que los residentes de las tres áreas más cercanas al parque del Retiro fueron los que más contribuyeron a la percepción colectiva de efecto de enfriamiento.

Cabe mencionar que, según los resultados, el efecto de enfriamiento del Retiro fue apreciado hasta los 650-600 m de distancia, aunque en menor medida que en las partes más cercanas del parque.

Esta investigación inicial ha demostrado lo importante que es la percepción personal sobre las áreas verdes para mitigar el efecto de isla de calor urbano en ciudades densas.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Tecnología

Hasta qué punto podemos fiarnos de las predicciones del tiempo para el verano

Avatar

Publicado

el

Al entrar el verano astronómico, poco antes de las vacaciones de la mayoría de la población, la pregunta que estaba en boca de todos era cómo iba a ser esta estación desde un punto de vista meteorológico. Ahora, tras la primera ola de calor estival, que ha afectado a toda Europa, muchos temen que las elevadas temperaturas se conviertan en la tónica dominante de los próximos meses.

El intenso calor de la pasada semana dejó récords de temperaturas en muchas provincias españolas, como Girona, donde se alcanzaron los 43,4℃, récord absoluto desde que comenzó a operar esta estación meteorológica (1884).

Las cifras de junio recuerdan ya a estíos recientes tan sofocantes como el de 2015, con una ola de calor desde San Juan a Santiago y temperaturas récord en algunas ciudades, como los 44,5℃ alcanzados en Zaragoza. O a la máxima absoluta de España registrada en julio de 2017 en Montoro (Córdoba): 47,3℃. O a las casi seguidas 13 noches tórridas con mínimas iguales o superiores a 25℃ del pasado verano en el centro de la ciudad de Barcelona.

Desde el verano de 2003, mortífero por las altas temperaturas en Europa occidental, las olas de calor se han sucedido con mayor frecuencia que antes. Sea urbano o rural, el sufrido ciudadano teme cada vez más, sobre todo cuando no está de vacaciones, las altas temperaturas. Las que corresponden a un sol de justicia y a unas noches en que resulta imposible descansar.

¿Cómo pronosticar el tiempo para varios meses?


Para conocer cómo será una estación entera o incluso más meses por adelantado se recurre a las llamadas predicciones estacionales, que realizan los grandes centros meteorológicos mundiales. Estas predicciones suelen expresarse mediante enunciados simples, tales como temperatura superior, igual o inferior a la normal del mes. Y lo mismo para la precipitación.

En la actualidad, afinando más, se presentan como anomalías (en ℃ para la temperatura y en milímetros para la precipitación) respecto a los valores medios o normales de cada mes o con lenguaje probabilístico.

Uno de los mejores lugares, por su claridad, donde encontrar predicciones estacionales es la web del European Forest Fires Information System (EFFIS). Sus mapas de anomalías del continente europeo permiten conocer cómo será la temperatura y la precipitación en los 7 meses siguientes y están basados en los análisis del Centro Europeo de Predicción Meteorológica a Medio Plazo (ECMWF), una organización intergubernamental con sede en Reading (Reino Unido) a la que España pertenece.

Anomalías estacionales de la temperatura para julio. EFFIS

Pero surgen algunas preguntas al respecto de las predicciones estacionales: ¿en qué se basan? ¿qué confianza merecen? ¿hasta qué mes por adelantado dan resultados aceptables? ¿estiman mejor el tiempo de los próximos meses en nuestras latitudes o en otras más septentrionales o meridionales? Y por encima de todas estas cuestiones, está la siguiente: ¿cómo pretender una predicción a meses vista, cuando sabemos que la predicción meteorológica solo permite conocer el tiempo con unos pocos días de antelación?

Predicciones estacionales vs. meteorológicas


Las predicciones estacionales se obtienen mediante modelos o conjunto de modelos físico-matemáticos que estiman las anomalías de temperatura y de precipitación en los meses siguientes. No pretenden indicar el tiempo en una fecha determinada, como hace la predicción meteorológica, sino si la temperatura y la precipitación serán superiores o inferiores a las normales en un área relativamente amplia.

Estos modelos tienen en cuenta los siguientes factores:

  • La posición y persistencia de los llamados centros de acción, es decir, los grandes anticiclones y borrascas (como el anticiclón de las Azores).
  • La potencia y localización del vórtice polar, un gran torbellino que circunda los polos.
  • Si el agua del mar tiene una temperatura más alta o más baja que la habitual para la época.
  • Los valores meteorológicos registrados en los últimos meses y los casos análogos ocurridos en el pasado.

Como los grandes procesos atmosféricos y, sobre todo, las temperaturas marinas no cambian de un día para otro, es decir, muestran una notable persistencia, podemos inferir sus efectos en el tiempo durante períodos de algunos meses.

Son predicciones fundamentalmente probabilísticas que tienen un grado de incertidumbre notable, por lo que deben tomarse solo como aproximaciones a las variaciones térmicas y pluviométricas de los próximos meses respecto a lo que es normal en ellos. Naturalmente, cuanto más lejano en el tiempo es el mes objeto de la predicción, menor es la fiabilidad de la misma. Podría afirmarse en general que a tres meses vista las predicciones estacionales aportan información de utilidad y a medio año rozan una simple predicción aleatoria.

Además, las predicciones estacionales son más fiables en las latitudes tropicales que en las medias, donde se sitúa España, dado que aquí las variaciones aleatorias del tiempo día a día son mayores que en el trópico. Y son mejores para la temperatura que para la lluvia.

El verano en España


Los mapas difundidos por el EFFIS a comienzos de junio prevén para España un verano más cálido de lo normal en el interior peninsular y Baleares y por debajo de la normal climatológica en la costa del golfo de Cádiz (Huelva y Cádiz). En gran parte de los litorales y en Canarias se prevé un verano térmicamente normal.

Julio será más cálido de lo normal en el interior peninsular (especialmente en la meseta norte) y en Baleares, pero más fresco de lo que le corresponde en los litorales de Cádiz y Huelva y en las islas Canarias orientales. En agosto se repetirá el mismo patrón, aunque en las franjas litorales y en Baleares la temperatura no se separará de los promedios habituales del mes.

Anomalías estacionales de la temperatura previstas para agosto. EFFIS

Finalmente, en septiembre prácticamente en toda la España peninsular y Baleares se registrarán temperaturas algo superiores a las normales. Por los valores medios previstos, el verano de 2019, aun siendo en conjunto más cálido de lo normal, no parece que vaya a resultar extraordinario. Sí que se batirán algunos récords puntualmente, como ya ha ocurrido durante la intensa ola de calor de la última semana de junio. Como los valores medios o normales se establecen a partir de un período de unos 30 años, el progresivo calentamiento da lugar a veranos repetidamente por encima de los promedios.

Respecto a la precipitación, variable de más compleja predicción, los pronósticos apuntan un verano entre normal y seco en gran parte del territorio español.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo
Publicidad