fbpx
Conecta con nosotros

Tecnología

Desarrollan sistema que previene enfermedades en manzanas de exportación chilenas

La innovación tiene una eficiencia superior al 90 por ciento y entrega datos sobre el nivel de incidencia de ojo de buey, patología que provoca pudrición en la fruta. Este sistema facilita la toma de decisiones para los productores, lo que podría traducirse en mayor retribución comercial.

Avatar

Publicado

el

Casi 90 mil toneladas de manzana Cripps Pink exporta Chile anualmente y pese a que, históricamente, ha sido una variedad importante para la economía y la agricultura regional y nacional, los productores han tenido que convivir con una de las principales problemáticas asociadas a esta fruta: la pudrición por ojo de buey, infección causada por el hongo Neofabraea alba.


Esa situación de incertidumbre podría cambiar radicalmente a partir de ahora, gracias a los resultados de una investigación realizada por académicos de la Universidad de Talca y asociada a un proyecto del Fondo de Fomento al Desarrollo Científico y Tecnológico (Fondef).

El equipo, liderado por José Antonio Reyes, desarrolló y validó con resultados exitosos un sistema de predicción temprana de la enfermedad, la cual solo manifiesta sus síntomas hasta tres meses después de la cosecha. El sistema, basado en inteligencia artificial, tiene un nivel de eficiencia superior al 90 por ciento y entrega datos sobre el nivel de incidencia de ojo de buey que tendrá un lote fruta a 90 días de la postcosecha y proyecciones sobre la agresividad de la afección para una temporada y huerto particular.

Reyes explicó que «para los productores es muy relevante porque cuanto más tiempo puedan guardar la manzana, mejor es el ingreso que logran en mercados internacionales. El peor precio se obtiene cuando la fruta sale del árbol, se embala y se vende. En cambio, si pudieran guardarla, idealmente 4 o 5 meses, se alcanzan mejores precios en mercados europeos«.

El académico añadió que «nosotros entregamos la predicción seis semanas antes de la cosecha y, durante ese tiempo, el productor también puede tomar acciones preventivas contra la enfermedad. En definitiva, con esta tecnología de punta queremos disminuir la incertidumbre y dar una respuesta concreta a la problemática«.

Para Juan Basualdo trabajador del área de pomáceas de Dole Chile, este sistema «constituye para nosotros una herramienta muy importante. Estamos, normalmente apremiados por el asedio de este tipo de pudriciones y, mediante esta investigación, tendremos un instrumento que permite el control de la enfermedad. Indudablemente esto permitiría que nuestro entorno comercial estuviese más confiado y ser un socio más confiable en cuanto podamos llegar con un producto libre de estos problemas«.

Proyecciones


La innovación fue fruto de dos años de trabajo durante los cuales se recopilaron y analizaron más de dos mil registros históricos de la enfermedad, otorgados por productores ubicados entre las regiones de O´Higgins y la Araucanía.

El desafío que se plantean los investigadores es incorporar nuevos parámetros asociadas al comportamiento de la enfermedad, los cuales han sido obtenidos a través de los estudios adelantados por Mauricio Lolas, Director del Laboratorio de Patología Frutal de la Utalca.

Lolas explicó que «desarrollamos una herramienta molecular que permite detectar cuándo la lenticela (estructura ubicada en la piel de la manzana) está infectada con el hongo. Eso lo podemos asociar a la predicción basada en parámetros climáticos desarrollada por el profesor Reyes. Al unir ambos desarrollos, podemos obtener información sobre condiciones que predisponen la infección o que hay mucha infección y que, por tanto, la expresión de la enfermedad va a ser muy alta».

Información para productores


José Antonio Reyes indicó que «la idea es que los productores se contacten y puedan compartir sus registros históricos de incidencia de la enfermedad, vamos a generar reportes semanales desde seis semanas antes de la posible fecha de cosecha a cada productor que esté interesado». Esta información, podrán obtenerla a través de una plataforma que estará próximamente disponible y que, además del informe, entrega recomendaciones respecto al manejo fitosanitario de la fruta.

 

Parkinson: cómo detectar las señales de alerta

Tecnología

La tecnología informática de las misiones Apolo se adelantó una década a su tiempo

Avatar

Publicado

el

Se cumplen ahora 50 años de la misión de la Nasa Apolo 11, que transportó por primera vez seres humanos a la superficie de la Luna. En este medio siglo que ha transcurrido la tecnología ha dado pasos de gigante, se ha popularizado de manera ubicua y permeado en la mayoría de ámbitos sociales. Toda esta evolución vertiginosa puede hacer que se pierda la perspectiva y que no se aprecie su valor real. ¿Cómo era la tecnología de esa época?


En los años 60, la tecnología informática era muy distinta de la actual. Su uso cotidiano era prácticamente nulo, limitado a universidades y centros de investigación para hacer cálculos científicos. A mediados de esa década destacaban computadores clásicos como el IBM System/360 y la serie 1100 de UNIVAC, que tenían frecuencias de reloj del orden de 1 MHz y unos pesos que alcanzaban más de los 2 000 kg.

Durante esa década surge la necesidad de contar con un sistema informático que pudiera integrarse en las distintas misiones del programa Apolo. En este contexto se diseñó el AGC, el Apolo Guidance Computer, un sistema creado en el MIT Instrumentation Laboratory bajo la dirección de Charles Stark Draper.

Apollo Guidance Computer (AGC) Wikimedia Commons

Este computador, con una frecuencia de reloj de 1 MHz, 4 K de memoria RAM y 32 K de memoria ROM, fue innovador en la utilización de circuitos integrados de manera masiva, unos 2 800 fabricados por la empresa Fairchild Semiconductor, con un coste aproximado de unos 150 000 dólares de la época.

La programación del sistema también fue diseñada en el MIT por Margaret Hamilton, una precursora en la disciplina de la ingeniería del software. Para ello estableció una serie de principios, novedosos en aquella época, con el objetivo de conseguir la robustez del código, y por lo tanto la seguridad de la misión. El sistema estaba diseñado para usar un 85 % de su capacidad, dejando el 15 % restante como margen de seguridad para el caso de que sufriera una sobrecarga.

Margaret Hamilton, ingeniera jefe de software de vuelo del Apollo, en el Módulo de Comando Apollo. NASA / Wikimedia Commons

Las tareas ejecutadas en el computador seguían una rígida jerarquía de prioridad, de tal manera que si esa sobrecarga se producía, el sistema sabía cuáles eran los procesos críticos que había que preservar y cuáles había que eliminar para que siguiera funcionando de manera correcta.

Esta concepción del computador como un elemento tolerante a fallos fue una visión pionera para la época, cuya eficacia se pudo comprobar en la misión Apolo 11. Durante la fase de alunizaje de esta misión se produjo un incidente que podría haber resultado catastrófico. La operación de un radar durante el descenso saturó de datos al computador, el cual estuvo a punto de bloquearse, lo que produjo el aviso a la tripulación mediante los famosos códigos de error 1201 y 1202. En otras circunstancias, la misión habría tenido que ser abortada, pero gracias al diseño tolerante a fallos, de Margaret Hamilton, el sistema pudo recuperarse y cumplir su cometido.

Una comparación descontextualizada


Cinco décadas después, ¿cómo se puede comparar aquella tecnología informática del programa Apolo con la actual? Un análisis simplista puede sugerir que la de hoy supera en órdenes de magnitud el rendimiento y prestaciones de su antecesora. Por ejemplo, la gama más reciente de iPhone tendría una frecuencia de reloj 2 500 veces más alta que el AGC del programa Apolo, con una capacidad de memoria nada menos que un millón de veces mayor. Todo ello con un coste 100 veces inferior.

Esta comparación, descontextualizada, no pone de manifiesto la perspectiva histórica de ambas tecnologías. Para llevar a cabo un análisis más preciso, realicemos la comparación desde el punto de vista de tres parámetros distintos que puedan ofrecer una visión más completa: la eficacia, la fiabilidad y el impacto.

En primer lugar, efectivamente cualquier dispositivo móvil actual tiene un rendimiento órdenes de magnitud superior a los computadores de entonces. Pero, ¿es esto realmente una ventaja? El computador AGC cumplió con éxito la misión para la que fue creado: llevar una misión tripulada a la Luna. Respondió a las expectativas cumpliendo las especificaciones que rigieron su diseño. Es decir, fue eficaz. Un mayor rendimiento, aparte de los sobrecostes que conlleva, suele suponer más complejidad y un mayor número de fuentes de error. Por lo tanto, más rendimiento no implica mayor eficacia.

Por otra parte, es evidente la gran versatilidad de los dispositivos actuales. Pero, ¿realmente es esa versatilidad lo que se buscaba en las misiones Apolo? Al contrario, lo que se necesitaba era un sistema de propósito específico de alta fiabilidad. Gracias a su diseño, el AGC supo aportar esa fiabilidad y resolver con éxito problemas como el relatado anteriormente. En circunstancias similares, un sistema operativo actual de propósito general probablemente habría perdido el control, lo que hubiera llevado a un reinicio del sistema y a un fracaso en la misión. La fiabilidad conseguida por el AGC aportó el nivel de seguridad requerido, aun con un rendimiento más limitado.

Un ordenador IBM System 360/20 expuesto en el Deutsches Museum de Munich, Alemania. A la derecha se muestra una IBM 2560 MFCM (máquina de tarjetas multifunción). Ben Franske / Wikipedia, CC BY

Finalmente, ¿cuál ha sido el impacto producido por la última generación de móviles, la que manejamos actualmente, respecto a las generaciones previas? Cualitativamente, ninguno. Cuantitativamente, un incremento muy reducido de sus prestaciones. ¿Qué supuso la introducción de un computador como el AGC, en el contexto histórico y social de los años 60? Aprovechar el potencial de una tecnología en aquel entonces disruptiva para posibilitar una misión tripulada a la Luna.

Dentro de 50 años probablemente nadie se acordará del móvil de última generación que tenemos ahora en las manos, superado y enterrado por sucesivas e innumerables familias tecnológicas. En cambio, el programa Apolo se seguirá estudiando como un ejemplo de uso de tecnología disruptiva a través de la cual se cambió la historia.

En resumen, la tecnología informática de las misiones Apolo se adelantó una década a su tiempo, no siendo superada hasta finales de los años 70, y sentó las bases de la computación tolerante a fallos cuyos principios fundacionales aún siguen vigentes.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Tecnología

El Retiro de Madrid, un oasis urbano que actúa como climatizador frente al calor

Avatar

Publicado

el

Balazs Sebok/Shutterstock

Fruto de los impactos cada vez mayores del calentamiento global, las ciudades se enfrentan a nuevos problemas. Uno de ellos es la intensificación del efecto de isla de calor urbano (UHI). Este fenómeno hace que un área urbana pueda ser entre 1 y 6 ℃ más cálida que las zonas cercanas.

Son muchas las causas que producen este efecto:

  • El aumento de la absorción de la luz solar por las superficies de color oscuro de los edificios.
  • Las propiedades físicas de los materiales utilizados en estas zonas.
  • La imposición de calor debida a la morfología urbana, que afecta al sombreado y al movimiento del aire.
  • La compacidad urbana que se deriva de la densidad.
  • También la proporción de la parcela, el patrón topográfico, la proximidad del uso de la tierra y de los viajes y la falta de zonas verdes.

El fenómeno también se ve exacerbado por el creciente tamaño de la ciudad y de la población y por el aumento de la tasa de consumo de energía, que puede crear varios focos de calor.

Efecto refrigerante de los espacios verdes


Una mayor atención académica para estudiar el impacto de los espacios verdes urbanos en las islas de calor urbano puede proporcionar a los planificadores estrategias bioclimáticas para abordar este problema.

Las áreas verdes se consideran una forma adecuada de reducir los efectos de isla de calor urbano y proporcionar comodidad física y psicológica a las áreas urbanas cercanas. Este fenómeno es conocido como efecto de enfriamiento de los espacios verdes urbanos.

Las variables más importantes relacionadas con los efectos de enfriamiento de los espacios verdes son la intensidad y la densidad del enfriamiento. Ambas pueden desempeñar un papel importante para los diseñadores y planificadores urbanos en el tratamiento de la isla de calor urbano.

Parque del Buen Retiro. PNOA, cedido por © Instituto Geográfico Nacional/Wikimedia Commons

El impacto de los espacios verdes y sus especificaciones han sido investigados a través de diferentes enfoques. Se han utilizado sensores de observación de campo y de temperatura para medir la intensidad del efecto de enfriamiento (CEI) y de la distancia del efecto de enfriamiento (CED). También se han empleado mapas satelitales y métodos de teledetección para investigar el impacto de un conjunto de espacios verdes urbanos en grandes extensiones de una ciudad.

Se ha observado una buena concordancia entre los resultados derivados de los datos de satélite y los obtenidos de los estudios de campo. A partir de los resultados, se puede concluir que el enfriamiento producido por los grandes parques (con más de 10 ha) es más intenso y alcanza una mayor distancia media.

Estas extensas áreas verdes producen una reducción de la temperatura de 1-2 ℃ que se extiende a lo largo de una distancia de 350 m desde el límite del parque.

Estudio del parque del Retiro


En el centro de Madrid, el parque del Retiro, con una superficie total de 140 ha, tiene un impacto significativo en la reducción de los efectos de la isla de calor en la capital. Por ello, en una investigación que hemos llevado a cabo recientemente, seleccionamos esta área verde para estudiar su impacto sobre el confort térmico en los barrios situados al norte, oeste y sur.

Vistas del Retiro. Author provided

En cada uno de los vecindarios, se seleccionaron tres puntos a una distancia de 150-160 m, 300-360 m y 600-650 m, respectivamente (un total de 9 localidades). Los datos meteorológicos también se recopilaron durante tres días: el 22 de junio, el 10 de junio y el 24 de julio de 2018.

Los resultados del estudio mostraron que la temperatura del aire de las áreas cercanas al parque (100-150 m) es aproximadamente 1,5-2℃ más fría que en los puntos con distancias de 600 m a 650 m. Además, hubo una relación inversa entre la distancia del parque y el nivel de percepción del confort térmico de la gente.

¿Cuánto calor pasa usted?


Para estudiar la percepción subjetiva del confort térmico estival de los peatones, se utilizaron dos métodos: los mapas mentales (las personas eligen los lugares donde sienten un confort térmico óptimo) y un cuestionario sobre el nivel personal de percepción del efecto refrescante del parque del Retiro.

Figura 1. Análisis de AramMMA que superpone todas las percepciones de los residentes del parque del Retiro. Cada color indica el número de veces que el lugar ha sido mencionado por los residentes. Author provided

El software AramMMA (diseñado y evaluado por investigadores del Grupo ABIO de la Universidad Politécnica de Madrid) se usó para investigar los mapas mentales.

El análisis del programa mostró que los residentes cerca del parque del Retiro tenían una mayor percepción de frío (figura 1). Los resultados indicaron que, independientemente de la distancia de sus viviendas, los vecinos reconocieron el parque del Retiro como un lugar con un alto confort térmico. Esta percepción era más común en las áreas cercanas al parque, aunque en diferente grado: más en el norte (parte A) y oeste (parte B) y menos en el sur (parte C), como muestra la figura.

Además, las respuestas al cuestionario revelaron que los residentes de las tres áreas más cercanas al parque del Retiro fueron los que más contribuyeron a la percepción colectiva de efecto de enfriamiento.

Cabe mencionar que, según los resultados, el efecto de enfriamiento del Retiro fue apreciado hasta los 650-600 m de distancia, aunque en menor medida que en las partes más cercanas del parque.

Esta investigación inicial ha demostrado lo importante que es la percepción personal sobre las áreas verdes para mitigar el efecto de isla de calor urbano en ciudades densas.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Tecnología

Hasta qué punto podemos fiarnos de las predicciones del tiempo para el verano

Avatar

Publicado

el

Al entrar el verano astronómico, poco antes de las vacaciones de la mayoría de la población, la pregunta que estaba en boca de todos era cómo iba a ser esta estación desde un punto de vista meteorológico. Ahora, tras la primera ola de calor estival, que ha afectado a toda Europa, muchos temen que las elevadas temperaturas se conviertan en la tónica dominante de los próximos meses.

El intenso calor de la pasada semana dejó récords de temperaturas en muchas provincias españolas, como Girona, donde se alcanzaron los 43,4℃, récord absoluto desde que comenzó a operar esta estación meteorológica (1884).

Las cifras de junio recuerdan ya a estíos recientes tan sofocantes como el de 2015, con una ola de calor desde San Juan a Santiago y temperaturas récord en algunas ciudades, como los 44,5℃ alcanzados en Zaragoza. O a la máxima absoluta de España registrada en julio de 2017 en Montoro (Córdoba): 47,3℃. O a las casi seguidas 13 noches tórridas con mínimas iguales o superiores a 25℃ del pasado verano en el centro de la ciudad de Barcelona.

Desde el verano de 2003, mortífero por las altas temperaturas en Europa occidental, las olas de calor se han sucedido con mayor frecuencia que antes. Sea urbano o rural, el sufrido ciudadano teme cada vez más, sobre todo cuando no está de vacaciones, las altas temperaturas. Las que corresponden a un sol de justicia y a unas noches en que resulta imposible descansar.

¿Cómo pronosticar el tiempo para varios meses?


Para conocer cómo será una estación entera o incluso más meses por adelantado se recurre a las llamadas predicciones estacionales, que realizan los grandes centros meteorológicos mundiales. Estas predicciones suelen expresarse mediante enunciados simples, tales como temperatura superior, igual o inferior a la normal del mes. Y lo mismo para la precipitación.

En la actualidad, afinando más, se presentan como anomalías (en ℃ para la temperatura y en milímetros para la precipitación) respecto a los valores medios o normales de cada mes o con lenguaje probabilístico.

Uno de los mejores lugares, por su claridad, donde encontrar predicciones estacionales es la web del European Forest Fires Information System (EFFIS). Sus mapas de anomalías del continente europeo permiten conocer cómo será la temperatura y la precipitación en los 7 meses siguientes y están basados en los análisis del Centro Europeo de Predicción Meteorológica a Medio Plazo (ECMWF), una organización intergubernamental con sede en Reading (Reino Unido) a la que España pertenece.

Anomalías estacionales de la temperatura para julio. EFFIS

Pero surgen algunas preguntas al respecto de las predicciones estacionales: ¿en qué se basan? ¿qué confianza merecen? ¿hasta qué mes por adelantado dan resultados aceptables? ¿estiman mejor el tiempo de los próximos meses en nuestras latitudes o en otras más septentrionales o meridionales? Y por encima de todas estas cuestiones, está la siguiente: ¿cómo pretender una predicción a meses vista, cuando sabemos que la predicción meteorológica solo permite conocer el tiempo con unos pocos días de antelación?

Predicciones estacionales vs. meteorológicas


Las predicciones estacionales se obtienen mediante modelos o conjunto de modelos físico-matemáticos que estiman las anomalías de temperatura y de precipitación en los meses siguientes. No pretenden indicar el tiempo en una fecha determinada, como hace la predicción meteorológica, sino si la temperatura y la precipitación serán superiores o inferiores a las normales en un área relativamente amplia.

Estos modelos tienen en cuenta los siguientes factores:

  • La posición y persistencia de los llamados centros de acción, es decir, los grandes anticiclones y borrascas (como el anticiclón de las Azores).
  • La potencia y localización del vórtice polar, un gran torbellino que circunda los polos.
  • Si el agua del mar tiene una temperatura más alta o más baja que la habitual para la época.
  • Los valores meteorológicos registrados en los últimos meses y los casos análogos ocurridos en el pasado.

Como los grandes procesos atmosféricos y, sobre todo, las temperaturas marinas no cambian de un día para otro, es decir, muestran una notable persistencia, podemos inferir sus efectos en el tiempo durante períodos de algunos meses.

Son predicciones fundamentalmente probabilísticas que tienen un grado de incertidumbre notable, por lo que deben tomarse solo como aproximaciones a las variaciones térmicas y pluviométricas de los próximos meses respecto a lo que es normal en ellos. Naturalmente, cuanto más lejano en el tiempo es el mes objeto de la predicción, menor es la fiabilidad de la misma. Podría afirmarse en general que a tres meses vista las predicciones estacionales aportan información de utilidad y a medio año rozan una simple predicción aleatoria.

Además, las predicciones estacionales son más fiables en las latitudes tropicales que en las medias, donde se sitúa España, dado que aquí las variaciones aleatorias del tiempo día a día son mayores que en el trópico. Y son mejores para la temperatura que para la lluvia.

El verano en España


Los mapas difundidos por el EFFIS a comienzos de junio prevén para España un verano más cálido de lo normal en el interior peninsular y Baleares y por debajo de la normal climatológica en la costa del golfo de Cádiz (Huelva y Cádiz). En gran parte de los litorales y en Canarias se prevé un verano térmicamente normal.

Julio será más cálido de lo normal en el interior peninsular (especialmente en la meseta norte) y en Baleares, pero más fresco de lo que le corresponde en los litorales de Cádiz y Huelva y en las islas Canarias orientales. En agosto se repetirá el mismo patrón, aunque en las franjas litorales y en Baleares la temperatura no se separará de los promedios habituales del mes.

Anomalías estacionales de la temperatura previstas para agosto. EFFIS

Finalmente, en septiembre prácticamente en toda la España peninsular y Baleares se registrarán temperaturas algo superiores a las normales. Por los valores medios previstos, el verano de 2019, aun siendo en conjunto más cálido de lo normal, no parece que vaya a resultar extraordinario. Sí que se batirán algunos récords puntualmente, como ya ha ocurrido durante la intensa ola de calor de la última semana de junio. Como los valores medios o normales se establecen a partir de un período de unos 30 años, el progresivo calentamiento da lugar a veranos repetidamente por encima de los promedios.

Respecto a la precipitación, variable de más compleja predicción, los pronósticos apuntan un verano entre normal y seco en gran parte del territorio español.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo
Publicidad