fbpx
Conecta con nosotros

Tecnología

Hasta qué punto podemos fiarnos de las predicciones del tiempo para el verano

Avatar

Publicado

el

 

Al entrar el verano astronómico, poco antes de las vacaciones de la mayoría de la población, la pregunta que estaba en boca de todos era cómo iba a ser esta estación desde un punto de vista meteorológico. Ahora, tras la primera ola de calor estival, que ha afectado a toda Europa, muchos temen que las elevadas temperaturas se conviertan en la tónica dominante de los próximos meses.

El intenso calor de la pasada semana dejó récords de temperaturas en muchas provincias españolas, como Girona, donde se alcanzaron los 43,4℃, récord absoluto desde que comenzó a operar esta estación meteorológica (1884).

Las cifras de junio recuerdan ya a estíos recientes tan sofocantes como el de 2015, con una ola de calor desde San Juan a Santiago y temperaturas récord en algunas ciudades, como los 44,5℃ alcanzados en Zaragoza. O a la máxima absoluta de España registrada en julio de 2017 en Montoro (Córdoba): 47,3℃. O a las casi seguidas 13 noches tórridas con mínimas iguales o superiores a 25℃ del pasado verano en el centro de la ciudad de Barcelona.

Desde el verano de 2003, mortífero por las altas temperaturas en Europa occidental, las olas de calor se han sucedido con mayor frecuencia que antes. Sea urbano o rural, el sufrido ciudadano teme cada vez más, sobre todo cuando no está de vacaciones, las altas temperaturas. Las que corresponden a un sol de justicia y a unas noches en que resulta imposible descansar.

¿Cómo pronosticar el tiempo para varios meses?


Para conocer cómo será una estación entera o incluso más meses por adelantado se recurre a las llamadas predicciones estacionales, que realizan los grandes centros meteorológicos mundiales. Estas predicciones suelen expresarse mediante enunciados simples, tales como temperatura superior, igual o inferior a la normal del mes. Y lo mismo para la precipitación.

En la actualidad, afinando más, se presentan como anomalías (en ℃ para la temperatura y en milímetros para la precipitación) respecto a los valores medios o normales de cada mes o con lenguaje probabilístico.

Uno de los mejores lugares, por su claridad, donde encontrar predicciones estacionales es la web del European Forest Fires Information System (EFFIS). Sus mapas de anomalías del continente europeo permiten conocer cómo será la temperatura y la precipitación en los 7 meses siguientes y están basados en los análisis del Centro Europeo de Predicción Meteorológica a Medio Plazo (ECMWF), una organización intergubernamental con sede en Reading (Reino Unido) a la que España pertenece.

Anomalías estacionales de la temperatura para julio. EFFIS

Pero surgen algunas preguntas al respecto de las predicciones estacionales: ¿en qué se basan? ¿qué confianza merecen? ¿hasta qué mes por adelantado dan resultados aceptables? ¿estiman mejor el tiempo de los próximos meses en nuestras latitudes o en otras más septentrionales o meridionales? Y por encima de todas estas cuestiones, está la siguiente: ¿cómo pretender una predicción a meses vista, cuando sabemos que la predicción meteorológica solo permite conocer el tiempo con unos pocos días de antelación?

Predicciones estacionales vs. meteorológicas


Las predicciones estacionales se obtienen mediante modelos o conjunto de modelos físico-matemáticos que estiman las anomalías de temperatura y de precipitación en los meses siguientes. No pretenden indicar el tiempo en una fecha determinada, como hace la predicción meteorológica, sino si la temperatura y la precipitación serán superiores o inferiores a las normales en un área relativamente amplia.

Estos modelos tienen en cuenta los siguientes factores:

  • La posición y persistencia de los llamados centros de acción, es decir, los grandes anticiclones y borrascas (como el anticiclón de las Azores).
  • La potencia y localización del vórtice polar, un gran torbellino que circunda los polos.
  • Si el agua del mar tiene una temperatura más alta o más baja que la habitual para la época.
  • Los valores meteorológicos registrados en los últimos meses y los casos análogos ocurridos en el pasado.

Como los grandes procesos atmosféricos y, sobre todo, las temperaturas marinas no cambian de un día para otro, es decir, muestran una notable persistencia, podemos inferir sus efectos en el tiempo durante períodos de algunos meses.

Son predicciones fundamentalmente probabilísticas que tienen un grado de incertidumbre notable, por lo que deben tomarse solo como aproximaciones a las variaciones térmicas y pluviométricas de los próximos meses respecto a lo que es normal en ellos. Naturalmente, cuanto más lejano en el tiempo es el mes objeto de la predicción, menor es la fiabilidad de la misma. Podría afirmarse en general que a tres meses vista las predicciones estacionales aportan información de utilidad y a medio año rozan una simple predicción aleatoria.

Además, las predicciones estacionales son más fiables en las latitudes tropicales que en las medias, donde se sitúa España, dado que aquí las variaciones aleatorias del tiempo día a día son mayores que en el trópico. Y son mejores para la temperatura que para la lluvia.

El verano en España


Los mapas difundidos por el EFFIS a comienzos de junio prevén para España un verano más cálido de lo normal en el interior peninsular y Baleares y por debajo de la normal climatológica en la costa del golfo de Cádiz (Huelva y Cádiz). En gran parte de los litorales y en Canarias se prevé un verano térmicamente normal.

Julio será más cálido de lo normal en el interior peninsular (especialmente en la meseta norte) y en Baleares, pero más fresco de lo que le corresponde en los litorales de Cádiz y Huelva y en las islas Canarias orientales. En agosto se repetirá el mismo patrón, aunque en las franjas litorales y en Baleares la temperatura no se separará de los promedios habituales del mes.

Anomalías estacionales de la temperatura previstas para agosto. EFFIS

Finalmente, en septiembre prácticamente en toda la España peninsular y Baleares se registrarán temperaturas algo superiores a las normales. Por los valores medios previstos, el verano de 2019, aun siendo en conjunto más cálido de lo normal, no parece que vaya a resultar extraordinario. Sí que se batirán algunos récords puntualmente, como ya ha ocurrido durante la intensa ola de calor de la última semana de junio. Como los valores medios o normales se establecen a partir de un período de unos 30 años, el progresivo calentamiento da lugar a veranos repetidamente por encima de los promedios.

Respecto a la precipitación, variable de más compleja predicción, los pronósticos apuntan un verano entre normal y seco en gran parte del territorio español.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Tecnología

Características del nuevo ZenBook 14: el más compacto del mundo

Nicolás Marambio

Publicado

el

ZenBook 14

Un diseño ultraportátil, la incorporación del Numpad y certificación de grado militar son sólo algunos de los elementos a destacar del ZenBook 14, el nuevo lanzamiento de ASUS.

ASUS se destaca por la innovación y calidad de sus productos, en cuanto a la línea ZenBook ASUS no se queda atrás.

Portabilidad


ZenBook 14El diseño del ZenBook 14 le permite ser uno de los laptops de 14” más pequeños del mercado, llegando a ser incluso más reducido que algunos portátiles de 13.3 pulgadas, gracias a su estructura ultra compacta y ultraliviana.

El diseño de esta nueva generación del ZenBook le permite reducir su tamaño un 13% en comparación a la generación anterior del mismo modelo.

NumberPad incorporado


ZenBook 14Siempre pensando en poder lograr una entrada de datos de manera más rápida e intuitiva, una de las mayores innovaciones a destacar del ZenBook 14 es el NumberPad, su nuevo y exclusivo panel táctil, que aparece como la solución a la ausencia de un teclado numérico en portátiles compactos.

Sólo basta con tocar el ícono en la esquina superior derecha del track pad y se desplegará un teclado numérico iluminado por LED de tamaño completo.

Diseño y Funcionalidad


ZenBook 14Pensando tanto en la posición óptima de tipeo, como en mejorar la capacidad de refrigeración, el ZenBook 14 presenta ErgoLift, su exclusiva bisagra.

Esta permite una inclinación de pantalla de 145° y, al mismo tiempo, un espacio de 3° en la base. Ingeniería de calidad que, además, permite un mejor de sonido.

Otra de las características  que se destacan en   el nuevo ZenBook 14 es su pantalla NanoEdge, que maximiza el área de visión siendo increíblemente inmersiva.

Cuenta con una proporción de pantalla-cuerpo de 92%, gracias a sus bordes de sólo 2,8 mm que proporcionan un campo de visión más completo y resolución Full HD, para una experiencia envolvente.

Reconocimiento Facial


ZenBook 14Para asegurar un inicio de sesión rápido y sobre todo seguro, el ZenBook 14 cuenta con una cámara infrarroja (IR) 3D avanzada, capacitada incluso para ver en la oscuridad.

También cuenta con comandos de voz integrados, permitiendo acceder al ZenBook 14 casi sin uso alguno de las manos.

 

Certificación de Grado Militar


ZenBook 14El ZenBook 14 ha sido sometido a las más duras pruebas de confiabilidad y durabilidad en ambientes de altitud, temperatura y humedad extremas, cumpliendo con el estándar militar MIL-STD-810G, así como pruebas internas de ASUS que superan por mucho los estándares de la industria.

 

 

Procesador Procesador Intel® Core™ i5 8265U
Procesador Intel® Core™ i7 8565U
Sistema Operativo Windows 10 Home - ASUS recomienda Windows 10 Pro.
Memoria 8 GB Onboard memory
8 GB Onboard memory
Pantalla 14.0" (16:9) LED-backlit FHD (1920x1080) 60Hz Anti-Glare Panel con 72% NTSC con 178˚ de ángulo de vista
soporta ASUS Splendid Technology
con WideView Technology
Gráficos NVIDIA® GeForce® MX150 , with 2GB GDDR5 VRAM
Almacenamiento Disco de estado sólido:
256GB PCIe® Gen3 x2 SSD
Disco de estado sólido:
512GB PCIe® Gen3 x2 SSD
Teclado Teclado chiclet retro-iluminado
WebCam IR camera
Redes Wi-Fi
Integrado802.11ac (2x2)
Bluetooth
Bluetooth® 5.0
Interfaz 1 x Tipo C USB 3.0 (USB 3.1 Gen 1 / Gen 2)
1 x Tipo A USB 3.1 (Gen 1)
1 x Tipo A USB2.0
1 x HDMI
1 x micro SD card
1 x audio jack combo
Audio Built-in 1 W Stereo Speakers with Micrófono Integrado
Smart AMP
Supports Windows 10 Cortana with Voice
Harman Kardon
Batería Batería de 3 Celdas 50 Wh Polimero
Adaptador de Corriente Plug type :ø4 (mm)
Salida :
19 V DC, 3.42 A, 65 W
Entrada :
100 -240 V AC, 50/60 Hz universal
Dimensiones NB:
31.9 x 19.95 x 15.9 cm (WxDxH)
Peso NB:
1.09 kg ~ 1.19 kg
Seguridad fTPM (Firmware-based Trusted Platform Module)

seguir leyendo

Tecnología

Blockchain y la democracia digital: ¿Descentralización o acto de fe?

Avatar

Publicado

el

Pixabay

Hoy ya no podemos imaginar nuestra sociedad sin las tecnologías de la información y de las comunicaciones (TIC). Cuando estas no funcionan tenemos dificultades para viajar, no podemos leer el correo electrónico e incluso nuestra vida puede correr peligro. Necesitamos confiar en estas tecnologías, y para ello es necesario un plan que las proteja y garantice su fiabilidad. Blockchain nace con este objetivo.

Blockchain surgió junto al Bitcoin para sustituir a los bancos centrales. Se trata de una alternativa al concepto clásico de tercera parte de confianza (TTP, Trusted Third Party). Un banco central es un tipo de TTP que da fe del dinero que posee un cierto agente, y que valida los intercambios de dinero entre individuos y organizaciones.

¿Qué es eso de la TTP?


Si Antonio quiere enviar a Beatriz información, deberá utilizar un canal de comunicación que le permita estar seguro de que en el otro extremo del canal está Beatriz. Tradicionalmente se ha utilizado una TTP para construir el aval que Antonio necesita. Una vez se cuenta con ese aval, por ejemplo, se puede utilizar la criptografía de clave simétrica para enviar y recibir información sin interceptación por terceras partes que no son de confianza.

Esta posición privilegiada de las TTP entraña un doble riesgo:

  1. Una TTP puede ser atacada. Esto permitiría el acceso a información confidencial por un agente no autorizado, como ha ocurrido con la filtración de contraseñas de usuarios, el acceso a información privada por fallos de control de acceso y la suplantación de la TTP por ingeniería social.
  2. Una TTP puede utilizar su posición de privilegio y, sin nuestro permiso, analizar nuestra actividad y extraer patrones de comportamiento, vender perfiles a terceros y entrenar algoritmos con nuestros datos.

Descentralizar la confianza


Para evitar esos riesgos es razonable pensar en implementar una TTP de forma distribuida. Así surgen las redes de pares o P2P para el almacenamiento y distribución de contenido, con BitTorrent y eMule como representantes significativos de este ecosistema. A partir de 2008 se sumaron a él Bitcoin y su soporte, Blockchain.

Bitcoin consta de una capa criptográfica, un protocolo de comunicación P2P y una comunidad con interés en la colaboración financiera. La capa criptográfica utiliza hashes criptográficos y firmas digitales para consensuar la escritura de apuntes contables (transacciones) sin intermediario. Esas transacciones son agrupadas en bloques por un grupo de usuarios especiales, los mineros.

Los mineros intentan resolver un desafío matemático costoso computacionalmente, la prueba de trabajo (PoW, Proof of Work). El primer minero en resolver el desafío en un momento dado, introduce un bloque en la Blockchain y obtiene una recompensa, que equivale a crear moneda. Se puede demostrar que la selección del minero afortunado es cuasialeatoria, lo que evita el problema del doble gasto y garantiza el carácter inmutable de la Blockchain.

Esta desintermediación no está exenta de fricciones. Si hasta ahora la acumulación de capital financiero podía desestabilizar un sistema económico, en Bitcoin tal riesgo viene dado por la acumulación de capacidad de cómputo. Hoy en día el minero no es un usuario con un simple ordenador personal: existen centros de computación (o granjas de minado) dedicados exclusivamente a la creación de bloques de Bitcoin. Si una granja de minado acumula más de la mitad de la capacidad global de cómputo, podría reescribir bloques, lo que violaría la inmutabilidad de Blockchain. En 2014 la granja GHash.io alcanzó está situación de privilegio, aunque renunció a explotarla.

Al déficit de gobernanza en Bitcoin se añade que el consumo energético asociado al minado es excesivamente elevado. Esto, junto a otros factores, motiva la búsqueda de mecanismos de consenso más eficientes y seguros.

Más allá de Bitcoin


Partiendo de Bitcoin, es con Ethereum donde Blockchain cobra su verdadero protagonismo al recuperar el concepto de smart contract, que permite escribir en la Blockchain código software para su ejecución automática. Esto posibilita la creación de protocolos de comunicación para el internet de las cosas y la creación de organizaciones autónomas descentralizadas, cuyo primer ejemplo es TheDAO.

Como todo software, los smart contracts tienen problemas de seguridad con un impacto económico real. Cabe destacar que en TheDAO la pérdida económica derivada de la inseguridad motivó cambios regulatorios.

En Bitcoin y Ethereum cualquiera puede leer la información escrita en Blockchain, y ser minero. Esta transparencia puede erosionar la oportunidad de negocios en el caso empresarial, y suponer problemas de privacidad e incumplimientos de la GDPR.

Por ello, existen blockchains con control de acceso, de forma que habremos de evaluar qué blockchain necesitamos en cada caso, qué nivel de descentralización precisamos y hasta si necesitamos una.

¿Necesitas una blockchain? Adaptado de https://eprint.iacr.org/2017/375.pdf

La descentralización de la confianza en TIC es una pieza clave para configurar la edemocracia. Blockchain está llamada a jugar un papel principal en esta dinámica, pero debemos abordar sus limitaciones y realizar un cambio paradigmático, que no consiste en aplicar Blockchain a problemas ya resueltos con tecnologías “antiguas”.

La raigambre criptográfica y de sistemas distribuidos en Blockchain, por otro lado, hace que el desarrollo de la tecnología requiera perfiles que están radicados en la academia. El reconocimiento de esta situación está detrás de movimientos e iniciativas internacionales de colaboración académico-empresarial, como es el caso de IOHK, Dfinity y Algorand. En lo que nos ocupa y preocupa, nuestra academia e industria tienen mucho trabajo por hacer.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo

Tecnología

La silenciosa revolución del siglo XX: La electrónica

Avatar

Publicado

el

Programador en un notebook
Pixabay

El mundo en el que vivimos sería inconcebible sin las potentísimas herramientas de las que disponemos para mantenernos conectados. Hoy en día más de la mitad de los habitantes del planeta dispone de teléfono móvil o tiene acceso a un ordenador y maneja con soltura el correo electrónico y aplicaciones de mensajería como WhatsApp.


¿Hasta dónde llega la influencia de la electrónica? La siguiente figura muestra un día cualquiera en la vida de un ciudadano medio y los instrumentos que emplea durante su jornada:

La electrónica en la vida diaria: despertadores, teléfonos móviles, receptores de radio, navegadores, ordenadores con conexión a internet, electrodomésticos. Ignacio Mártil

Este breve recorrido nos indica hasta qué punto la electrónica está presente en nuestras vidas desde que nos levantamos hasta que nos acostamos: teléfonos móviles, ordenadores, internet… Si hacemos un recorrido un poco más detallado por los equipos de uso doméstico, social, personal y colectivo que la electrónica ha situado al alcance de la gran mayoría de los ciudadanos nos encontramos con muchos más:

  • Ocio: televisión, reproductores de audio y vídeo, receptores de radio, cámaras digitales de fotografía.
  • Medicina: equipos de diagnóstico por imagen como la resonancia magnética nuclear y la tomografía axial computarizada.
  • Tráfico aéreo y marítimo: por ejemplo, los radares.
  • Tráfico terrestre: mandos de apertura y cierre de puertas, ayudas a la conducción, y trenes de tracción eléctrica como el AVE.
  • Satélites artificiales: satélites de posicionamiento como el GPS, meteorológicos y de comunicaciones.
  • Energía: bombillas LED y células solares.

Y, por supuesto, un largo etcétera.

¿Cómo hemos llegado hasta aquí?

En mi libro Microelectrónica. La historia de la mayor revolución silenciosa del siglo XX describo la historia de ese desarrollo sin precedentes, basado en la invención de dos dispositivos que fueron especialmente importantes para esta revolución: el transistor y el circuito integrado.

La evolución de la electrónica es un viaje que va desde los primeros principios físicos hasta el desarrollo de las tecnologías de la información y las comunicaciones. En este viaje participan numerosos científicos (y sus descubrimientos), que son los que construyen esta historia.

El transistor y el circuito integrado

Dos hitos fueron esenciales para el desarrollo de la microelectrónica, que ha cambiado nuestras vidas y marcado la evolución de nuestra sociedad científico-tecnológica. Me refiero al transistor y al circuito integrado.

Físicos, químicos, ingenieros y tecnólogos hicieron aportaciones colectivas en sus instituciones públicas y privadas que han sido el motor esencial de la microelectrónica.

El ejemplo más característico es el del nacimiento del transistor en los laboratorios Bell, en las Navidades de 1947.

Los Bell Labs eran el centro de investigación de la conocida empresa ATT, gigante de las telecomunicaciones de EE UU en aquellos años. Ese relato, una epopeya científica comparable al desarrollo de la máquina de vapor, tiene también paralelismos con las novelas de intriga. Sus protagonistas fueron John Bardeen, Walter Brattain y Wiliam Shockley, quienes recibieron el Premio Nobel de física en 1956 por la invención del transistor. Al mismo tiempo, atravesaron numerosas dificultades y establecieron complicadas relaciones personales entre ellos.

Casi una década después, en 1958, comenzó una carrera entre dos empresas rivales (Texas Instruments y Fairchild Semiconductors) por hacerse con la patente del primer circuito integrado. Esta maravilla de la tecnología fue concebido por dos científicos de ambas compañías (Jack Kilby en la primera, Robert Noyce en la segunda) de manera independiente y casi simultánea carrera que se resolvió muchos años después, tras un sinfín de litigios legales.

La evolución posterior de la tecnología microelectrónica es conocida como la Ley de Moore. Esta indica que el número de transistores que hay en un circuito integrado se duplica cada dos años, lo que se ha cumplido sin interrupción desde la década de 1960. Se trata de una de las obras del ingenio humano más asombrosas, difíciles de igualar por cualquier otro producto tecnológico. La siguiente imagen muestra dicha ley:

La ley de Moore: incremento del número de transistores en un circuito integrado desde la década de 1970 hasta nuestros días. Ignacio Mártil

La historia de la electrónica es más la historia de la perseverancia y la tenacidad que la de las grandes ideas geniales. Esto es un fiel reflejo de una era de organización y trabajo colaborativo, en lugar de protagonismos singulares e individualidad.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

seguir leyendo
Publicidad