martes, 19 de octubre de 2010

SOBRE LA TEORÍA GAIA


Por Nelson Vásquez Castellar

La teoría Gaia representa una concepción bastante avanzada en cuanto a la comunión que debe existir entre el hombre y el medio que lo rodea; es decir, entre el hombre y todo lo que el planeta tierra ofrece a su alrededor. Va mucho más allá de la simple consideración de este como amo y señor de todo lo existente, usufructuario de sus riquezas, consumidor insaciable de la naturaleza, ser superior y aparte de lo demás, entre otras, que algunas teorías científicas han planteado o que han sido difundidas o impuestas mediante vías políticas, económicas o religiosas por algunos grupos de interés.

Tal vez adoptar el punto de vista que plantean sus precursores no sea tarea fácil para una especie acostumbrada a poseer el derecho de propiedad de un planeta que ha saciado sus necesidades, sus deseos, sus caprichos y sus ansias de dominio y riqueza; pero sin duda es necesario de cara a los grandes desafíos que en materia ambiental y de supervivencia para el hombre representa un cambio de visión y de actitud respecto a su verdadero lugar dentro del complejo sistema que es la tierra. Los planteamientos de la teoría Gaia se me antojan vitales para revertir la tendencia hacia un planeta más hostil para el desarrollo de la vida humana, más desigual, más precario. Y no solo porque ambientalmente lo estamos desmantelando, desapropiando para nosotros mismos; sino, porque en la medida en que esto continúe, nuestro individualismo y maximalismo característicos harán cada día más penosa por lo conflictiva nuestra existencia.

Hemos pasado por alto que la defensa de la supervivencia humana, pasa por la defensa de unas condiciones ambientales que han sido propicias para nuestro desarrollo y trascendencia; hemos mantenido la mirada altiva ante la creencia de que podemos manejar el planeta con base en nuestras concepciones lineales, fragmentarias, insostenibles y hegemonizantes; hemos basado nuestra supervivencia en el ideal de infinités de los recursos que nos provee el planeta y con base en ello hemos proyectado la obtención de objetivos desmedidos que no hacen más que seguirnos aferrando a una mentira que puede estar próxima a desmantelarse; hemos subestimado la valiosa enseñanza de cooperativismo y sinergismo que encierra la dinámica organizativa y funcional del sistema tierra. La teoría Gaia apunta en la dirección de orientar a la humanidad a reconsiderar su relación con el sistema vivo del cual hace parte, en el cual influye y es influenciado a la vez, del cual se constituye y en el que desempeña una función vital como constituyente.

Cuando se hacen las preguntas ¿Qué es? Y ¿Quién es Gaia? Su principal precursor, James Lovelock, da las siguientes respuestas: “el Qué es la delgada capa esférica de tierra y agua que existe entre el interior incandescente de la Tierra y la atmósfera superior que la rodea. El Quién es el tejido interactivo de organismos vivos que la ha habitado durante más de cuatro mil millones de años. La combinación de ese Qué y ese Quién, y el modo en que uno afecta continuamente al otro, es lo que se ha bautizado con el apropiado nombre de Gaia”. Bajo esta concepción no cabe duda que somos integrantes recientes de ese complejo accionar, una especie joven a la que tal vez le falta mucho por aprender para adherirse funcionalmente al mecanismo de Gaia. Es posible que dada la incipiente existencia de la humanidad, está aún pueda de forma correcta interpretar la interacción entre los elementos que la integran, su coexistencia, su carácter sistémico, su complementariedad y sobre todo la importancia como un todo unificado sin jerarquización ni fragmentación, para poder contribuir significativamente con el carácter autorregulatorio e integratorio de la unidad despojándose del egoísmo y su visión reduccionista, rentista y cortoplacista.

No cabe duda que la manera como contemplamos el mundo hoy es equivocada. Solo basta con evaluar nuestro comportamiento y las consecuencias de este en las relaciones que sostenemos con la naturaleza y con nuestra especie misma. Solo basta echar un vistazo al gran impacto que tienen nuestras acciones en el funcionamiento actual del sistema tierra. La deforestación incontrolada, la contaminación en sus más variadas clases, la destrucción de la biodiversidad, el agotamiento de los recursos, el crecimiento acelerado de la población, el cambio climático y los abusos de la tecnología, son evidencias de la errada interpretación y comprensión de nuestro verdadero papel en el funcionamiento global de dicho sistema (sistema gaiano).

Debemos como primera medida empezar a respetar más a la naturaleza si queremos vivir en armonía con ella, de lo contrario ella misma nos hará sufrir las consecuencias de nuestro proceder. Hoy ya empezamos a sufrirlas.

La teoría Gaia puede dar luces en el sentido de reorientar nuestro comportamiento hacia el establecimiento de una relación perdurable y beneficiosa con el planeta a pesar que hoy estemos muy lejos de lograrla.

viernes, 15 de octubre de 2010

LA OMM ANUNCIA QUE SE PREVÉ QUE EN 2011 CONTINÚE, DE MODERADO A FUERTE, EL ACTUAL EPISODIO DE LA NIÑA


Comunicado de prensa Nº 900

Ginebra, 11 de octubre de 2010 (OMM) – Según se indica en el Boletín “El Niño y La Niña hoy”, publicado hoy por la Organización Meteorológica Mundial, en el océano Pacífico ecuatorial se han identificado claramente las condiciones de un episodio de moderado a fuerte de La Niña que, probablemente, se mantendrán al menos hasta el primer trimestre del año que viene, y que podría incluso reforzarse a lo largo de los cuatro a seis próximos meses.

Un episodio de La Niña se caracteriza por temperaturas oceánicas inusualmente frías en la parte central y oriental del Pacífico tropical, mientras que un episodio de El Niño se caracteriza por temperaturas anormalmente cálidas en la misma región. Ambos fenómenos pueden llegar a durar hasta 12 meses o más y alterar el régimen habitual de las precipitaciones y la circulación atmosférica de las latitudes tropicales, así como tener repercusiones generalizadas en el clima de muchas partes del mundo, con los riesgos asociados a condiciones climáticas peligrosas.

Según el Boletín de la OMM, prácticamente todos los modelos de predicción prevén que este episodio de la Niña continúe y, probablemente se recrudezca, durante los cuatro a seis próximos meses, perdurando el fenómeno hasta bien avanzado el primer trimestre de 2011.

Ello se debe a la estrecha interacción existente entre las características oceánicas y atmosféricas del fenómeno actual y a la gran extensión cubierta por temperaturas inferiores a lo normal bajo la superficie del océano.

El actual episodio de la Niña medró rápidamente en junio y julio de 2010, después de que, en abril, se disipara el episodio de El Niño 2009/2010. Desde agosto el fenómeno se ha manifestado con una intensidad de moderada a fuerte.

En la parte central y oriental del Pacífico ecuatorial las temperaturas de la superficie del mar son alrededor de 1,5º Celsius inferiores a lo normal. Las condiciones atmosféricas del Pacífico tropical están ahora estrechamente unidas a la configuración de la temperatura de la superficie del mar, con vientos alisios más intensos y una nubosidad reducida sobre una buena parte de la región.

Las condiciones observadas bajo la superficie de las zonas central y oriental del Pacífico ecuatorial también reflejan la presencia de un episodio de La Niña. Las aguas inmediatamente bajo la capa superficial del océano son generalmente de 2º a 6º Celsius inferiores a lo normal. Este gran volumen de agua inusualmente fría podría mantener o reforzar las bajas temperaturas de la superficie del océano.

Gestión de riesgos climáticos


Aunque este episodio de La Niña presente algunas similitudes con los anteriores, sus efectos sobre las condiciones climáticas locales podrían ser diferentes de las observadas en el pasado. Por lo tanto, en lo referente a la gestión de riesgos relacionados con el clima, es importante consultar una información regional sobre el clima y la evolución probable del mismo que tenga en cuenta las condiciones prevalentes del fenómeno La Niña, así como otros factores que puedan influir en el clima local.

Las instituciones meteorológicas nacionales y regionales y los foros sobre la evolución probable del clima de todo el mundo han estado emitiendo previsiones detalladas y adecuadas a las diferentes regiones sobre la posible evolución del clima, con objeto de ayudar a los gobiernos, las empresas y la sociedad civil a prepararse para enfrentarse a los riesgos climáticos que, generalmente, conlleva el fenómeno de La Niña, como inundaciones y sequías y, por consiguiente, a reducir dichos riesgos.

El Boletín “El Niño y La Niña hoy” es el fruto de una estrecha colaboración entre la OMM y el Instituto internacional de investigación sobre el clima y la sociedad (IRI) de Estados Unidos, y se basa en la información facilitada por centros de predicción climática y expertos de todo el mundo. Es una contribución a la labor del Equipo de Trabajo Interinstitucional sobre la Estrategia Internacional de las Naciones Unidas para la Reducción de Desastres.

Cursillo sobre El Niño/Oscilación Austral en América del Sur


El Niño y La Niña representan extremos opuestos del ciclo de El Niño/Oscilación Austral (ENOA). Se trata de un fenómeno climático natural a gran escala que se manifiesta de año en año en forma de variaciones coherentes, a veces muy agudas, de las temperaturas de la superficie del mar, de las pautas de precipitaciones, de la presión atmosférica en superficie y de la circulación atmosférica en el océano Pacífico ecuatorial. Muchos países se dedican a investigar intensamente este ciclo a causa de sus efectos sobre las condiciones climáticas en el mundo.

Con objeto de profundizar estas investigaciones, centrándose principalmente en América del Sur, el Programa Mundial de Investigaciones Climáticas patrocina un Cursillo internacional sobre ENOA, variabilidad decenal y cambio climático en América del Sur, que se está organizando en Guayaquil (Ecuador), del 12 al 14 de octubre de 2010, en colaboración con el Centro Internacional para la Investigación del Fenómeno El Niño (CIIFEN).

Expertos de todo el mundo abordarán diferentes temas relacionados con el fenómeno, entre los que figuran: la variabilidad decenal natural de los efectos del ENOA, los detalles de las diferencias de pautas de temperaturas de la superficie oceánica entre los diversos episodios de El Niño y la influencia del ENOA sobre el calentamiento de la Tierra, así como la forma en que afecta a los modelos meteorológicos mundiales. Estas investigaciones permitirán recabar una información adicional muy útil para las instancias decisorias de la comunidad en general.

Notas para los editores:

Generalmente, durante los episodios de La Niña, las precipitaciones pluviales aumentan en el oeste del Pacífico ecuatorial, en Indonesia y en Filipinas mientras que casi desaparecen en el este del Pacífico ecuatorial. Se suele observar que, de diciembre a febrero, la zona septentrional de América del Sur y el África meridional experimentan una humedad superior a lo normal, y lo mismo ocurre de junio a agosto en la parte suroriental de Australia. Generalmente, de diciembre a febrero, se observan condiciones más secas de lo habitual a lo largo de la costa de Ecuador, al noroeste de Perú y en la parte oriental del África ecuatorial, y de junio a agosto en la parte meridional de Brasil y central de Argentina.

Los episodios de La Niña también provocan anomalías de temperaturas a escala mundial, y la mayor parte de las regiones afectadas experimentan condiciones inusualmente frías. Por ejemplo, de diciembre a febrero, se observan temperaturas inferiores a lo normal en el África suroriental, Japón, el sur de Alaska y el oeste y centro de Canadá, así como el sureste de Brasil; mientras que de junio a agosto se experimentan condiciones más frías de lo habitual en India y el sureste asiático, a lo largo de la costa occidental de América del Sur, en la región del Golfo de Guinea, y en la zona septentrional de América del Sur y partes de América Central; asimismo, de diciembre a febrero, se observan temperaturas superiores a lo normal a lo largo de la costa del Golfo de los Estados Unidos.

Aunque los episodios de El Niño/La Niña pueden alterar determinadas características climáticas en el mundo entero, sus resultados nunca son exactamente idénticos. Es además importante recordar que, si bien el estado de El Niño o La Niña puede ser el elemento más importante de las evaluaciones de los riesgos climáticos en muchas regiones, también pueden surgir episodios climáticos extremos como consecuencia de las interacciones del océano y la atmósfera fuera del Pacífico tropical. Por lo tanto, para realizar previsiones de la evolución probable del clima, es necesario tener en cuenta tanto los efectos del actual episodio de La Niña como otros factores climáticos específicos localmente importantes.

Durante los próximos meses los especialistas de la predicción climática seguirán facilitando interpretaciones más detalladas de las fluctuaciones del clima regional, que se comunicarán mediante los Servicios Meteorológicos e Hidrológicos Nacionales. Los enlaces para acceder a los sitios web de esos Servicios figuran en la dirección siguiente:
http://www.wmo.int/pages/members/members_en.html

Si desea más información acerca del Cursillo internacional sobre ENOA, variabilidad decenal y cambio climático en América del Sur, sírvase consultar la página web:
www.clivar.org/meetings/enso_2010.php



La Organización Meteorológica Mundial es el portavoz autorizado

de las Naciones Unidas sobre el tiempo, el clima y el agua

martes, 14 de septiembre de 2010

Matemáticas y huracanes


Universidad Autónoma de Barcelona y Agencia EFE
Vía RAM

Un grupo de científicos españoles han constatado que existe una relación matemática entre el número de huracanes que se producen en el planeta y la energía que liberan, lo que les ha llevado a sacar varias conclusiones, entre ellas que el aumento reciente de la actividad en el Atlántico Norte no es diferente al de otros períodos.

El trabajo lo han realizado el investigador del Centro de Investigación Matemática –consorcio de la Generalitat de Cataluña y el Institut d’Estudis Catalans– Álvaro Corral, el estudiante del Grado de Física de la UAB Albert Ossó y el profesor del Departamento de Física de la misma universidad Josep Enric Llebot.

Las conclusiones de este trabajo han visto la luz en la edición digital de la revista Nature Physics y sugieren que nunca será factible hacer predicciones fiables sobre la intensidad de los huracanes (de los ciclones tropicales en general), aunque sí de su trayectoria. Según los investigadores, no es nada nuevo que la probabilidad de que se produzca un gran huracán devastador es menor que la probabilidad de que se produzca uno más modesto, sin embargo la relación exacta entre el número de huracanes que se producen en el planeta y la energía que liberan no se conocía hasta ahora.

Álvaro Corral y sus colegas, han tomado como base para su estudio los datos correspondientes a los ciclones tropicales que han tenido lugar en distintas zonas de la Tierra entre 1945 y 2007. La relación descubierta corresponde a una ley de potencias, una fórmula matemática que los ciclones tropicales “obedecen” con independencia del lugar del planeta y de la época analizada. A partir de este descubrimiento fundamental, los investigadores han llegado a conclusiones más generales sobre el comportamiento de los huracanes, como el hecho de que su dinámica puede corresponder a un proceso crítico que hace imposible predecir su intensidad.

Establecer exactamente la energía que libera cada huracán no es fácil, pero sí una estimación, ya que se conoce la velocidad máxima de los huracanes, a partir de la cual se puede estimar la energía. El número de huracanes es inversamente proporcional a la energía liberada, y “a mayor velocidad, mayor energía”, según Corral. Este científico ha añadido que las velocidades más altas que han estudiado corresponden a los huracanes Camille (1969) y Allen (1980), ambos en el Atlántico, con vientos sostenidos de unos 300 kilómetros por hora, y ha precisado que esta ley, además de una ley fundamental de la física de los huracanes, sirve también para estudiar las propiedades de éstos ante el cambio climático. En este sentido, ha detallado que existe una energía máxima que depende de indicadores climáticos. Así, los años en los que el mar está más caliente, la energía máxima del huracán es más grande (el ciclón tropical para “funcionar” tiene que coger energía del agua caliente del mar). Por lo tanto, la SST (temperatura de la superficie del mar) afecta al máximo de la energía de los huracanes, ha remachado Corral, quien no obstante ha relatado que si se compara con series históricas se sabe que el aumento del número de huracanes registrado en los últimos años en el Atlántico no es una cosa sin precedentes, pues en los años 50 del siglo XX el nivel era parecido.

El hecho de que los huracanes sigan una ley de potencias pone en entredicho la capacidad de predecir la evolución de su intensidad. La forma en que un pequeño temporal evoluciona hasta transformarse en un catastrófico huracán depende de que las fluctuaciones que tienden a amplificar la tempestad dominen sobre las que tienden a disiparlas, pero “no hay razón específica que permita saber cuáles dominarán en un caso o en otro”, según se apunta en este interesante trabajo de investigación.

RAM

jueves, 12 de agosto de 2010

Polvo africano fecunda la Amazonía


Redacción
BBC Mundo


Unos 40 millones de toneladas de polvo son transportadas todos los años por el viento desde el desierto del Sahara hasta la cuenca del Amazonas, cargando con ellas nutrientes que compensan por la pobreza de los suelos amazónicos.

Y un reciente estudio publicado en la revista Geophysical Research Letters encontró que más de la mitad de ese polvo -el que se genera en la región de Bodelé, en la república africana de Chad- es mucho más rico en minerales de lo que se pensaba.

La investigación liderada por Charlie Bristow, de la Universidad de Londres, encontró que la cantidad de fósforo presente en el polvo del Bodelé, por ejemplo, es 38 veces más alta de lo que se pensaba.

Y las nubes también transportan importantes cantidades de hierro, un micronutriente utilizado por las plantas para producir una enzima vital en el proceso de fotosíntesis.

Así, el polvo de una de las regiones más desoladas del planeta le sirve de fertilizante a una de las más exuberantes.

Mil años más

La depresión del Bodelé, considerada la más polvorienta de la tierra, ocupa el lugar de un gigantesco lago, ahora seco.

Y eso explica la relativamente alta cantidad de nutrientes, producto de la descomposición de las conchas de las diatomeas de agua dulce que alguna vez poblaron el cuerpo de agua.

El polvo no es lo suficientemente rico como para ser usado como fertilizante doméstico, aclaró Bristow en el sitio web de la revista Nature.

Pero como la lluvia lava constantemente los nutrientes del suelo del Amazonas, los nutrientes que aporta terminan jugando un rol fundamental para la sobrevivencia de la selva tropical.

Según Nature, si no se producen mayores cambios en la actual tasa de dispersión, hay polvo del Bodelé para otros mil años.

Pero si el cambio climático se traduce en un aumento de lluvias en esta región africana, la selva del el Amazonas -y con ella su capacidad para capturar dióxido de carbono- podría verse afectada.

BBC MUNDO

martes, 10 de agosto de 2010

Barranquilla, entre tormentas y tornados: una aproximación a la comprensión de su formación en la ciudad.


Por Nelson Vásquez Castellar
Observador Meteorológico
Email: nevacas2004@gmail.com


Es normal que en temporadas de lluvia los habitantes de la ciudad de Barranquilla sean testigos de la ocurrencia de espectaculares tormentas eléctricas acompañadas de precipitaciones torrenciales que causan algunos traumatismos en la cotidianidad de esta urbe. No es nada extraño si se tiene en cuenta que la ubicación geográfica en la que se sitúa es propicia para este tipo de formaciones meteorológicas: superávit de energía térmica por la abundante radiación electromagnética proveniente del sol, alta proporción de vapor de agua por ser zona costera, altos niveles de convección (movimientos verticales ascendentes) y evaporación, incidencia de la zona de confluencia intertropical (ZCIT), entre otras; son las principales causas del variado mosaico de fenómenos atmosféricos que la caracterizan. Se podría decir que la teoría científica y los postulados que sustentan la ciencia meteorológica en lo que atañe a los fenómenos de tiempo convectivo en las regiones tropicales, son suficientemente certeros si se mira específicamente el caso de Barranquilla.

Sin embargo, es necesario resaltar que durante los últimos 15 años, aproximadamente, se han hecho presentes, asociados a las ya mencionadas tormentas, otros fenómenos que por su gran capacidad de destrucción y por su amenazante configuración han traído pánico a la población y daños a la infraestructura física de la ciudad y su área metropolitana: los tornados y las trombas. Estos, característicos de latitudes medias (entre la línea imaginaria de los trópicos y los círculos polares de ambos hemisferios), hacen su aparición cada vez con mayor frecuencia en estas zonas, donde teóricamente no deberían presentarse, ante la mirada perpleja de los incrédulos y la impotencia de muchos entendidos para explicar las razones de su formación. Y no es para más, si aún en zonas templadas los meteorólogos tienen ciertas discrepancias alrededor de su génesis; mucho más acá donde el fenómeno es relativamente nuevo.

Como un aporte para la comprensión de los fenómenos reseñados se intentará dar una explicación de cómo de forman y demás situaciones que acompañan su ocurrencia.

Tormentas eléctricas

Imagen 1. Tormenta sobre Barranquilla. Fuente elheraldo.com


-->Aunque existen diferentes clases de tormentas de acuerdo a su mecanismo de formación (de calor, frontales, supercélulas, líneas de inestabilidad, etc.), aquí se tomará como referencia el modelo conceptual de una tormenta ordinaria, tal como es normal que ocurra en esta área del país.
Las tormentas se generan por los desequilibrios térmicos en la atmósfera, como respuesta violenta de la transferencia de calor vertical o convección. Es quizá uno de los meteoros más amenazantes de cuantos se originan en la atmósfera terrestre. El aspecto tenebroso de las nubes que las generan, los llamados cumulonimbos, los rayos y los truenos como elementos fundamentales (si no se producen rayos o relámpagos y truenos, no podemos denominar este fenómeno como tal), además de las torrenciales lluvias y ráfagas de vientos que suelen acompañarlas, son sus rasgos más conocidos.

Para que se forme una tormenta es necesaria la existencia de varios elementos. El primero, gran inestabilidad atmosférica, es decir; abundantes movimientos ascendentes del aire a través de dos mecanismos de transferencia de calor que en esta parte de la costa son bastante significativos: la convección y la evaporación, activados principalmente por la permanente incidencia de la radiación solar sobre la superficie terrestre. El segundo, una gran dosis de humedad, es decir; un gran aporte de vapor de agua; gas más que abundante en Barranquilla producto de la cercanía al mar y al río magdalena, además del gran flujo de calor latente de vaporización aportado por los mismos. El tercero, la disminución de presión atmosférica, la cual potencia aún más los movimientos verticales del aire y por ende la inestabilidad. Y por último, la existencia de partículas higroscópicas sobre las cuales pueda condensarse el vapor de agua contenido en las masas de aire ascendentes. Estas partículas, llamadas también núcleos de condensación, están representadas por los aerosoles suspendidos en la atmósfera o llevados a niveles altos por los vientos o corrientes verticales de aire, tales como humos industriales y naturales, las sales marinas, el polvo, la arena, el polen, entre otros abundantes también en la ciudad dada la importante presencia de empresas industriales, el suelo arenoso, la presencia de aguas salinas y el constante flujo de vientos locales.

Se estima que más de 16 millones de tormentas se forman cada año en el planeta, y es probable que cada hora se estén formando cerca de 2000 en distintas partes de la superficie. Cabe resaltar que su distribución no es uniforme, pues por encima de los 60° de latitud son poco frecuentes, mientras que hacia el ecuador tienden a incrementarse; es reducido su nivel de ocurrencia sobre superficies oceánicas frías o en regiones de alta estabilidad atmosférica, como en áreas anticiclónicas, tal es el caso de Barranquilla en los meses de enero, febrero y parte de marzo, fechas en las cuales predominan los movimientos horizontales (vientos alisios de marcada intensidad) y descendentes del aire en detrimento de los ascensionales. En líneas generales se produce una mayor actividad de tormentas en las áreas continentales que en las oceánicas, y mayor en las zonas ecuatoriales que en las latitudes medias y polares.

En Barranquilla y su área metropolitana ocurren durante las dos temporadas de lluvias que normalmente se presentan. Una en el primer semestre, que abarca los meses de abril, mayo, junio y julio; siendo mayo el mes históricamente más lluvioso y generalmente el de mayor número de tormentas de los cuatro. La otra, en el segundo semestre, desde mediados de agosto a principios de diciembre, teniendo a octubre no solamente como el mes más lluvioso de esa temporada, sino de todo el año según las estadísticas. Es durante la segunda temporada en la que se presenta en mayor número la ocurrencia de tormentas eléctricas, especialmente en los meses de septiembre y octubre. Este régimen bimodal de precipitaciones, aunque con leves diferencias, predomina en los municipios que hacen parte del área metropolitana de la ciudad.

Generalmente estos dos períodos o temporadas de precipitaciones van asociados con el paso por esta región de la Zona de Confluencia Intertropical (ZCIT), la cual es una estrecha banda zonal de gran actividad convectiva que se manifiesta por la vigorosa formación de grandes nubes de desarrollo vertical, señalando así la convergencia de los vientos alisios de noreste y los del sureste.


-->
Imagen 2. Imagen infraroja. Centro nacional de huracanes de EE.UU

La ZCIT se mueve latitudinalmente hacia el hemisferio en el cual es verano, siguiendo el movimiento aparente del sol con algún tiempo de retraso de aproximadamente dos meses. El flujo convergente de vientos unido a la evaporación suministrada por el mar, proveen el calor latente necesario para mantener la convección y el campo de presiones ideales para la formación de tormentas y los fenómenos que se le asocian.

Otro factor que hay que considerar al hablar de tormentas en el caribe son las ondas tropicales del este, frecuentes también en la temporada lluviosa de esta región y en la temporada de huracanes en el océano atlántico, ambas coincidentes en gran medida.

Estas ondas son perturbaciones de tipo ciclónico cuya importancia radica en que durante su paso sobre un lugar producen alteraciones del estado del tiempo con un deterioro progresivo. Aunque estas perturbaciones poco se intensifican, son el primer eslabón en la formación de un huracán. Tienen espesores de 6 a 8 kilómetros, en promedio unos 2000 kilómetros de longitud y se desplazan a velocidades de 15 a 20 k/h. Durante lo que va corrido del año han transitado por la región un número importante de estas ondulaciones, ocasionando la proliferación de tormentas, copiosas lluvias que han elevado los niveles pluviométricos normales para la época y hasta la formación de vórtices nubosos que en algunos días se han convertido en tornados.

Ciclo de v ida de una tormenta

La estructura de una tormenta se compone de uno o varios centros activos denominados células, que tienen un ciclo de vida corto, de media a dos horas, en el que es posible diferenciar tres fases: fase de desarrollo o cúmulo, madurez y disipación, tal como se representa en la figura.


-->
Figura 2. Modelo de ciclo de vida de una tormenta. Fuente: Revista RAM.

Fase de desarrollo o cúmulo: es la fase inicial de desarrollo de una nube convectiva. En esta fase se puede apreciar la formación de un cúmulo de poco desarrollo vertical, tal como es característico en la ciudad y sus alrededores en horas de mediodía y posteriores antes del ocaso. En esta etapa predominan las corrientes ascendentes al interior de la nube con velocidades en su base de 3 a 5 m/s, con un progresivo aumento hacia la cima donde llegan a superar los 10 m/s. La inestabilidad se mantiene debido al continuo aporte de calor latente de condensación que contribuye a dar más energía cinética a las ascendencias, y se mantiene mientras la temperatura al interior de la nube sea superior al del aire que lo rodea. El continuo movimiento vertical propicia el crecimiento de las gotas de agua y las eleva por encima del nivel de 0°C dando paso a la formación de cristales de hielo, la precipitación no se da por la presencia de poderosas ráfagas ascendentes que lo impiden. Desde este instante hasta que alcanza su estado de madurez transcurren alrededor de 15 minutos, en cuyo intervalo pueden crecer hasta los 8000 y 9000 metros de altitud. Es en ese momento cuando observamos una nube oscura de gran extensión que impide el paso de los rayos solares, ocasiona una disminución de temperatura que en ocasiones puede ser de hasta 2°C, e incluso es posible que se produzcan algunas descargas eléctricas y se escuchen los primeros truenos.

Fase de madurez: se inicia con las primeras lluvias y es la de mayor actividad y turbulencia de la tormenta. La nube sigue creciendo verticalmente a velocidades que sobrepasan los 30 m/s, creando imponentes protuberancias de color blanco brillante en la cima, pero de un cada vez más amenazador gris en la base. El peso de las gotas de agua y de las partículas de hielo llega a superar las fuerzas que los mantienen en suspensión y empieza a precipitar torrencialmente con proliferación de truenos y relámpagos, además de corrientes descendentes provocadas por el efecto de arrastre de las gotas de agua. Asociadas a estas corrientes se producen los aguaceros más intensos y la mayor rafagosidad del viento. Es a esa rafagosidad del viento, en ocasiones con velocidades tan significativas que causan destrozos en las viviendas y en la infraestructura de la ciudad, a la que popularmente se le llama vendaval. Las disminuciones de temperatura pueden llegar a 5°C con un consecuente aumento de la presión del orden de 2 a 4 hectopascales provocado por la mayor densidad del aire frío descendente. La nube o célula de tormenta alcanza en esta etapa su mayor altitud (en esta zona se expande hasta los niveles de la tropopausa, es decir, entre 16 o 18 Km. de altitud) y su máxima anchura (unos 8 Km. de diámetro). En niveles altos, los fuertes vientos distorsionan la nube dándole la apariencia de un yunque que se expande varias decenas de kilómetros en el sentido del flujo de vientos dominantes.

Fase de disipación: se caracteriza porque predominan las corrientes descendentes y se interrumpe el suministro de aire calido y húmedo que alimenta a la tormenta. A medida que la célula va perdiendo humedad, van cesando los movimientos ascendentes y entra en fase de desaparición. En ese momento de disipación la precipitación se debilita progresivamente y con ella los movimientos descendentes, con lo cual el cumulonimbo se desvanece, permaneciendo solo los restos de nubes altocúmulos, altostratos y cirrus en niveles altos. En ocasiones los residuos de nubes altostratos producen una llovizna ligera que tiende a perdurar por largas horas luego de cesada la tormenta.

Las tormentas tienden a tener poco tiempo de vida. Las que se presentan en la ciudad a lo suma permanecen por dos horas en las cuales pueden recorrer entre 10 a 20 kilómetros, sobre los cuales se desarrolla, precipita torrencialmente y cesa, dejando en ocasiones el cielo claro mientras el sonido de los truenos y los destellos de los relámpagos desaparecen en el horizonte.

Este panorama, bastante familiar para el habitante de la ciudad y sus alrededores, presenta desde hace algunos años un nuevo elemento: la presencia de vórtices nubosos que han deparado en tornados y trombas en numerosas ocasiones, y que han alarmado a la ciudad por el significativo poder de destrucción del que han hecho participe a la ciudadanía. A continuación se intentará dar una breve explicación de las causas que los propician.

Tornados y trombas

-->Imagen 3. Tornado en la ciudad de Barranquilla. Fuente: elheraldo.com
El tornado es el fenómeno más violento y de mayor capacidad destructiva de los conocidos en el mundo meteorológico. Es un vórtice primario que puede ser definido como una rotación ciclónica en forma de embudo o cono invertido que se extiende desde la base de una nube cumulonimbo (la misma de la cual se producen las tormentas) hasta llegar al suelo. Esta rotación desciende de la base de la nube cuando se desarrolla y retorna a ella cuando se disipa. El estado del tiempo que precede a la formación de un tornado es el mismo que precede a la formación de una tormenta, se podría decir que aquel es un derivado de ésta, razón por la cual ocurren cuando conjuntamente, o tras su paso se dan fuertes lluvias acompañadas de gran actividad eléctrica. El color del embudo es generalmente oscuro o negro a causa de la humedad, el polvo y escombros que son levantados por las fuertes corrientes ascendentes que lo caracterizan.

Los tornados generalmente son de corta duración, su diámetro no sobrepasa normalmente los 100 metros y el viento puede alcanzar hasta 400 Km/h (aunque los supertornados estadounidenses han alcanzado más velocidades), lo que es coherente con su capacidad devastadora. La presión atmosférica en su centro es marcadamente inferior a la de el aire que lo rodea (la diferencia puede llegar a ser hasta más de 100 hectopascales), razón por la cual durante su recorrido alrededor de edificaciones que se encuentren cerradas, éstas explotan en el sentido estricto de la palabra, por la acusada e intempestiva diferencia de presiones entre su interior y el exterior.

El tornado se mueve acorde al movimiento de la nube madre que lo genera, la trayectoria que sigue a menudo es errática. Cuando la rotación no alcanza al suelo, al vórtice se le denomina nube de embudo (funnel cloud) o manga, el nombre de tornado solo lo toma cuando impacta la superficie. Si se da sobre superficie marítima recibe el nombre de tromba marina, ésta por lo general es de menores proporciones que el tornado.

Tipos de tornados


Según la TORRO (Organización de Investigaciones de Tormentas y Tornados del Reino Unido) existen dos tipos de vórtices primarios o tornados: Los tornados supercelulares (ST) y los tornados no supercelulares (NST), dependiendo del tipo de formación convectiva de la que se desprende o se generan. Dentro de los tornados no supercelulares se destacan dos tipos: los Landspouts/Waterspouts y los gustnados.

Los tornados supercelulares (ST) son engendrados por tormentas rotatorias o supercélulas. Son a los que mayor poder destructivo se les atribuye, característicos de latitudes medias debido a que su formación solo se da en zonas de marcado contraste entre masas de aire con características térmicas y barométricas diferentes. A éstos se les asocian el mayor número de muertes en los Estados Unidos por causa de tornados, aunque son los menos frecuentes. No se tienen indicios de que un tornado de estas características haya azotado un área ubicada por debajo de los 20° de latitud. Se pueden identificar por el hecho de que la porción de la bese del cumulonimbo del cual desciende el vórtice (mesociclón) rota al unísono con este.

-->Imagen 4. Tornado supercelular con mesociclón. Fuente: cazatormentas
Los tornados no supercelulares (NST) obedecen a las características de los que se presentan en la ciudad de Barranquilla, son producidos por tormentas que no rotan (no poseen mesociclón). Es el tipo de tornados más comunes y además de presentarse en latitudes medias, también se presentan esporádicamente en zonas tropicales muy localizadas, tal es el caso de esta ciudad. Tienen una vida mucho más corta que los supercelulares y en comparación son mucho más débiles, aunque en ocasiones suelen llegar a tener una capacidad de destrucción capaz de causar daños a las estructuras y cobrar víctimas humanas (el tristemente recordado tornado del 15 de septiembre de 2006 dió a conocer la gran fuerza destructiva que puede llegar a alcanzar este tipo de tornados). Son capaces de desarrollarse en diversas circunstancias y pueden adoptar formas diferentes; no son fáciles de detectar por radar, lo que los hace imposible de pronosticar en nuestro entorno, no solo por las dificultades anexas al fenómeno, sino porque se carece de medios tecnológicos para intentarlo.

Dentro de los dos tipos de tornados no supercelulares que existen, los Landspouts son los que más se ajustan al modelo barranquillero; si descartar que sea probable que algunos eventos atribuidos a las ráfagas de vientos, microrreventones o vendavales que se han dado en el pasado en realidad obedezcan a los denominados Gustnados.

Acorde con la definición que de ellos hacen la revista RAM de España y la TORRO, los Landspouts se forman cuando circulaciones horizontales de aire son embestidas y elevadas hacia arriba por una tormenta en desarrollo. Se observan asociados a cúmulos de gran desarrollo vertical antes de que la precipitación sea visible en el radar. Son bastante visibles y muchos tienen un embudo estrecho o en forma de cuerda que se prolonga de la base de la nube hasta el suelo. Cuando este se desliza por un extenso cuerpo de agua se le denomina waterspout.


-->
Imagen 6. Landspout. Fuente: meteored.com


-->
Imagen 7. Waterspout. Fuente: atlas.snet.gob.sv


Los Gustnados son el tipo de tornados no supercelulares más comunes, este término fue acuñado por los cazatormentas para referirse al desarrollo de vórtices a pequeña escala que se sitúan a lo largo del frente de rachas de una tormenta. Como todos los tornados, se les asocia una peligrosidad potencial tanto para la infraestructura como para las personas. Por lo general no sobrepasan la categoría F1 según la escala Fujita, es decir, alcanzan velocidades hasta de 177 Km/h. Normalmente no presentan embudo u otro tipo de conexión visible con la nube de tormenta, son muy difíciles de identificar, en ocasiones aparecen como un remolino de polvo y desechos.

Por la dificultad de identificarlos y, por ende, de documentarlos, se desconoce si estos se han presentado con regularidad en la ciudad de Barranquilla y su área metropolitana. Sin embargo, se han presentado tantos eventos en donde el poder destructivo de fuertes vientos asociados a tormentas han causado destrozos, los cuales no han sido asociados a los temibles vórtices, que no se descarta que en vez de ser causa de los tradicionales vendavales o rachas de vientos, que azotan a la ciudad en tiempos de inestabilidad atmosférica, sean en realidad los denominados Gustnados.

De ahora en adelante tocará hacer seguimiento para caracterizar los diferentes fenómenos que por estos días impactan la tranquilidad de la ciudad. De ello dependerá el que a futuro se puedan tomar las decisiones de educación, prevención y adaptación de la población a un nuevo escenario de tiempo atmosférico en la región.

Escalas de tornados

Hacia mediados de la década de los 70 del siglo anterior, fue adoptada como herramienta para medir la intensidad de los tornados la escala elaborada por Tetsuya Fujita y Allan Pearson de la Universidad de Chicago, por parte del National Weather Service de los Estados Unidos.

La escala elaborada por Fujita y Pearson se fundamentaba en fusión de otras dos escalas: la escala Beaufort de vientos y la escala Match de velocidad. El metodo utilizado fue dividir la diferencia entre ambas escalas hasta un punto determinado; Match 1.0 (la velocidad del sonido) y Beaufort 12 (73 mph ó Km/h) en 12 categorías o incrementos, de F0 a F12, conocida en nuestros días como la escala Fujita – Pearson o simplemente las escala Fujita. Tal como se aprecia en la figura.


-->
Figura 3. Escala de interrelación que originó la Escala Fujita. Fuente, Wikipedia vía RAM.

De las trece categorías que contiene esta escala, todos los tornados que se han presentado hasta la fecha no sobrepasan las seis primeras (F0 a F5). Junto con cada intervalo de la escala también se describió el tipo de daño causado una vez el tornado pasara por una zona determinada. Ante la dificultad de medirlos en tiempo real, la escala realmente se basa en la destrucción causada por éstos a las infraestructuras y a los elementos naturales y no al tamaño y a la velocidad efectivamente medidas. La categorización se hace luego de la evaluación de los daños causados, una vez se tenga especificado el tipo de daño, este se correlaciona con la tabla y de acuerdo a ello se hace una estimación de la velocidad.

Los daños asociados a los primeros seis intervalos se especifican en la siguiente figura. (pulsa aquí)


--> En la ciudad de Barranquilla la gran mayoría de tornados que han hecho presencia se encuentran ubicados entre las categoría cero (F0) y uno (F1), con excepción del ocurrido el 15 de septiembre de 2006, el cual se ubica en la categoría F2. Situación que guarda relación con el tipo de tornados que se han señalado como propios del tipo de formación convectiva característica de la región.
En algunas ocasiones, por apresuramientos o por escepticismo, se ha exagerado en la nominación y caracterización de los fenómenos ocurridos, o por el contrario, se han subestimado los efectos que estos pueden causar en la población.

Urge tomar medidas ante la manifestación de los tornados como fenómenos ya propios de la ciudad y sus alrededores, su frecuente ocurrencia y su inigualable manifestación, así lo comprueban. El mayor conocimiento que se tenga de éstos en cuanto a frecuencias, tiempos de duración, lugares de manifestación, mecanismos de formación, condiciones, intensidades y formas, conllevará a un fortalecimiento en la toma de decisiones respecto a la prevención y alertas a la ciudadanía. Y además en el establecimiento de planes de fortalecimiento y reubicación de zonas expuestas a los desastres que estos fenómenos pudieran causar.

Ante las discrepancias en torno a la eficiencia y operatividad de la escala Fujita se creó una nueva escala, llamada escala mejorada de Fujita. Además, existe la escala TORRO que se fundamenta también en la escala Beaufort de viento y que ha sido reconocida desde 1975 por Sociedad Meteorológica Real. Se deja como información la descripción de ambas escalas para en una futura entrega correlacionarlas entre sí y junto a la escala Fujita tradicional, en aras de sacar nuevas conclusiones alrededor de los tornados que se originan en la ciudad de Barranquilla y su entorno.
(pulsar aquí)

REFERENCIAS BIBLIOGRÁFICAS

• Cuadrat José María y Pita María Fernanda (2006). CLIMATOLOGÍA. Editorial Cátedra.
• IDEAM (2005). Atlas climatológico de Colombia. Imprenta Nacional de Colombia. ISBN 958-8067-14-6
• Emilio Rey, aka CumulusHumilis, Equipo SSW (www.tiemposevero.es) 2007. La nueva escala mejorada de Fujita.
• Supercell. RAM (2002). Tipos de tornados.
• TORRO - The Tornado & Storm Research Organisation. www.torro.org.uk . Escala TORRO.
• Nelson Vásquez Castellar (2006). Tornados, se encienden las alarmas. www.elobservadorm.blogspot.com
• Joseba Aureitio Piedra. www.divulgameteo.es . Rayos y Tormentas.
• José Jaime Capel Molina (2002). Tormentas y tornados en la península ibérica. Meteoros adversos extremos que le caracterizan. Nimbus, 9 – 10, PAGS 5 -16.
• Augusto T. Arcimis Wehrle. RAM (2003). Tornados y trombas. Centenario de la muerte de Arcimis.



Barranquilla, agosto 10 de 2010.



jueves, 5 de agosto de 2010

Reviviendo el tornado del 15/09/06 en Barranquilla.

Tornados, se encienden las alarmas
Por Nelson Vásquez Castellar
Sept. 20 de 2006



Ya es un hecho frecuente que en la ciudad de Barranquilla y en el municipio de Soledad Atlántico, sobre todo en zonas aledañas al río magdalena, se presenten, cuando las condiciones meteorológicas son propicias, la ocurrencia de fenómenos atmosféricos de gran magnitud que causan desastres y calamidades a la población. Estos fenómenos tradicionalmente denominados vendavales, cada día se hacen más intensos y son más victimas las que cobran; siendo sus manifestaciones más notables las voladuras de techos, el crecimiento sorprendente de las aguas de los arroyos que se entrecruzan a lo largo y ancho de la ciudad, la parálisis del transporte por las principales vías, el cese en algunos casos de las actividades normales de la gente, y en casos extremos, la muerte de personas.

Sin embargo, para la sorpresa de los entendidos en el campo de la física y, sobretodo, de la meteorología, se ha hecho evidente de un tiempo para acá, la ocurrencia de tornados que han despertado el temor, y aún, la curiosidad de la población en general, dada su gran fuerza destructiva y su particular apariencia. Este fenómeno característico de latitudes medias se forma a partir de la base de una nube de gran extensión vertical llamada cumulonimbus, la cual también es la causante de fuertes precipitaciones y tormentas eléctricas, además, hace presencia en las líneas de inestabilidad, en los frentes y en los huracanes. La formación del tornado se evidencia por la presencia de un vortice o remolino de reducida extensión horizontal y de gran intensidad que se prolonga de la nube hacia abajo. Se puede observar a simple vista una nube giratoria en forma de embudo que se extiende desde la base de la nube que le dio origen. Su color puede ser blanco, o gris claro mientras permanece suspendido de la nube madre, pero al hacer contacto con la tierra toma color gris oscuro o negro debido al polvo y escombros que son succionados del suelo. Generalmente es de corta duración, oscilando entre menos de diez minutos y, en los casos más violentos, una hora.

La causa principal de su formación es el fuerte contraste de temperaturas entre dos masas de aire que se encuentran formando un área frontal de reducida extensión y de gran inestabilidad, lo cual acompañado de un descenso de presión atmosférica del orden de 25 milibares y precedido por una elevada temperatura, da inicio a su formación. Su intensidad será mayor en la medida en que la diferencia de temperaturas entre las masas de aire sea más amplia y la reducción de la presión sea más acusada. La acción combinada de la fuerza del viento giratorio que puede sobrepasar los 500 km/h y la diferencia de presión que ejerce en áreas muy localizadas, sumadas a las intensas lluvias y los rayos, pueden llegar a ser devastadores.

Cuando el mismo fenómeno se desplaza sobre una superficie líquida recibe el nombre de tromba. Estas se han presentado en algunas ocasiones en inmediaciones del municipio costero de Puerto Colombia ubicado también en el departamento del Atlántico.

El lo que va corrido del año, el del pasado viernes 15 de septiembre es el cuarto tornado que se presenta en el área señalada, antecediéndolo uno presentado en el corregimiento de Palermo, jurisdicción de Sitio nuevo Magdalena el pasado 26 de agosto, y que dejó aproximadamente 10 casas destechadas, y dos más que igualmente se presentaron en cercanías al río, pero más hacia el lado del municipio de Soledad, causando daños materiales en la mayoría de los barrios aledaños a la arteria fluvial.

Lo que enciende las alarmas para prestar una mayor atención a la ocurrencia de este fenómeno natural, es que se originó en un área neurálgica de la ciudad de Barranquilla, densamente urbanizada y en la que tradicionalmente no habían ocurrido. Pues su corredor o área de desplazamiento normal ha sido siempre la zona aledaña al río magdalena, especialmente el tramo soledeño.

Este tornado ha sido el mayor de todos los registrados hasta el momento, excediendo al ocurrido en el año 2001 en Soledad y que destruyó al barrio Villa Adela. Su tamaño físico fue mayor, así como la amplitud del área devastada. Se calcula que este recorrió aproximadamente 10 kilómetros a lo largo y se desplazó 150 metros a lo ancho en un tiempo de 15 minutos, llevando una velocidad de desplazamiento de 44 kilómetros por hora y categorizandose como tornado de categoría 2 según la escala fujita-pearson (F2), dada la magnitud de los daños ocasionados. Esto quiere decir que la fuerza o intensidad de sus vientos en circulación oscilaron entre 151 y 250 km/h.

Causa sorpresa y a la vez extrañeza, el hecho de que en la ubicación geográfica en la que se encuentra Barranquilla se puedan presentarse este tipo de fenómenos que según los estudios de meteorología solo se presentan en latitudes medias, es decir en la franja que va desde los trópicos (de cáncer en el hemisferio norte y de capricornio en el sur) hasta los círculos polares (ártico en el norte y antártico en el sur); tal es el caso de los tornados que se presentan en los Estados Unidos en los estados de Alabama, Arkansas, Florida, Georgia, Illinois, Indiana, Iowa, Kansas, Louisiana, Mississippi, Missouri, Nebraska, Oklahoma, Dakota del sur y Texas, así como en algunos países sureños como Argentina y Uruguay.

El caso nuestro es un caso especial, el cual debe hacérsele un seguimiento y un estudio detallado para poder prevenir futuros desastres. Cobra igualmente importancia el hecho de educar a la población sobre cuales deben ser las medidas a tomar en caso de la ocurrencia de nuevos tornados, ya que su predicción se dificulta por el momento debido al poco estudio que existe sobre el y la rapidez de su formación.

El riesgo para la ciudad es alto, pues la amenaza del fenómeno, sumado a la vulnerabilidad de la ciudad en materia de prevención y capacidad logística en atención de desastres de las magnitudes en las que puede ocasionar un tornado, así lo da a entender. Urgen medidas eficaces.

Fotografía: El heraldo.com.co

miércoles, 4 de agosto de 2010

Misterioso colapso de la atmósfera superior de la Tierra


Vía NASA

Los científicos están perplejos ante una disminución de la atmósfera superior terrestre más pronunciada de lo esperado, lo cual ocurrió durante el profundo mínimo solar de 2008–2009.

Investigadores, financiados por la NASA, están monitorizando un evento importante en la atmósfera de nuestro planeta. A gran altitud sobre la superficie de la Tierra, en el sitio donde la atmósfera se encuentra con el espacio, una capa de gas enrarecido, llamada "termósfera", colapsó recientemente y está ahora rebotando nuevamente.

"Esta es la contracción más pronunciada de la termósfera en, al menos, 43 años", dice John Emmert, del Laboratorio de Investigación Naval, quien es el autor principal de un artículo que anunció el hallazgo, en la edición del 19 de junio de Geophysical Research Letters (GRL o Cartas de Investigación en Geofísica, en idioma en español). "Esto constituye un récord de la Era Espacial".

El colapso ocurrió durante el profundo mínimo solar que tuvo lugar en 2008–2009 (un hecho que por sí solo no sorprende a los científicos). La termósfera siempre se enfría y se contrae cuando hay poca actividad solar. En esta ocasión, sin embargo, la magnitud del colapso fue de dos a tres veces mayor de lo que podría atribuirse a la baja actividad solar.

"Está ocurriendo algo que no entendemos", dice Emmert.

El rango de altura de la termósfera varía desde los 90 km hasta más allá de los 600 km. Es el dominio de los meteoros, de las auroras y de los satélites que pasan rozando la termósfera en su recorrido alrededor de la Tierra. También es donde la radiación solar hace el primer contacto con nuestro planeta. La termósfera intercepta los fotones del ultravioleta extremo (UVE) del Sol antes de que alcancen el suelo. Cuando la actividad solar es alta, el UVE solar calienta la termósfera, causando de ese modo que se infle como un malvavisco sostenido sobre una fogata. (Este calentamiento puede hacer que las temperaturas suban hasta los 1400 K —de allí el nombre termósfera.) Cuando la actividad solar es baja, ocurre lo opuesto.

Recientemente, la actividad solar ha sido muy baja. En 2008 y 2009, el Sol se adentró en un mínimo solar como los que ocurren solamente una vez cada siglo. Se presentaron pocas manchas solares, casi no se produjeron erupciones solares y la radiación UVE del Sol estuvo en un nivel muy bajo. Los investigadores inmediatamente dirigieron su atención a la termósfera para ver qué ocurriría.

¿Cómo se puede saber qué está ocurriendo en la termósfera?

Emmert emplea una ténica ingeniosa. Debido a que los satélites experimentan arrastre aerodinámico cuando se mueven a través de la termósfera, es posible monitorizar las condiciones que allí imperan observando el decaimiento orbital de los satélites. Él analizó las tasas de decaimiento de más de 5.000 satélites en un rango de altitudes desde los 200 hasta los 600 km y en un período de tiempo que cubre desde 1967 hasta 2010. Esto proporcionó una muestra única, en tiempo y espacio, de la densidad, de la temperatura y de la presión termosféricas, la cual abarca casi toda la Era Espacial. De esta manera, el científico descubrió que el colapso termosférico que tuvo lugar en 2008–2009 fue no solamente más pronunciado de lo que se esperaba, sino también más grande de lo que la actividad solar puede explicar.

Una explicación posible es la presencia de dióxido de carbono (CO2).

Cuando el dióxido de carbono alcanza la termósfera, funciona como un refrigerante, extrayendo calor a través de la radiación infrarroja. Bien se sabe que los niveles de CO2 de la atmósfera terrestre han aumentando recientemente. El CO2 adicional en la termósfera pudo haber incrementado el enfriamiento causado por el mínimo solar.

"Pero los cálculos no concuerdan del todo", dice Emmert. "Incluso si se toma en cuenta el CO2 usando nuestro conocimiento más avanzado acerca de cómo funciona como refrigerante, no podemos explicar completamente el colapso de la termósfera".

Según Emmert y sus colegas, el bajo nivel de UVE solar explica el 30% del colapso. El CO2 adicional explica otro 10%. Esto hace que quede hasta un 60% del tema sin explicación alguna por el momento.

En el artículo publicado en GRL, los autores reconocen que la situación es un tanto complicada. Hay más en juego que meramente el UVE solar y el CO2 terrestre. Por ejemplo, las tendencias climáticas globales podrían cambiar la composición de la termósfera, alterando sus propiedades térmicas y la manera en que responde a estímulos externos. Podría suceder que la sensibilidad de la termósfera a la radiación solar esté aumentando.

"Las anomalías en la densidad", escribieron, "podrían significar que se ha alcanzado un punto crítico climatológico, aún no identificado, ligado a un balance de energía y a procesos químicos".

O quizás no.

Se podrían encontrar pistas importantes en la forma en que la termósfera rebota. El mínimo solar está ahora llegando a su fin, la radiación UVE del Sol está incrementándose y la termósfera está comenzando a hincharse de nuevo. La forma exacta en que esta recuperación ocurra podría revelar la importancia relativa de las contribuciones que provienen de fuentes solares y terrestres.

"Continuaremos monitorizando la situación", dice Emmert.

Para obtener más información, sírvase consultar: Emmert, J. T., J. L. Lean y J. M. Picone (2010), Record–low thermospheric density during the 2008 solar minimum (Densidad termosférica récord durante el mínimo solar de 2008), Geophys. Res. Lett., 37, L12102.

Fuente: NASA

sábado, 24 de julio de 2010

Descubren ley universal de los huracanes


Laura Plitt
BBC Mundo, Medio Ambiente

Un equipo de científicos del Centro de Investigación Matemática y de la Universidad Autónoma de Barcelona, en España, descubrió una ley que explica la relación matemática entre el número de huracanes y la energía que liberan.

Según los investigadores, independientemente de la época del año y de la región del planeta, la relación entre la cantidad de huracanes y el rango energético es la misma, aunque el número varíe si se trata por ejemplo del Océano Atlántico o el Océano Pacífico.

"Si contamos cuántos huracanes hay de cada rango de energía, obtenemos una ley muy sencilla", le explicó a BBC Mundo Álvaro Corral, uno de los principales investigadores que llevó a cabo el estudio.

"En el oeste del Pacífico, por ejemplo, entre 1986 y 2007, ha habido unos 80 ciclones tropicales entre energía uno y dos, otros 80 entre energías dos y cuatro, otros 80 entre ocho y 16 y así sucesivamente hasta llegar a entre 64 y 168", señaló el científico.

Pero la ley tiene un punto de corte: cuando el rango de energía ya es más alto, la ley deja de funcionar y el número de huracanes decrece rápidamente hasta llegar a cero.

Si bien hasta el momento se sabía que las probabilidades de que se produzca un ciclón devastador son menores que de que tengan lugar ciclones menos intensos, los científicos no habían logrado establecer una relación numérica precisa.

Los investigadores formularon la ley después de analizar los datos de los ciclones tropicales ocurridos en diversas regiones del planeta entre 1945 y 2007.

Influencia del cambio climático

El estudio les permitió a los investigadores llegar también a otras conclusiones sobre la dinámica de los huracanes.

La más importante de todas es que, dada la cantidad y complejidad de los factores que intervienen en su desarrollo (como la temperatura superficial del océano, los vientos, las corrientes marinas, la humedad y la rotación de la Tierra, entre otros), resulta imposible predecir su intensidad -mas no su trayectoria-.

"No es que no se pueda predecir su intensidad por un problema técnico o porque hagan falta más datos o mejores modelos. Nuestra investigación sugiere que, quizás, los huracanes son intrínsecamente impredecibles", le dijo Corral a BBC Mundo.

Y en este sentido, Corral cree el estudio puede ayudar a orientar los esfuerzos de los investigadores.

Por otra parte, el descubrimiento del equipo de Barcelona añade nuevos argumentos al debate -altamente controvertido- en torno a la influencia del calentamiento global sobre los huracanes.

El aumento de la temperatura en la superficie de las aguas oceánicas afecta la proporción de ciclones grandes. Sin embargo, a pesar del incremento en la actividad ciclónica en el Atlántico Norte entre 1995 y 2005, si tomamos cada huracán de forma individual, se ve que no han liberado mayor energía cuando se los comparan con otros períodos activos antes de 1970.

"La ley deja de ser válida para los rangos de energía muy altos. Y este valor máximo, depende de la temperatura del mar", dijo Corral.

"Entonces, si los océanos se vuelven más cálidos, habrá huracanes de energías más elevadas", concluyó el investigador.

BBC Mundo

Los desiertos ocupan el 25% de la masa terrestre


Vía ONU

Un cuarto de la masa terrestre, o el equivalente a 3.600 millones de hectáreas, está cubierto por desiertos y el avance de las arenas amenaza la subsistencia de 1.000 millones de personas en el mundo.

Así lo indicó hoy el Programa Mundial de la ONU para el Medio Ambiente (PNUMA) con motivo de conmemorarse el Día Mundial de la Lucha contra la Desertificación.

Para evitar que este proceso continúe, es fundamental la gestión sostenible de las tierras; por eso el tema elegido para este año ha sido “Mejorar los suelos en un lugar, mejora la vida en todas partes”, dijo la directora regional del PNUMA para América Latina y el Caribe, Margarita Astrálaga.

“El mayor problema es el estado de nuestros suelos y nuestras tierras. Y en este caso, tenemos 28% de la superficie de la región que está en estado severo de degradación”, señaló Astrálaga.

Por su parte, el especialista de la FAO sobre tierras y aguas, Jan van Wambeke señaló que, tanto en América Latina como en el resto del mundo, la desertificación se produce por varias causas.

“Que son en particular la deforestación. También el uso inadecuado de los recursos naturales y también la incidencia de los efectos del cambio climático, que es un factor más reciente”, recalcó van Wambeke.

En todo el mundo, se estima que las pérdidas anuales producidas por la desertificación superan los 40 mil millones de dólares.

Fuente: centro de noticias ONU

domingo, 18 de julio de 2010

El Cambio Climático y la importancia de las Matemáticas


Artículo de María del Carmen Gallastegui
Departamento de Fundamentos de Análisis Económico I
Universidad del País Vasco-Euskal Herriko Unibertsitatea
http://www.ehu.es/mcgallastegui

Ha costado mucho esfuerzo y demasiado tiempo convencer a una gran mayoría de personas y de políticos de que, en primer lugar, se está produciendo un efecto importante sobre el clima, un efecto al que se ha venido en denominar Cambio Climático (CC) o, inicialmente, “Efecto Invernadero”. Y todavía más convencer de que, en segundo lugar, existe una influencia antropogénica importante. Existe evidencia que prueba que el cambio en el clima no es un fenómeno exclusivamente natural sino que somos los humanos, con nuestro comportamiento, los causantes de una gran parte de la pérdida de lo que podríamos denominar “un clima estable”. En otras palabras, en el CC existe un claro componente antropogénico.

El logro de estos dos objetivos, la demostración de que efectivamente el clima de la Tierra está cambiando y lo está haciendo en gran medida a causa de nuestro comportamiento, ha sido posible gracias a la ingente tarea investigadora y multidisciplinar de científicos experimentales que abarcan áreas muy amplias. Por citar algunas: la física, la geología, la química, la ingeniería, la meteorología. Los economistas nos hemos incorporado a esta tarea investigadora porque éramos y somos necesarios. Los impactos socioeconómicos de este fenómeno son numerosos y cuantiosos, y, además, creemos tener ideas acerca de qué políticas podrían ser puestas en vigor para intentar que el CC no se convierta en un problema todavía más serio con el paso de los años.

Detrás, o debajo, de todas estas investigaciones se encuentran las matemáticas. Sin ellas, sin su utilización, no hubiera sido posible mucho del trabajo realizado, y desde luego no hubiera sido posible la obtención de la mayoría de los resultados que hoy conocemos, gracias a los cuales nos hemos persuadido de que nuestro modelo de vida ha de alterarse y de que nuestro sistema económico precisa de cambios, y en particular de un cambio en el paradigma energético.

Los científicos experimentales nos han hecho ver con claridad que las emisiones de Gases de Efecto Invernadero (GEI) y, en particular, las emisiones de CO2 a la atmósfera tienen un efecto flujo, y además un efecto stock; que la atmósfera no es capaz de absorber todas las emisiones, y que la acumulación de gases está propiciando un incremento en la temperatura media del Planeta que tendrá, y está teniendo ya, efectos graves en forma de fenómenos naturales con implicaciones sociales, económicas y geopolíticas muy importantes y de gran duración.

Para valorar los efectos que la acumulación de las emisiones está causando, las matemáticas también han jugado un papel fundamental.

Los científicos nos han enseñado, entre otras cosas, que el clima es diferente al tiempo atmosférico. Que hay una relación importante entre las concentraciones de GEI y las temperaturas, y que las concentraciones de GEIs han pasado de 240ppm (partes por millón) a 368 ppm entre 1870 y el año 2000. Según el PICC (Panel Intergubernamental de Cambio Climático), las concentraciones aumentarán hasta las 600-700 ppm para el año 2100 si no se toman serias medidas. Y también nos han enseñado que los principales causantes del efecto invernadero son el Dióxido de Carbono (CO2), el Metano (CH4), el Monóxido de Nitrógeno (N20) y los gases fluorados (SF6, HFC, PCF). El CO2, por ser el más abundante en las emisiones, es el que ocupará mi atención en los párrafos que siguen.

El tipo de contaminación que originamos cuando emitimos CO2 a la atmósfera tiene una característica muy precisa. Es de carácter global y de mezcla perfecta. Esto quiere decir que no importa quién sea el agente emisor o el lugar donde se emita; no importa la fuente de las emisiones, sino que lo que es relevante es el total de las mismas. Lo que emiten los chinos afecta al clima lo mismo que lo que emiten los europeos, los americanos o los asiáticos.

El hecho de que el CC sea un fenómeno global explica que los economistas lo caractericemos como un “mal público”, porque el cambio en el clima de la Tierra satisface las dos propiedades que P. Samuelson (Premio Nobel en Economía recientemente fallecido) impuso a los bienes públicos en contraposición a los privados: la no-rivalidad en el consumo y la no exclusión. También podría interpretarse como un problema de bien público puro global, donde el bien a proveer es un “clima estable”. El clima de la Tierra es no rival (lo que uno disfruta del mismo no agota la cantidad disponible para otros), y tampoco hay posibilidad de exclusión (no puedo disfrutar de un clima diferente a los que disfrutan o sufren los vecinos con los que convivo).

Estas dos características hacen que los países tengan incentivos a comportarse como “viajeros sin billete”: no desean aportar nada ni hacer ningún sacrificio que redunde en la probabilidad de disfrutar de un clima estable pero, sin embargo, pueden capturar los beneficios que se derivan de la acción (mitigación de emisiones, por ejemplo) que otros generan sobre el clima.

Detrás del trabajo de P. Samuelson están las matemáticas. Gracias a ellas pudo modelizar, resolver los modelos y obtener proposiciones y teoremas que nos han servido para entender y explicar lo que está pasando y, por tanto, para saber qué medidas de acción o qué políticas públicas debieran ser puestas en práctica. Además de caracterizar a los bienes públicos, P. Samuelson también nos enseño más cosas. Demostró que cuando los bienes públicos puros se proveen a través del mercado, lo que se produce de los mismos es una cantidad insuficiente; lo que denominamos una infraprovisión. En el caso que estamos considerando, lo que ocurre es que se producirá una emisión excesiva de gases de efecto invernadero y, consecuentemente, una provisión excesivamente pequeña del bien público “clima estable”.

Los economistas nos dimos cuenta, también, igual que otros profesionales, que al constituir el CC un problema global, la búsqueda de soluciones tendría que venir de forma también global. Dicho en otras palabras, que era preciso involucrar a todos los ciudadanos del planeta, y port tanto a los países donde viven, en la búsqueda de una solución necesariamente transnacional. En otros términos, que si queremos resolver el problema del cambio climático la cooperación es imprescindible, y que las alternativas no cooperativas no nos conducirán a soluciones satisfactorias, es decir, a soluciones en las que los costes en que se incurre para mitigar las emisiones son mínimos, o las soluciones propuestas son “coste efectivas”. También aquí, en el trabajo de los economistas, las herramientas matemáticas han sido básicas e imprescindibles.

A lo largo de estos párrafos he afirmado varias veces que las matemáticas son vitales para estudiar, entender, y buscar soluciones al fenómeno del CC que tanto nos preocupa. Me corresponde ahora explicar el porqué de estas afirmaciones tan contundentes.

Comenzaré con una generalidad. Las matemáticas, es sabido, constituyen el lenguaje común de la ciencia, la base sin la cual es imposible el desarrollo científico.

Las matemáticas son un lenguaje universal que se ha expandido de forma impresionante a lo largo del tiempo, y cuyas aplicaciones en la resolución de problemas y en el análisis y explicación de fenómenos de todo tipo son innumerables.

Aún estando de acuerdo con esta afirmación general, alguien puede preguntarse acerca de si también lo son en el análisis y propuestas de solución del problema del cambio climático. Para despejar esas dudas, nada mejor que describir brevemente el trabajo de los distintos científicos involucrados en este fenómeno.

La parte más fácil, como economista, es la que se refiere a los aspectos económicos del CC. He afirmado anteriormente que el CC es un fenómeno que puede caracterizarse como un “mal público” en el sentido de Samuelson, o que también podríamos decir que el Clima de la Tierra (CT) es “un bien público de naturaleza global”. Además, como las emisiones que provocan el cambio climático tienen un efecto stock, la aproximación al problema no puede ser estática, sino que requiere de una aproximación intertemporal. El stock de gases acumulado en la atmósfera pervive durante años, lo que obliga a que los modelos utilizados tengan que tener una estructura dinámica.

Cuando Samuelson desarrolló su teoría acerca de los bienes públicos lo hizo utilizando las matemáticas, y más concretamente las técnicas de optimización. Quería demostrar que las condiciones que se tenían que cumplir para saber cuál es la cantidad “eficiente” de un bien público no coinciden con las condiciones de eficiencia que se satisfacen en el caso de bienes privados. Tuvo que plantear una función de bienestar social, maximizar esa función y obtener una condición que es, en la actualidad, algo que se explica en los cursos de economía y que puede visualizarse y demostrarse de forma muy sencilla con un simple manejo de las condiciones necesarias del problema de maximización.

Pero la economía necesita también de las matemáticas para resolver otros problemas inherentes al CC. Los efectos de las emisiones de CO2 se mantienen en la atmósfera durante mucho tiempo. Si esto es así, cualquier acción o política que pongamos en marcha para mitigar emisiones (pensemos en la utilización de fuentes de energía renovables en lugar de utilizar combustibles fósiles), tiene que tener en cuenta los efectos que la política ocasiona no sólo en el presente, sino también en todos los períodos futuros relevantes. Esto plantea un problema, porque los individuos no valoramos el presente y el futuro de la misma forma. De hecho, normalmente somos personas impacientes. Preferimos disfrutar de las cosas hoy mejor que mañana, lo que equivale a decir que si tenemos que tener en cuenta todos los beneficios y los costes generados por un cambio de política dirigido, por ejemplo, a mitigar emisiones de CO2, hemos de usar factores de descuento para poder transformar los valores del futuro en valores presentes. De nuevo, son las matemáticas las que vienen en nuestra ayuda: el cálculo de los valores presentes, si el problema se plantea en términos continuos, lo resolvemos a través de la utilización de funciones exponenciales, y la suma de las funciones de bienestar social para todos los períodos considerados la resolvemos utilizando integrales.

La programación dinámica y la teoría de los juegos son otros ejemplos básicos de cómo las matemáticas son imprescindibles para que los economistas podamos modelizar, definir y obtener conclusiones acerca de cómo deberían ser las sendas a seguir por las variables económicas y por las otras variables relevantes (emisiones de CO2), si pretendemos que el clima de la Tierra no experimente una variación que dé lugar a fenómenos climatológicos extremos.

Si esto es cierto para los economistas, imaginemos el papel que juegan las matemáticas en las predicciones que llevan a cabo los meteorólogos. Ellos nos están diciendo cuánto y cuándo se van a producir cambios en las temperaturas medias del planeta. Ellos son los que nos explican que si seguimos con concentraciones de emisiones superiores a las 450ppm (partes por millón), la temperatura media superará los 2º centígrados en plazos relativamente breves de tiempo. Pero para llegar a estas conclusiones los meteorólogos precisan utilizar modelos matemáticos muy sofisticados, modelos complejos donde tienen que incluir relaciones entre múltiples variables, y donde las ecuaciones han de reflejar innumerables interdependencias. Y todo ello en un contexto donde la incertidumbre juega un papel crucial, y donde las relaciones no son lineales.

Y ¿qué decir del trabajo de los físicos, de los biólogos, de los geólogos, de los químicos? ¿Podemos concebir el trabajo de estos científicos sin que planteen hipótesis, las contrasten, las prueben en los laboratorios y las formulen de forma matemática para ver sus implicaciones?

Por algo decía antes que las matemáticas constituyen el lenguaje común de la ciencia. Sin ellas no podríamos entendernos, no sabríamos de qué estamos hablando cada cual. Desde luego, en trabajos multidisciplinares, como lo es el problema del CC, las matemáticas resultan ser imprescindibles.

Se precisa de las matemáticas para modelizar los efectos de las emisiones en la atmósfera, para modelizar los efectos de las emisiones sobre las temperaturas, para distinguir los efectos entre zonas costeras e interiores, entre continentes, entre fenómenos meteorológicos y también, como he tratado de explicar, para poder evaluar las consecuencias, por ejemplo, sobre el Producto Interior Bruto (PIB), de los efectos de los cambios en el clima; para calcular cuánto nos costará mitigar y adaptarnos a los daños que el CC acarreará en el inmediato futuro; para predecir cuánto nos costará reducir las emisiones para el 2010, el 2020 o el 2050 o, incluso, para determinar si técnicas como la de Captura o Secuestro del Carbono serán o no rentables, dependiendo de cuál sea el coste que los gobiernos impongan por utilizar combustibles fósiles a la hora de generar energía.

A los que nos interesan los problemas ambientales en general, y en particular los generados por el CC, somos muy conscientes de que sin las matemáticas, y sin los matemáticos que las desarrollan y permiten que las herramientas sean cada vez más potentes, muchas de las evidencias de las que hoy disponemos no existirían, muchas de las certezas que hoy tenemos serían meras especulaciones, y serían imposibles los estudios sobre adaptación al CC así como los análisis sobre cuáles deberían de ser las cuotas de emisiones permitidas a los distintos sectores para evitar que las futuras generaciones hereden un grave problema generado por nuestra incapacidad para adoptar, a tiempo, medidas que abarquen a la mayoría de los países del Planeta Tierra.

Tampoco sabríamos ni siquiera cómo comenzar a computar de forma aproximada los costes que la mitigación de las emisiones nos va a ocasionar, así como la comparación de estos costes con los que se producirían en un contexto de no acción. Para estos cálculos se han desarrollado modelos de equilibrio general dinámicos y modelos de dinámica de sistemas que precisan de desarrollos matemáticos y que permiten modelizar los distintos sectores que componen la economía, en particular el sector energético, con toda la complejidad que éste comporta.

En resumen, el Cambio Climático, al constituir un fenómeno multidisciplinar, global y en el que el riesgo y la incertidumbre están presentes, no podría ser abordado sin la concurrencia de los matemáticas. Los párrafos anteriores han citado algunos ejemplos que sirven para ilustrar esta realidad. Que conste que no son los únicos.

Fuente: MATEMATICALIA, Revista digital de divulgación matemática