sábado, 4 de enero de 2025

Envolturas de la temporalidad

 



Ninguna tecnología (ninguna innovación, de hecho ninguna acción humana por sí sola) es capaz de perdurar y producir efectos notorios, acaso siquiera llegar a funcionar, sin envolturas. Llamamos así al entorno material, técnico, tal vez social, que hace que esa tecnología prospere, se entrevere con los demás componentes del nicho técnico y cultural y genere transformaciones. Tipos de envolturas diferentes harán que las trayectorias tecnológicas se orienten en direcciones.

Las envolturas son las que permiten que las bases materiales de la cultura den lugar a transformaciones en lo espacial, temporal y cultural de las sociedades. Veremos numerosos ejemplos a lo largo del curso. Pensemos en la interacción entre los cereales y la arcilla: los forrajeadores, cazadores y recolectores, podían dirigirse a un campo y recoger las hierbas de mijo, cebada o trigo salvaje bien arrancándolas, bien cortándolas con una hoz, tal vez de sílex o bronce. Esas espigas tal vez ya no dejaban caer semillas en el suelo y los cazadores comenzaron a usar una parte de los granos para sembrar en campos apropiados. La fabricación de vasijas grandes de barro cocido abrió la posibilidad de almacenaje para el futuro. Así el tiempo en futuro se insertó en el acto de recolectar y creó la disponibilidad de un excedente que tal vez fue instrumento de intercambio por objetos valiosos de otros grupos: cuentas, ornamentos, animales, herramientas de metal tal vez. O quizás algunos grupos aprovecharon para ocultar excedentes y en tiempo de escasez crear deudas de alimentos, pues no los repartían, de modo que se fue produciendo una jerarquía, que en algún momento comenzó a ser violenta y el almacenaje se comenzó a realizar mediante impuestos. Muchas posibles trayectorias que dependen de cómo se entrelacen los materiales, las prácticas, los espacios y tiempos y, por supuesto, los artefactos imaginados y realizados y, en general, las técnicas y tecnologías.

Googleemos “best post apocalyptic novels” o “best post apocalyptic movies”.  Innumerables páginas nos convencen de la imaginación post apocalíptica ha sido muy productiva en una era de ansiedad ecológica. Como la pregunta “¿qué te llevarías a una isla desierta?”, estos escenarios de desolación tejen preguntas sobre lo material con el valor y el sentido: ¿qué queda cuando no queda nada? ¿Cómo deben vivir los supervivientes? ¿Qué significaban nuestro arte, nuestra ciencia o nuestra civilización? ¿Significaron algo?

Nos importa en especial el tipo de envolturas que delimitan los sentidos de la temporalidad: la envoltura de la socialidad en la que la muerte fue parte de la vida del grupo; la envoltura de los primitivos dispositivos de orientación hacia el sol y las estrellas, que amplió el tiempo a los ciclos anuales y permitió prever la cercanía de las estaciones. Envolturas que transforman la experiencia de lo temporal. Estos sensores del tiempo afectan al cuerpo y a la vida social. Consisten en ensamblamientos híbridos de prácticas, instrumentos y creencias. Generan marcos donde ubicar tanto la propia vida como la de la comunidad y la sociedad. El caso más conocido: el reloj y el tiempo del capitalismo. Un capitalismo primero podría contratar el trabajo por obra, pero no un capitalismo industrial donde el producto final es un híbrido de personas y máquinas El único modo de distinguir el capital constante ( máquinas) del capital variable (trabajo aasalariado) es mediante un equivalente universal que solamente puede ser contabilizado por el reloj mecánico.  Envolturas que se hacen más estrechas cuando el reloj te incorpora al cuerpo y construye ritmos corporales nuevas (horarios que rigen la vida cotidiana)

He aquí un ejemplo de envoltura estudiado por el teórico de las relaciones entre cultura y entorno técnico Stephen Kern. Se refiere a técnicas de predicción del tiempo, tan centrales en la sociedad contemporánea:

 

Stephen Kern (2013) Time and Space in the Era of Internet

Los meteorólogos evalúan las previsiones meteorológicas en términos de precisión, amplitud espacial y alcance temporal. Una previsión adecuada integra datos sobre la temperatura del aire, la presión atmosférica, la humedad, la velocidad y la dirección del viento en una amplia zona para múltiples capas de la atmósfera, desde la superficie terrestre hasta siete millas. Una previsión completa también debe incluir el impacto de las nubes, la gravedad, los contornos terrestres, los contornos urbanos, las temperaturas oceánicas, la humedad del suelo, la capa de hielo, la capa de nieve, la posición de la luna, la corriente en chorro, los eventos solares, la rotación de la tierra, la reflectancia y la magnetosfera. También debe incluir los niveles de contaminación, ozono, metano, óxido nitroso y dióxido de carbono. También debe calcular cuánta radiación absorbe, refleja y transfiere la atmósfera desde cada uno de los diferentes gases y sólidos que la componen en cada nivel vertical y posición horizontal. Para obtener estos datos masivos, los meteorólogos utilizan anemómetros, termómetros, barómetros, higrómetros, veletas, boyas, radares, satélites, estaciones meteorológicas, aviones cazahuracanes, globos meteorológicos, drones aéreos, drones de vela, radiosondas (que flotan hacia arriba) y dropsondas (que caen hacia abajo). También necesitan ciertos conocimientos de astronomía, termodinámica, teoría del caos y modelos informáticos para procesar estos datos una vez estandarizados a escala regional y nacional. Para comunicar las previsiones, utilizan la prensa, el teléfono, la radio, la televisión e Internet, así como organizaciones meteorológicas regionales, nacionales e internacionales. Un breve esbozo de algunos avances en la previsión pone de relieve el extraordinario progreso de esta función. Los meteorólogos victorianos disponían de termómetros, barómetros, higrómetros y, después de la década de 1830, telégrafos eléctricos para transmitir las predicciones meteorológicas, pero sin datos masivos y estandarizados ni ordenadores para cotejarlos, las predicciones seguían siendo locales, a corto plazo y poco fiables. Los agricultores de aquella época no tenían más información meteorológica a largo plazo que los anuarios astronómicos basados en los partes meteorológicos de años anteriores o los almanaques basados en «fórmulas secretas» aún más dudosas, y para las predicciones a más corto plazo sólo contaban con la presión barométrica, los truenos y mirar al cielo. Durante la Primera Guerra Mundial, cuando el tiempo era crucial para el fuego de artillería, el reconocimiento aéreo, las cortinas de humo y la liberación de gas venenoso, la meteorología estaba lo suficientemente avanzada como para predecir las condiciones actuales con termómetros, barómetros, dirigibles, anemómetros e higrómetros rudimentarios para las condiciones meteorológicas en tierra, junto con meteorógrafos fijados a cometas o globos para las condiciones en altura, aunque se carecía de una recuperación rápida de esos datos. En 1917, el investigador noruego Vilhelm Bjerknes fue capaz de rastrear la temperatura, la presión y la humedad para predecir tormentas a lo largo de los «frentes», llamados así por los hombres que luchaban en las trincheras. Ese mismo año, el matemático inglés Lewis Richardson desarrolló un complicado modelo de predicción meteorológica, que desarrolló en Weather Prediction by Numerical Process (1922), pero sin ordenadores, el método era lento e inexacto. Tardaba seis semanas en calcular una predicción de seis horas para un solo lugar basándose en datos recogidos semanas antes. En el centro de cálculo ideal que propuso, 64.000 ordenadores humanos resolverían las ecuaciones diferenciales de varias capas de la atmósfera en una sala cuyas paredes, suelo y techo estaban pintados para formar un mapa del globo. En el centro, un director coordinaría el ritmo de cálculo iluminando con una luz las zonas que debían acelerarse o ralentizarse.7 Este esbozo de un método inviable esbozó los rudimentos de los centros meteorológicos que décadas más tarde coordinarían el trabajo de los ordenadores electrónicos y lo harían con mucha más precisión en una fracción de segundo lo que a Richardson le llevó seis semanas. Durante la guerra, los meteorólogos estadounidenses utilizaron una técnica de previsión rudimentaria: trazar los datos actuales, encontrar un mapa meteorológico pasado que se pareciera a esos datos, ver cómo evolucionaba la situación pasada y basar la previsión en ese patrón anterior.

Durante la Primera Guerra Mundial, cuando el tiempo era crucial para el fuego de artillería, el reconocimiento aéreo, las cortinas de humo y la liberación de gas venenoso, la meteorología estaba lo suficientemente avanzada como para predecir las condiciones actuales con termómetros, barómetros, dirigibles, anemómetros e higrómetros rudimentarios para las condiciones meteorológicas en tierra, junto con meteorógrafos fijados a cometas o globos para las condiciones en altura, aunque se carecía de una recuperación rápida de esos datos. En 1917, el investigador noruego Vilhelm Bjerknes fue capaz de rastrear la temperatura, la presión y la humedad para predecir tormentas a lo largo de los «frentes», llamados así por los hombres que luchaban en las trincheras. Ese mismo año, el matemático inglés Lewis Richardson desarrolló un complicado modelo de previsión meteorológica, que desarrolló en Weather Prediction by Numerical Process (1922), pero sin ordenadores, el método era lento e inexacto. Tardaba seis semanas en calcular una previsión de seis horas para un solo lugar basándose en datos recogidos semanas antes. En el centro de cálculo ideal que propuso, 64.000 ordenadores humanos resolverían las ecuaciones diferenciales de varias capas de la atmósfera en una sala cuyas paredes, suelo y techo estaban pintados para formar un mapa del globo. En el centro, un director coordinaría el ritmo de cálculo iluminando con una luz las zonas que debían acelerarse o ralentizarse. Este esbozo de un método inviable esbozó los rudimentos de los centros meteorológicos que décadas más tarde coordinarían el trabajo de los ordenadores electrónicos y lo harían con mucha más precisión en una fracción de segundo lo que a Richardson le llevó seis semanas. Durante la guerra, los meteorólogos estadounidenses utilizaron una técnica de previsión rudimentaria: trazar los datos actuales, encontrar un mapa meteorológico anterior que se pareciera a esos datos, ver cómo evolucionaba la situación en el pasado y basar la previsión en ese patrón anterior.8 Durante la Segunda Guerra Mundial, los aviones se encontraron por primera vez con la corriente en chorro y los meteorólogos determinaron que los flujos de aire superiores controlan el tiempo a nivel del suelo. Utilizaron el radar para rastrear los aviones, pero no el tiempo. La predicción más famosa fue la de la invasión de Normandía el 6 de junio de 1944. Los Aliados necesitaban luna llena para los bombardeos aéreos y marea baja para dejar al descubierto las defensas submarinas alemanas, condiciones que sólo se darían durante tres días a partir del 5 de junio. Los meteorólogos estadounidenses, utilizando su poco fiable método analógico de comparar el tiempo actual con los patrones de años anteriores, recomendaron el 5 de junio, que, debido a una tormenta sobre el Canal de la Mancha, habría sido un desastre. El 4 de junio, pocas horas antes del lanzamiento de las operaciones del Día D, el equipo británico, utilizando métodos más actuales, instó a retrasarlo al 6 de junio, y el General Eisenhower estuvo de acuerdo. En los años siguientes, las nuevas tecnologías revolucionaron las previsiones meteorológicas, que se hicieron cada vez más detalladas, de largo alcance y precisas. En 1950, el meteorólogo estadounidense Jule Charney ejecutó una serie de algoritmos meteorológicos a través del Integrador Numérico Electrónico y Computador (ENIAC) para producir el primer pronóstico computarizado de un período de 24 horas, que tardó 24 horas en completarse. Los modelos computarizados, utilizados por primera vez para pronósticos regionales en 1954, cambiaron a modelos hemisféricos a principios de la década de 1960 y luego a modelos globales en 1970. Uno de los primeros modelos importantes fue el del Centro Europeo de Predicción Meteorológica a Medio Plazo, que contaba con 22 países miembros cuando se introdujo en 1979. Originalmente, contaba con 15 niveles verticales de recopilación de datos. En 2012, el modelo se amplió a 137 niveles y procesaba más de 300 millones de puntos de datos de observación al día, procedentes de satélites, radares, boyas, aviones, barcos y globos meteorológicos. Desde entonces, los modelos informáticos han aumentado el área cubierta, el número de niveles verticales, la resolución de sus resultados, el alcance temporal y la velocidad de funcionamiento. El Global Forecasting System estadounidense, introducido en 2000, cubría todo el globo, funcionaba 4 veces al día y tenía un alcance de previsión de 16 días y versiones específicas para el aire, el océano, la tierra y el hielo marino. En el Reino Unido, la velocidad de cálculo de los superordenadores de la Met Office pasó de 30.000 cálculos por segundo en la década de 1950 a 200 millones de cálculos por segundo a principios de la década de 1980. En 2014, los ordenadores podían realizar más de 10.000 billones de cálculos por segundo.

El 90% de los datos de previsión meteorológica proceden de satélites. En 1960, Estados Unidos puso en órbita el primer satélite meteorológico del mundo, que enviaba 4.000 imágenes a la semana antes de enmudecer tras varias semanas. En la década de 1970, la NASA desarrolló satélites para el seguimiento de tormentas severas que se colocaron en órbitas geosincrónicas. El primer Satélite Ambiental Operacional Geoestacionario (GOES-1) se puso en órbita en 1975 para apoyar el seguimiento y la previsión de tormentas. En 1980, el GOES-4 fue el primero en proporcionar perfiles verticales continuos de la temperatura y la humedad de la atmósfera que sirvieron de apoyo a las previsiones a corto plazo (aproximadamente 12 horas) y a las «nowcasts» de tormentas en curso. El público estadounidense pudo seguir la trayectoria del huracán Katrina en 2005, varios días antes de que tocara tierra, gracias a las impresionantes imágenes tomadas por el satélite GOES-12, que proporcionó un seguimiento continuo aumentado por imágenes de aviones de huracanes, impresiones de modelos informáticos e informes resumidos de meteorólogos. Aunque los errores en esas previsiones provocaron indignación en los meses y años siguientes, el huracán se convirtió en un icono para todo el país, fascinado por un acontecimiento meteorológico que la tecnología de previsión era capaz de televisar tan vívidamente, por muy erróneas que hubieran sido las previsiones. Una de las lecciones de aquella tormenta, y de nuevo de la supertormenta Sandy en 2012, fue que, además de la velocidad del viento, la trayectoria de la tormenta y las precipitaciones, los meteorólogos necesitaban mejores métodos para predecir la marejada, que durante Sandy superó las barreras de protección, astilló paseos marítimos e inundó líneas de metro. En 2016, el satélite meteorológico más reciente, el GOES-R, entró en órbita con 16 longitudes de onda diferentes, desde el visible al infrarrojo. Con una velocidad cinco veces superior a la del satélite actual, podía escanear todo el hemisferio occidental en 5 minutos y cambiar a escaneos rápidos regionales cada 30 segundos, frente a la velocidad del satélite anterior de cada 7 minutos. Al cuadruplicar la resolución del satélite, mejoró la comprensión del poder radiativo y la localización más precisa de los incendios forestales, así como el papel de las nubes en el calentamiento y enfriamiento del planeta. Su mapeador geoestacionario de rayos tomó 500 imágenes por segundo para ayudar a determinar el origen y el alcance de los rayos y si los impactos se producen en las nubes, de nube a nube o de nube a tierra, información que añadió minutos de tiempo de alerta para tornados y tormentas graves. En una historia de la predicción meteorológica de 2008, Peter Lynch llegó a la conclusión de que se ha producido «un aumento de un día por década en la capacidad de previsión» desde la introducción de la modelización informática en los últimos 50 años.17 Dicho de otro modo, las previsiones actuales a 5 días tienen la precisión de las previsiones a 1 día de hace 50 años. Los nuevos modelos informáticos, los instrumentos de radar y los satélites han ampliado el alcance temporal y la precisión de las previsiones meteorológicas y han cambiado las orientaciones al respecto, que han pasado de la espera pasiva y la impotencia a una expectativa más activa y una preparación más útil.

Kern, Stephen. Time and Space in the Internet Age  Londres: Routledga, pp. 82-85).




No hay comentarios:

Publicar un comentario