Ninguna tecnología (ninguna innovación, de hecho ninguna
acción humana por sí sola) es capaz de perdurar y producir efectos notorios,
acaso siquiera llegar a funcionar, sin envolturas. Llamamos así al entorno
material, técnico, tal vez social, que hace que esa tecnología prospere, se
entrevere con los demás componentes del nicho técnico y cultural y genere
transformaciones. Tipos de envolturas diferentes harán que las trayectorias
tecnológicas se orienten en direcciones.
Las envolturas son las que permiten que las bases materiales
de la cultura den lugar a transformaciones en lo espacial, temporal y cultural
de las sociedades. Veremos numerosos ejemplos a lo largo del curso. Pensemos en
la interacción entre los cereales y la arcilla: los forrajeadores, cazadores y
recolectores, podían dirigirse a un campo y recoger las hierbas de mijo, cebada
o trigo salvaje bien arrancándolas, bien cortándolas con una hoz, tal vez de
sílex o bronce. Esas espigas tal vez ya no dejaban caer semillas en el suelo y
los cazadores comenzaron a usar una parte de los granos para sembrar en campos
apropiados. La fabricación de vasijas grandes de barro cocido abrió la
posibilidad de almacenaje para el futuro. Así el tiempo en futuro se insertó en
el acto de recolectar y creó la disponibilidad de un excedente que tal vez fue
instrumento de intercambio por objetos valiosos de otros grupos: cuentas,
ornamentos, animales, herramientas de metal tal vez. O quizás algunos grupos
aprovecharon para ocultar excedentes y en tiempo de escasez crear deudas de
alimentos, pues no los repartían, de modo que se fue produciendo una jerarquía,
que en algún momento comenzó a ser violenta y el almacenaje se comenzó a
realizar mediante impuestos. Muchas posibles trayectorias que dependen de cómo
se entrelacen los materiales, las prácticas, los espacios y tiempos y, por
supuesto, los artefactos imaginados y realizados y, en general, las técnicas y
tecnologías.
Googleemos
“best post apocalyptic novels” o “best post apocalyptic movies”. Innumerables páginas nos convencen de la
imaginación post apocalíptica ha sido muy productiva en una era de ansiedad
ecológica. Como la pregunta “¿qué te llevarías a una isla desierta?”, estos
escenarios de desolación tejen preguntas sobre lo material con el valor y el
sentido: ¿qué queda cuando no queda nada? ¿Cómo deben vivir los supervivientes?
¿Qué significaban nuestro arte, nuestra ciencia o nuestra civilización?
¿Significaron algo?
Nos importa en especial el tipo de envolturas
que delimitan los sentidos de la temporalidad: la envoltura de la socialidad en
la que la muerte fue parte de la vida del grupo; la envoltura de los primitivos
dispositivos de orientación hacia el sol y las estrellas, que amplió el tiempo
a los ciclos anuales y permitió prever la cercanía de las estaciones.
Envolturas que transforman la experiencia de lo temporal. Estos sensores del
tiempo afectan al cuerpo y a la vida social. Consisten en ensamblamientos
híbridos de prácticas, instrumentos y creencias. Generan marcos donde ubicar
tanto la propia vida como la de la comunidad y la sociedad. El caso más conocido: el reloj y el tiempo del
capitalismo. Un capitalismo primero podría contratar el trabajo por obra, pero no un
capitalismo industrial donde el producto final es un híbrido de personas y máquinas El único modo de distinguir el capital constante (
máquinas)
del capital variable (trabajo aasalariado) es mediante un equivalente universal
que solamente puede ser contabilizado por el reloj mecánico. Envolturas que se hacen más estrechas cuando el
reloj te incorpora al cuerpo y construye ritmos corporales nuevas (horarios que
rigen la vida cotidiana)
He
aquí un ejemplo de envoltura estudiado por el teórico de las relaciones entre
cultura y entorno técnico Stephen Kern. Se refiere a técnicas de predicción del
tiempo, tan centrales en la sociedad contemporánea:
Stephen Kern (2013) Time and Space in the Era of
Internet
Los meteorólogos evalúan
las previsiones meteorológicas en términos de precisión, amplitud espacial y
alcance temporal. Una previsión adecuada integra datos sobre la temperatura del
aire, la presión atmosférica, la humedad, la velocidad y la dirección del
viento en una amplia zona para múltiples capas de la atmósfera, desde la
superficie terrestre hasta siete millas. Una previsión completa también debe
incluir el impacto de las nubes, la gravedad, los contornos terrestres, los
contornos urbanos, las temperaturas oceánicas, la humedad del suelo, la capa de
hielo, la capa de nieve, la posición de la luna, la corriente en chorro, los
eventos solares, la rotación de la tierra, la reflectancia y la magnetosfera.
También debe incluir los niveles de contaminación, ozono, metano, óxido nitroso
y dióxido de carbono. También debe calcular cuánta radiación absorbe, refleja y
transfiere la atmósfera desde cada uno de los diferentes gases y sólidos que la
componen en cada nivel vertical y posición horizontal. Para obtener estos datos
masivos, los meteorólogos utilizan anemómetros, termómetros, barómetros,
higrómetros, veletas, boyas, radares, satélites, estaciones meteorológicas,
aviones cazahuracanes, globos meteorológicos, drones aéreos, drones de vela,
radiosondas (que flotan hacia arriba) y dropsondas (que caen hacia abajo).
También necesitan ciertos conocimientos de astronomía, termodinámica, teoría
del caos y modelos informáticos para procesar estos datos una vez
estandarizados a escala regional y nacional. Para comunicar las previsiones,
utilizan la prensa, el teléfono, la radio, la televisión e Internet, así como
organizaciones meteorológicas regionales, nacionales e internacionales. Un
breve esbozo de algunos avances en la previsión pone de relieve el extraordinario
progreso de esta función. Los meteorólogos victorianos disponían de
termómetros, barómetros, higrómetros y, después de la década de 1830,
telégrafos eléctricos para transmitir las predicciones meteorológicas, pero sin
datos masivos y estandarizados ni ordenadores para cotejarlos, las predicciones
seguían siendo locales, a corto plazo y poco fiables. Los agricultores de
aquella época no tenían más información meteorológica a largo plazo que los
anuarios astronómicos basados en los partes meteorológicos de años anteriores o
los almanaques basados en «fórmulas secretas» aún más dudosas, y para las
predicciones a más corto plazo sólo contaban con la presión barométrica, los
truenos y mirar al cielo. Durante la Primera Guerra Mundial, cuando el tiempo
era crucial para el fuego de artillería, el reconocimiento aéreo, las cortinas
de humo y la liberación de gas venenoso, la meteorología estaba lo
suficientemente avanzada como para predecir las condiciones actuales con
termómetros, barómetros, dirigibles, anemómetros e higrómetros rudimentarios
para las condiciones meteorológicas en tierra, junto con meteorógrafos
fijados a cometas o globos para las condiciones en altura, aunque se carecía de
una recuperación rápida de esos datos. En 1917, el investigador noruego Vilhelm
Bjerknes fue capaz de rastrear la temperatura, la presión y la humedad para
predecir tormentas a lo largo de los «frentes», llamados así por los hombres
que luchaban en las trincheras. Ese mismo año, el matemático inglés Lewis
Richardson desarrolló un complicado modelo de predicción meteorológica, que
desarrolló en Weather Prediction by Numerical Process (1922), pero sin
ordenadores, el método era lento e inexacto. Tardaba seis semanas en calcular
una predicción de seis horas para un solo lugar basándose en datos recogidos
semanas antes. En el centro de cálculo ideal que propuso, 64.000 ordenadores
humanos resolverían las ecuaciones diferenciales de varias capas de la
atmósfera en una sala cuyas paredes, suelo y techo estaban pintados para formar
un mapa del globo. En el centro, un director coordinaría el ritmo de cálculo
iluminando con una luz las zonas que debían acelerarse o ralentizarse.7 Este
esbozo de un método inviable esbozó los rudimentos de los centros
meteorológicos que décadas más tarde coordinarían el trabajo de los ordenadores
electrónicos y lo harían con mucha más precisión en una fracción de segundo lo
que a Richardson le llevó seis semanas. Durante la guerra, los meteorólogos
estadounidenses utilizaron una técnica de previsión rudimentaria: trazar los
datos actuales, encontrar un mapa meteorológico pasado que se pareciera a esos
datos, ver cómo evolucionaba la situación pasada y basar la previsión en ese
patrón anterior.
Durante la Primera Guerra Mundial, cuando el tiempo era
crucial para el fuego de artillería, el reconocimiento aéreo, las cortinas de
humo y la liberación de gas venenoso, la meteorología estaba lo suficientemente
avanzada como para predecir las condiciones actuales con termómetros,
barómetros, dirigibles, anemómetros e higrómetros rudimentarios para las
condiciones meteorológicas en tierra, junto con meteorógrafos fijados a cometas
o globos para las condiciones en altura, aunque se carecía de una recuperación
rápida de esos datos. En 1917, el investigador noruego Vilhelm Bjerknes fue
capaz de rastrear la temperatura, la presión y la humedad para predecir
tormentas a lo largo de los «frentes», llamados así por los hombres que
luchaban en las trincheras. Ese mismo año, el matemático inglés Lewis
Richardson desarrolló un complicado modelo de previsión meteorológica, que
desarrolló en Weather Prediction by Numerical Process (1922), pero sin
ordenadores, el método era lento e inexacto. Tardaba seis semanas en calcular
una previsión de seis horas para un solo lugar basándose en datos recogidos
semanas antes. En el centro de cálculo ideal que propuso, 64.000 ordenadores
humanos resolverían las ecuaciones diferenciales de varias capas de la
atmósfera en una sala cuyas paredes, suelo y techo estaban pintados para formar
un mapa del globo. En el centro, un director coordinaría el ritmo de cálculo
iluminando con una luz las zonas que debían acelerarse o ralentizarse. Este
esbozo de un método inviable esbozó los rudimentos de los centros
meteorológicos que décadas más tarde coordinarían el trabajo de los ordenadores
electrónicos y lo harían con mucha más precisión en una fracción de segundo lo
que a Richardson le llevó seis semanas. Durante la guerra, los meteorólogos estadounidenses
utilizaron una técnica de previsión rudimentaria: trazar los datos actuales,
encontrar un mapa meteorológico anterior que se pareciera a esos datos, ver
cómo evolucionaba la situación en el pasado y basar la previsión en ese patrón
anterior.8 Durante la Segunda Guerra Mundial, los aviones se encontraron por
primera vez con la corriente en chorro y los meteorólogos determinaron que los
flujos de aire superiores controlan el tiempo a nivel del suelo. Utilizaron el
radar para rastrear los aviones, pero no el tiempo. La predicción más famosa
fue la de la invasión de Normandía el 6 de junio de 1944. Los Aliados
necesitaban luna llena para los bombardeos aéreos y marea baja para dejar al
descubierto las defensas submarinas alemanas, condiciones que sólo se darían
durante tres días a partir del 5 de junio. Los meteorólogos estadounidenses,
utilizando su poco fiable método analógico de comparar el tiempo actual con los
patrones de años anteriores, recomendaron el 5 de junio, que, debido a una
tormenta sobre el Canal de la Mancha, habría sido un desastre. El 4 de junio,
pocas horas antes del lanzamiento de las operaciones del Día D, el equipo
británico, utilizando métodos más actuales, instó a retrasarlo al 6 de junio, y
el General Eisenhower estuvo de acuerdo. En los años siguientes, las nuevas
tecnologías revolucionaron las previsiones meteorológicas, que se hicieron cada
vez más detalladas, de largo alcance y precisas. En 1950, el meteorólogo
estadounidense Jule Charney ejecutó una serie de algoritmos meteorológicos a
través del Integrador Numérico Electrónico y Computador (ENIAC) para producir
el primer pronóstico computarizado de un período de 24 horas, que tardó 24
horas en completarse. Los modelos computarizados, utilizados por primera vez
para pronósticos regionales en 1954, cambiaron a modelos hemisféricos a
principios de la década de 1960 y luego a modelos globales en 1970. Uno de los
primeros modelos importantes fue el del Centro Europeo de Predicción
Meteorológica a Medio Plazo, que contaba con 22 países miembros cuando se
introdujo en 1979. Originalmente, contaba con 15 niveles verticales de
recopilación de datos. En 2012, el modelo se amplió a 137 niveles y procesaba
más de 300 millones de puntos de datos de observación al día, procedentes de satélites,
radares, boyas, aviones, barcos y globos meteorológicos. Desde entonces, los
modelos informáticos han aumentado el área cubierta, el número de niveles
verticales, la resolución de sus resultados, el alcance temporal y la velocidad
de funcionamiento. El Global Forecasting System estadounidense, introducido en
2000, cubría todo el globo, funcionaba 4 veces al día y tenía un alcance de
previsión de 16 días y versiones específicas para el aire, el océano, la tierra
y el hielo marino. En el Reino Unido, la velocidad de cálculo de los
superordenadores de la Met Office pasó de 30.000 cálculos por segundo en la
década de 1950 a 200 millones de cálculos por segundo a principios de la década
de 1980. En 2014, los ordenadores podían realizar más de 10.000 billones de
cálculos por segundo.
El 90% de los datos de previsión meteorológica proceden
de satélites. En 1960, Estados Unidos puso en órbita el primer satélite
meteorológico del mundo, que enviaba 4.000 imágenes a la semana antes de
enmudecer tras varias semanas. En la década de 1970, la NASA desarrolló
satélites para el seguimiento de tormentas severas que se colocaron en órbitas
geosincrónicas. El primer Satélite Ambiental Operacional Geoestacionario
(GOES-1) se puso en órbita en 1975 para apoyar el seguimiento y la previsión de
tormentas. En 1980, el GOES-4 fue el primero en proporcionar perfiles
verticales continuos de la temperatura y la humedad de la atmósfera que
sirvieron de apoyo a las previsiones a corto plazo (aproximadamente 12 horas) y
a las «nowcasts» de tormentas en curso. El público estadounidense pudo seguir
la trayectoria del huracán Katrina en 2005, varios días antes de que tocara
tierra, gracias a las impresionantes imágenes tomadas por el satélite GOES-12,
que proporcionó un seguimiento continuo aumentado por imágenes de aviones de
huracanes, impresiones de modelos informáticos e informes resumidos de
meteorólogos. Aunque los errores en esas previsiones provocaron indignación en
los meses y años siguientes, el huracán se convirtió en un icono para todo el
país, fascinado por un acontecimiento meteorológico que la tecnología de
previsión era capaz de televisar tan vívidamente, por muy erróneas que hubieran
sido las previsiones. Una de las lecciones de aquella tormenta, y de nuevo de
la supertormenta Sandy en 2012, fue que, además de la velocidad del viento, la
trayectoria de la tormenta y las precipitaciones, los meteorólogos necesitaban
mejores métodos para predecir la marejada, que durante Sandy superó las
barreras de protección, astilló paseos marítimos e inundó líneas de metro. En
2016, el satélite meteorológico más reciente, el GOES-R, entró en órbita con 16
longitudes de onda diferentes, desde el visible al infrarrojo. Con una
velocidad cinco veces superior a la del satélite actual, podía escanear todo el
hemisferio occidental en 5 minutos y cambiar a escaneos rápidos regionales cada
30 segundos, frente a la velocidad del satélite anterior de cada 7 minutos. Al
cuadruplicar la resolución del satélite, mejoró la comprensión del poder
radiativo y la localización más precisa de los incendios forestales, así como
el papel de las nubes en el calentamiento y enfriamiento del planeta. Su
mapeador geoestacionario de rayos tomó 500 imágenes por segundo para ayudar a
determinar el origen y el alcance de los rayos y si los impactos se producen en
las nubes, de nube a nube o de nube a tierra, información que añadió minutos de
tiempo de alerta para tornados y tormentas graves. En una historia de la
predicción meteorológica de 2008, Peter Lynch llegó a la conclusión de que se
ha producido «un aumento de un día por década en la capacidad de previsión»
desde la introducción de la modelización informática en los últimos 50 años.17
Dicho de otro modo, las previsiones actuales a 5 días tienen la precisión de
las previsiones a 1 día de hace 50 años. Los nuevos modelos informáticos, los
instrumentos de radar y los satélites han ampliado el alcance temporal y la
precisión de las previsiones meteorológicas y han cambiado las orientaciones al
respecto, que han pasado de la espera pasiva y la impotencia a una expectativa
más activa y una preparación más útil.
Kern, Stephen. Time and
Space in the Internet Age Londres:
Routledga, pp. 82-85).
No hay comentarios:
Publicar un comentario