viernes, 8 de noviembre de 2024

MAGA y los wokes

 





La victoria de Donald Trump en las elecciones de 2024 se está comprendiendo bajo dos puntos de vista: el primero, como la derrota de los partidarios de la globalización de los mercados, junto a todo el aparato institucional y legal que la sostiene; el segundo, el que me importa aquí, como la derrota de la cultura de los movimientos sociales y del interseccionalismo, calificada como cultura “woke” por sus enemigos. El movimiento MAGA parece haber calado en muchas capas de la población apoyándose en brechas existentes en la cultura norteamericana: la brecha de quienes acceden y no a la educación superior, la brecha de la religión, y especialmente la de las iglesias evangélicas y, tercero, la brecha de género, en particular en lo que se refiere a los varones temerosos de los avances del feminismo.

En lo que respecta al punto de vista económico, la inflación y la presión o el pánico moral emigratorio han sido factores muy importantes en las decisiones de voto de las clases medias bajas, incluyendo las que tienen orígenes emigrantes, pero este factor es menos importante que la gran ola reaccionaria contra la cultura de los movimientos sociales, que, por unos medios u otros, ha logrado una cierta hegemonía en los medios de comunicación y los medios sociales. Este crecimiento, que irradia a otras muchas zonas del mundo, y especialmente a los países desarrollados occidentales, tiene bases profundas que tienen que ver tanto con la transformación económica y cultural de las clases sociales como con la fuerza política que adquirieron los movimientos sociales de género, raza, orientación afectiva y preocupación ecológica. Una fuerza que ha desbordado en sus límites a la de las puras políticas socialdemócratas del estado de bienestar y, en cierta forma, a las propias estructuras del capitalismo globalizador.

Esta fuerza cultural ha amenazado también y sobre todo a los más profundos elementos simbólicos que sostuvieron la historia norteamericana y, por extensión, la de buena parte de los países bajo su influencia. Me refiero a lo que se ha llamado el sueño americano y a la utopía asociada, que ha sido uno de los componentes básicos del neoliberalismo más tardío. El “sueño americano”, una expresión popularizada por el historiador Truslow Adams en 1931 (The Epic of America), se sostiene en varios pilares: el primero es la creación de un mito sobre lo que significa el sentido de la vida: formar una familia estándar, adquirir una casa amplia y confortable, tener una alta capacidad de consumo de bienes (automóviles, electrodomésticos,…), expectativas de un trabajo con rendimientos crecientes, que se amplía a los hijos. Este elemento tienen un importante componente de envidia por el éxito económico de otros ha sido analizado con muy buena intuición por la teórica australiana Caryl Osborn en su libro Tragic Novels. Renè Girard an the American Dream). Osborn sostiene que la ideología de superación de los estamentos sociales y la igualdad jurídica activa una suerte de emulación y mímesis de la riqueza, que conduce a que en el imaginario, el éxito económico y la legitimación de la idea de la patria vayan unidos. El segundo componente religioso, tal como enseñó Weber, une la idea de una vida digna con la de una vida económicamente productiva.

En tercer y no menos importante lugar está el valor de las familias. Este componente del sueño americano ha sido exhaustiva y luminosa por la, también australiana, Melinda Cooper en Los valores de la familia, que analiza la intrínseca relación del capitalismo y el fomento de un tipo particular de familia: aquel que puede hacerse cargo de todo lo que consideramos fracasos de mercado: el cuidado y formación de los hijos, la salud, la vejez, …, todo aquello que la socialdemocracia considera bienes públicos, pero que el capitalismo prefiere instalar en lo privado a través de leyes que protejan el derecho (de hecho la obligación) de las familias a hacerse cargo de todo lo que entraña la temporalidad de la vida humana.

Los movimientos “woke” han sido vistos como la gran amenaza a este modelo de familia y con el a toda la estructura de sentimiento asociada al sueño americano. La idea de una familia en peligro por la desindustrialización y la globalización, por las nuevas formas de afecto no heteronormativas, por el abandono de los valores puritanos religiosos, la idea de que una emigración culturalmente extraña (islámica, africana,…) será también una ruptura del modelo ideológico-económico de familia, forma es el centro de gravedad del miedo reaccionario que ha activado el movimiento MAGA lo mismo que el de sus variantes europeas.

Se ha iniciado así una guerra cultural, con su consiguiente carrera de armas culturales para defender este modelo frente a las amenazas. En este sentido, el interseccionalismo ha desarrollado un aparato cultural complejo con una audiencia amplia (las sociedades están polarizadas más o menos en una mitad contra otra mitad), pero también lo ha hecho en un formato que a veces no es entendido y, lo que es entendido, lo es como amenaza por parte de una gran parte de la población. La idea de “somos el 99%” de David Graeber en los años de la indignación no ha calado por muchas razones, una de ellas por incompetencia comunicativa, otras están relacionadas con que la misma fábrica del interseccionalismo está construida sobre fricciones y tensiones no fácilmente solubles. Algunos casos recientes en la política española muestran que estas fricciones son reales y no simples emanaciones de intereses o actitudes personales.

El clarividente libro de Carly Osborn ha optado por una línea que no me parece tan incompetente: la de buscar las fracturas de ese sueño utópico en sus mismas bases, recogiendo lo que ha sido la gran tradición de la literatura suburbana, que analiza las ansiedades y muros insalvables del sueño americano. Ella analiza varias obras que recorren varios aspectos de este sueño: Muerte de un viajante  (Arthur Miller, 1949): es una de las mejores exposiciones de la utopía neoliberal del éxito social. Actual pese a la distancia temporal. Las vírgenes suicidas (Jeffrey Eugenides, 1993 y su versión cinematográfica de Sofía Coppola, 1999): un narrador colectivo, la vecindad suburbana, incapaz de duelo y de comprensión de su propio fracaso, situada en las crisis del Detroit de los primeros setenta. Revolutionary Road (Richard Yates, 1961 y su versión cinematográfica de Sam Mendes, 2008): la fractura del sueño masculino, vista desde la mirada de una esposa.  La tormenta de hielo (Rick Moody, 1994 y su versión cinematográfica de Ang Lee 1997): una revisión trágica de la revolución sexual de los setenta y de las contradicciones del deseo como deseo ontológico. Son cuatro obras que tienen un trasfondo trágico, en el que el sacrificio de alguien es un resultado inevitable de la imposibilidad de resolución de las contradicciones internas del mito del sueño americano.

El mito utópico neoliberal, en sus versiones ahora neoconservadoras fundamentalistas, es una máquina de sufrimiento y ansiedad, la estructura de sentimiento básica del capitalismo avanzado. Esa ansiedad se proyecta contra el enemigo interno, pero es estructuralmente necesaria para las bases de la envidia mimética que sostiene el mito y que produce una temporalidad desgarrada, incapaz de hacerse cargo de la propia ubicación y del origen de las fragilidades propias.

Se ha dicho muchas veces, y tal vez con mucha razón, que el movimiento interseccional solo ha distribuido ira y no esperanza, que no ha sido capaz de elaborar un horizonte de vida alternativo, que no sea el de una constante y eterna guerra contra los adversarios. Seguramente, es mi hipótesis, porque la pura reacción cultural no entraña capacidades de creación de tiempos conjuntos de libertad, solo de fraternidades internas a las diversas variantes de los movimientos: gays y lesbianas que consideran que la utopía se puede vivir, pero solo en el mundo gay, o ecologismo de aislamiento en pequeñas granjas, o …

No se trata de una crítica más a las políticas culturales interseccionales. Por el contrario, reconozco que no es sencillo pensar una alternativa y que esta solo surgirá de nuevas prácticas, más que de las cabezas intelectuales. Mientras, las nuevas redes políticas que usan la desesperación y la ansiedad están teniendo un éxito notable aprovechando las contradicciones de sus propios seguidores. Ahora bien, en esta carrera de armas culturales, esta estrategia es una calle de doble dirección. Nuevos lenguajes, nuevas formas de entender las contradicciones de quienes están en el lado adversario pueden ayudar a cambiar esta marea que, por el momento parece un tsunami.

Quizás, esta cita de Las vírgenes suicidas de Jeffrey Eugenides, situada en un suburbio del Detroit industrial de 1972, en una de esas crisis cíclicas que explican buena parte de la estructura de sentimiento de ansiedad hegemónica, explique bien estas contradicciones que necesitan ser estudiadas:

"Ya en verano, los periódicos de la ciudad no se habían dignado mencionar siquiera el suicidio de Cecilia por considerarlo un suceso absolutamente prosaico. Debido a los constantes despidos que se producían en las fábricas de automóviles, apenas pasaba un día sin que algún alma desgraciada sucumbiese bajo el peso de la recesión, y era de lo más corriente descubrir hombres en el garaje con el motor del coche en marcha o hechos un guiñapo bajo la ducha, todavía con la ropa de trabajo puesta. Tan sólo adquirían rango de noticia los asesinatos-suicidios y aun así aparecían en la página tres o en la cuatro: historias de padres que liquidaban a tiros a toda su familia antes de volver el arma contra sí mismos o de hombres que incendiaban su casa después de atrancar bien las puertas."


domingo, 3 de noviembre de 2024

Proyecto para un tratamiento ético-político de la inteligencia artificial generativa

 




(Imagen generada por ChatGpt a petición propia)


Lo que sigue no es otra cosa que un esquema para un texto más bien divulgativo con la idea de situar el tratamiento ético-político de la inteligencia artificial generativa en un marco más amplio, tal como ha hecho Floridi, al presentarla como una cuestión de nuevss formas de agencia. A lo que he añadido el tratarla también como nuevas formas de conocimiento distintas del modelo testimonial que es el que usamos para evaluar la epistemología de internet. Por último, se plantean los problemas de gobernanza como problemas también y sobre todo ecológicos y de soberanía. 


Resumen:

1.      Auge de la IA generativa y los LLMs y LMMs

2.      Artefactos socio-técnicos y nuevas formas de acción y conocimiento

3.      Problemas éticos, ecológicos y políticos.

 

Auge y funcionamiento de la IA generativa

 La IA generativa se ha convertido en una tecnología que transforma rápidamente a muchas otras tecnologías basadas en el mundo digital.

Hereda del aprendizaje automático y lo que llamábamos “algoritmos”, como el que inició Google para organizar la Web 2.0 (web participativa), por su capacidad de procesar enormes cantidades de datos y producir perfiles estadísticos. Añade la capacidad generativa, que es la de responder a preguntas muy individualizadas con resultados nuevos.

En los últimos tres años han irrumpido en el panorama mundial a través de los llamados LLM o grandes modelos lingüísticos que procesan textos y LM M grandes modelos multimodales (texto, imagen, video, audio).

Los usos comunes más conocidos son los Chat boots ( Chat GPT/Gemini), resúmenes de resultados y búsquedas en la web, ofrecen servicios a empresas y gobiernos, entrenados para generar documentos, traducen idiomas, generan códigos de programación a partir de textos, corrigen estilos, en general, analizan datos a petición de los usuarios.

Tienen capacidades de interpretar y generar imágenes, convertir archivos en formatos diversos, crear gráficos resolver problemas de matemáticas, generar planes de acción, …

 Existen tres categorías principales: propietarios, abiertos y de fuente abierta.

Los modelos propietarios como GPT4o y Claude 3.5 son algunos de los más populares y potentes disponibles, pero están desarrollados por empresas privadas. El código fuente, las estrategias de entrenamiento los pesos de los modelos, e incluso detalles como el número de parámetros que tienen se mantienen en secreto. Las únicas formas de acceder a estos modelos son a través de un chatbot o una aplicación creada con ellos, o a través de una API. No se puede simplemente ejecutar GPT-4 en tu propio servidor.

Los modelos abiertos y de código abierto permiten usos libres. Se pueden descargar (Llama 3 y Gemma 2 ) y ejecutarlos  en los dispositivos, reentrenarlos con los propios datos y crear versiones propias de chatboots y otros usos (mi universidad está intentado crear chatboots de asignaturas con los datos suministrados por profesores y alumnos. Se pueden modificar incluso los pesos de las conexiones y la arquitectura y, por ello aplicarlos a fines más especializados. Los modelos de código abierto son más permisivos, los que tienen licencias (Llama, Gemma) siguen controlados por las grandes plataformas originarias en sus usos.

Funcionamiento

El aprendizaje profundo es el campo de la inteligencia artificial (IA) que enseña a las computadoras a procesar datos de una manera que se inspira en el cerebro humano. Los modelos de aprendizaje profundo pueden reconocer patrones de datos, como imágenes, textos, sonidos complejos, a fin de generar información y predicciones precisas. Una red neuronal es la tecnología subyacente en el aprendizaje profundo. Consiste en nodos o neuronas interconectados en una estructura en capas. Los nodos procesan los datos en un sistema coordinado y adaptativo. Estos intercambian comentarios sobre los resultados generados, aprenden de los errores y mejoran continuamente. Por lo tanto, las redes neuronales artificiales son el núcleo de un sistema de aprendizaje profundo.

Una red neuronal es un método de la inteligencia artificial (IA) que enseña a las computadoras a procesar datos de una manera similar a como lo hace el cerebro humano. Se trata de un tipo de proceso de aprendizaje automático (ML) llamado aprendizaje profundo que conecta “neuronas artificiales”, o pequeños procesadores que realizan operaciones simples y activan o inhiben a otras neuronas conectadas, según ciertos pesos de conexión, algo muy similar al cerebro humano. Crea ciclos de realimentación que reajustan los pesos según fórmulas de estadística, de manera que pueden aprender de los errores.

Para esta comparación, el término red neuronal se refiere a una red neuronal prealimentada. Las redes neuronales prealimentadas procesan los datos en una dirección, desde el nodo de entrada hasta el nodo de salida. Estas redes también se denominan redes neuronales simples.

Los sistemas de aprendizaje profundo constan de múltiples capas ocultas y organizadas (convolución o recurrencia), resuelven problemas mucho más complejos que las redes neuronales simples y necesitan un volumen enorme de datos, entrenamiento muy costoso y complicado

Artefactos sociotécnicos

Nuevas formas de acción mediada por dispositivos inteligentes

·        El envoltorio social y técnico de toda tecnología

·        El proceso complejo de

o   Obtención de datos

o   Entrenamiento dirigido

o   Diseño del algoritmo

o   Entorno técnico de almacenamiento y procesamiento

·        Usos y entrenamiento en el uso

·        ¿Qué es una agencia híbrida?

o   Mente extendida

o   Mente distribuida

o   Problema de otras mentes

Nuevas formas de conocimiento

¿Por qué no nos sirve el modelo de testimonio?

Culpar al dispositivo o examinar el proceso de generación y aplicación:

·        Sesgos

·        Alucinaciones

·        Usos engañosos:

1.- La disponibilidad de datos. Este es un factor esencial. Los datos se han convertido en la fuente más importante de diferencias tecnológicas y epistémicas en el siglo XXI. Todo puede ser un dato, en tanto en cuanto pueda ser representado digitalmente, almacenado y pre-tratado para que pueda operar en las entrañas de un dispositivo de inteligencia artificial. No es fácil saber cuántos y cuál es la procedencia exacta de los datos que alimentan a los LLMs más populares como GPT 4, Gemini, Llama y otros, pero cabe pensar razonablemente que han sido alimentados con todo lo disponible en la Web, fundamentalmente textos, en lo que se refiere a los modelos puramente lingüísticos y con imágenes y otras modalidades a los ampliados a la multimodalidad. El complejo de datos ya no es una representación fiel de la realidad, sino un conjunto dependiente de numerosas fuentes fiables o no fiables que alimentan los algoritmos de los modelos.

2. El proceso de representación: los datos, ya digitalizados, son convertidos a través de un tratamiento informático en tokens o unidades que puedan ser situadas en los nodos de las redes neuronales. Estos tokens, a su vez, son convertidos en vectores para que puedan ser operados por los dispositivos de tratamiento (transformers) cuya función es crear contextos de probabilidades de relación asociadas a un token de modo que se acorte el tratamiento masivo en las redes. Aquí ya se produce un segundo alejamiento entre la fuente y la unidad de tratamiento, que depende de cuál es la arquitectura informática del modelo.

3. Entrenamiento: el buen rendimiento funcional, cognitivo, de los modelos lingüísticos o multimodales depende de su capacidad de aprendizaje que, a su vez, depende del entrenamiento. Este puede ser supervisado por los ingenieros del sistema o por personal contratado específicamente para ello o no supervisado y dependiente de la interacción continua con usuarios y a través de sus dispositivos internos de auto-aprendizaje o auto-control. Aunque en todas las fases hay intervención humana, es en el entrenamiento en donde aparece claramente el carácter mixto, híbrido, de estos sistemas, que no funcionarían sin la adecuada interacción humanos-máquinas en las diversas formas de entrenamiento y corrección de errores.

4. Ajuste (fine-tunning): Aunque buena parte del éxito mediático de estos dispositivos se debe a las expectativas abultadas artificiosamente sobre el carácter “general” de la inteligencia de los modelos, lo cierto es que su valor pragmático y comercial depende de formas de ajuste fino de los sistemas para objetivos prácticos muy específicos de orden empresarial, militar, científico, educativo, etc., donde los datos son seleccionados y sobre todo se generan formas de aprendizaje por refuerzo (de nuevo la importancia del entrenamiento) orientadas a elegir las venas respuestas y a sustentar la fiabilidad del sistema. Así, por ejemplo, los usos de estos modelos en traducción y su creciente fiabilidad depende mucho de estos ajustes.

Estos cuatro puntos y quizás otros que podrían tenerse en cuenta nos llevan al convencimiento de que la inteligencia generativa es un producto tanto del artefacto como, para decirlo en términos vigotskyanos, de la zona de desarrollo próxima, es decir, de la interacción con un entorno inteligente como es el de los ingenieros, los entrenadores masivos y los mucho más masivos usuarios. La fiabilidad de estos modelos varía y cambia con los progresivos entrenamientos. Las primeras impresiones de los usuarios novatos, como el que escribe, son a veces de fascinación por los resultados, pero hay que esperar a las evaluaciones de los expertos en las distintas áreas y aplicaciones. En todo caso, sus producciones parecen ser bastante acertadas en tareas como la traducción, en preguntas no demasiado complicadas, cuyas respuestas se encuentren ya representadas en la Web y en algunas otras tareas de experticia no abierta debido a los contratos confidenciales de uso.

Las críticas más usuales respecto a la fiabilidad de estos sistemas son la alta tasa de “alucinaciones”, un término que se ha generalizado para indicar las producciones falsas o incorrectas del sistema. Por ejemplo, la invención de referencias bibliográficas inexistentes suele ser una queja usual en los contextos académicos, tanto de estudiantes como de investigadores, que emplean estos modelos para información inicial en sus trabajos. Junto a la tasa de alucinaciones, que alcanza tantos por ciento notables, al decir de algunos expertos respecto a modelos populares como GPT4, pero que varía por temas a lo largo del tiempo, son también habituales las quejas por los sesgos identitarios que a veces se observan en las consultas, especialmente en las preguntas sobre interpretación de imágenes (uno de los campos más atrasados en los modelos generativos). Estas quejas son las que, unidas al trasfondo del modelo de testimonio que está en el trasfondo de las evaluaciones sustenta un generalizado escepticismo filosófico que contrasta con el exagerado y propagandístico entusiasmo de una gran parte de la comunicación científico-técnica.

Erich Prem, 2023 acierta al observar que mucha de esta crítica nacida del marco testimonial se sustenta sobre un supuesto erróneo: el de que una inteligencia general generativa es algo así como un modelo de la realidad y que, por ello, sus fallos predictivos son fallos directamente epistémicos. El autor sostiene, por el contrario, que son dispositivos que no crean mapas del mundo sino mapas de los enormes almacenes de textos e imágenes que los alimentan. Su tesis es que un LLM podría parecerse, más que a un sistema de testimonio, a una ficción literaria que no refiere directamente al mundo sino al complejo de experiencias, memorias y textos del que la escritora extrae un relato. Se crea así un modelo oblicuo y ficcional de un universo que no existiría sin la realidad, cierto, pero que no es un mapa de lo real como puede serlo una teoría o modelo formulados con una intención referencial y veritística. Las alucinaciones y sesgos no son algo extraño como no lo son en la ficción: son parte de la construcción del sistema.

Mirados desde esta perspectiva, los LLM parecen mucho más humanos de lo que son. Pues, al igual que un cerebro creando textos o imágenes, hay un grado de opacidad y falta de autoconocimiento notable en su proceso de producción; hay también un elemento combinatorio en el que las afinidades de textos no se crean mediante cercanías por taxonomías conceptuales o lógicas, como podrían ser los que estructuraban la arquitectónica de la inteligencia artificial simbólica, sino que son producto de perfiles y distancias terminológicas que son generados combinatoriamente por los pesos computacionales de las redes neuronales, a veces más cercanas a las dinámicas de los sueños freudianos que a los modelos matemáticos de los sistemas físicos que relacionan variables que representan propiedades y magnitudes reales

Problemas éticos, ecológicos y políticos más urgentes

1.      El problema de la adaptación inversa: al ser un sistema sociotécnico complejo, son muchas las posibilidades, pero también los límites de qué puede hacerse.

2.      El problema de los datos:

a.      Origen.

b.      Depuración

c.       Propiedad

d.      Privacidad

3.      El problema de la dependencia tecnológica.

a.      Soberanía tecnológica.

b.      Soberanía energética

c.       Soberanía de datos

4.      La planificación de los usos, particularmente.

a.      Enseñanza

b.      Empresa y administración

5.      El problema ecológico de la IA

a.      Obtención de materiales

b.      Costes energéticos de entrenamiento, almacenamiento y uso

6.      Límites de intervención en la gobernanza de la IA:

a.      La competencia China-EE UU y la carrera en IA

b.      Geoestrategia de la IA

c.       La dependencia técnica del Mundo y especialmente de la UE