viernes, 10 de octubre de 2025

¿En qué se confía cuando se confía en la inteligencia artificial?

 




Dos sentidos de confianza

La confianza es el sentimiento o mejor la disposición a un sentimiento que tenemos cuando pensamos que el riesgo de algo es suficientemente bajo como para no preocuparnos en el curso de una acción o relación.

Un primer grado de confianza es lo que en inglés se llama “reliabilty” o “fiabilidad”. Deriva de nuestro conocimiento de las leyes naturales o del mecanismo de acción de un dispositivo o sistema artificial, o bien del conocimiento que tenemos de las regularidades. Nos fiamos del funcionamiento del automóvil para llevarnos de viaje, el médico se fía de la radiografía para un cierto diagnóstico. La fiabilidad no implica intenciones por parte de la máquina, o del sistema, solamente regularidades.

El segundo nivel es el de la confianza como relación social. Está dirigida a una persona o varias, o a una institución y siempre se refiere a un cierto objetivo o fin “confío en s para f”.

En la confianza interpersonal es determinante la voluntad de las partes: la confianza no es resultado de un cálculo sino de una relación de compromiso basada en la mutua voluntad. Es una relación frágil y vulnerable que puede ser explotada por una de las partes. En este caso usamos un término muy duro “traicionó su confianza”.

Cuando depositamos la confianza en otra persona hay una especie de intercambio de intenciones: la persona en la que se deposita la confianza debe saber que la otra depende de ella para una cierta tarea y es su responsabilidad valorar si es capaz de hacerse digna de esa confianza. Confiamos en los médicos porque, a su vez, confiamos en complejas instituciones donde se han formado.

 El caso de los grandes modelos fundacionales

Se trata de un caso peculiar porque entraña la transmisión de información almacenada y procesada por complejas redes neuronales dotadas de mecanismos de aprendizaje por realimentación, de dispositivos internos de cálculo de probabilidades de conexión (transformers, reasoners…).

Al tratar con información con la que el sistema ha sido alimentado y que, a través de estos dispositivos puede recombinar, es susceptible de generar nuevas producciones como respuesta a nuestros prompts.

Los prompts no son preguntas sino instrucciones que son codificadas y tienen la función de establecer constricciones en las probabilidades de asociación en la respuesta.

Nosotros ponemos intenciones en la instrucción pero la máquina no procesa intenciones ni las tiene, solamente espacios de probabilidad. En este sentido cabría decir que el modelo es más o menos fiable, del mismo modo que decimos que tiene más o menos potencia de cálculo dados los billones de parámetros que codifican los tokens.

La cuestión es sin embargo más compleja, y por eso tenemos bastantes problemas con la relación de confianza.

1.      Los modelos codifican información y conocimiento humano, así como datos que le son suministrados por sistemas intencionales capaces de percepción, medición etc.

2.      Los modelos han sido entrenados en largos procesos: primero por aprendizaje asistido por ingenieros y luego por miríadas de trabajadores contratados ex profeso para corregir los errores, y finalmente por el continuo uso por parte de los usuarios que, al demandarles tareas van refinando las probabilidades de conexión entre ítems.

3.      Los grandes modelos son creados por compañías que han invertido una enorme cantidad de financiación en centros de datos y en las mismas máquinas. Por ahora tienen una intención de servir de usos generales en tratamiento lingüístico, imaginístico, matemático, de código, de tareas más o menos rutinarias, como buscar billetes u organizar informes económicos.

Hay que distinguir claramente entre los modelos generalistas, orientados a lo que llaman inteligencia general, de los modelos fundacionales orientados a tareas concretas en donde la información suministrada ha sido filtrada cuidadosamente, de modo que los datos son relaciones fiables con el mundo. Los resultados, en este caso contienen una doble sistema de intenciones: todas las que están implicadas en el diseño y entrenamiento y todas las que están implicadas en la relación de extracción de información del mundo.

Cuando consideramos los modelos aplicados nos damos cuenta de que lo que llamamos inteligencia artificial es un sistema híbrido humanos-máquinas en donde la semántica y la responsabilidad cognitiva recae en los humanos, y el cálculo de probabilidades y su potencia generativa en el diseño y funcionamiento de la máquina.

Confiando por partes

Casi todos somos ya conscientes por el uso cotidiano de las potencialidades del rendimiento de los modelos generativos. Los usamos continuamente para traducciones, para búsquedas de información, para corrección de estilos, para generar códigos, y otras tantas tareas que producen la ilusión de que nos encontramos ante una especie de super- oráculo que responde a nuestras preguntas con rapidez y más o menos acierto. Puesto que la confianza en es siempre confianza para, vemos cómo tratar esta cuestión.

Los grandes modelos han irrumpido en nuestras vidas generando tanto entusiasmo como ansiedad:

-          Ansiedad epistémica

-          Ansiedad por los puestos de trabajo

-          Ansiedad por los efectos en la educación

-          Ansiedad ecológica

-          Ansiedad por el control y la pérdida de soberanía sobre los datos

Es complicado responder con una afirmación taxativa a la cuestión de si los modelos generativos son dignos de confianza y debemos reducir nuestras varias formas de ansiedad.

-          Ansiedad epistémica: ¿puedo confiar en las producciones del modelo para propósitos cognitivos o prácticos. Depende. Las primeras versiones tenían una alta tasa de alucinaciones y errores que estaban enmascarados por la ilusión de usuario que producía su forma de respuesta. ¿Son mejores los nuevos modelos en los que se invierte para el loco propósito de la inteligencia general? Estos modelos multiplican la potencia informacional, la cantidad de datos suministrados y el entrenamiento están orientados a soslayar los errores manifiestos. Los especialistas en evaluación de LLMs tienen la palabra, pero, por el momento, los grandes modelos siguen teniendo zonas de error y, sobre todo, límites en lo que respecta al alcance cognitivo de sus respuestas. Todos somos conscientes de que las anteriores alegrías han sido ahora moderadas con mensajes de caveat sobre las posibilidades de error.

-          Algo muy diferente ocurre en los modelos fundacionales donde los datos están bien controlados y son usados como instrumentos de aceleración de los tiempos de investigación: producción de moléculas y materiales, etc. La fiabilidad aquí sube mucho porque están integrados en grandes sistemas de investigación y los usuarios son expertos que tienen mucha conciencia de su responsabilidad.

-          El punto más dudoso se refiere al grado de confianza que podemos tener en las todopoderosas plataformas Claude, Open AI, Google, Grok, etc que compiten por la inteligencia general. Se trata de crear nuevos entornos multimedia en los que los modelos ofrezcan respuestas en todos los dispositivos. Dejando a un lado, la cuestión del error, hay problemas con lo que van a significar estos entornos en términos de mayor control de la atención e inmersibilidad, de potencia comercial por el trasiego de datos. Dicho de otra forma, son más preocupantes cuáles son los objetivos prácticos de estas super-empresas que la fiabilidad epistémica de las respuestas. Da la impresión de que desean sustituir la Web 2.0 que todos conocemos por un nuevo entorno dominado por los grandes modelos. La puntuación de confianza que personalmente daría aquí es bastante baja en lo que respecta a los riesgos sociales.

-          En lo que respecta a la sustitución de los puestos de trabajo, la respuesta es también matizada. Ojalá sustituyeran a los trabajos más tediosos. Por ahora, lo que han producido es una enorme cantidad de trabajos tediosos empleados en el entrenamiento de los modelos.

-          ¿Podemos confiar en que los modelos generativos se hagan cargo de la educación? Todos sabemos que están transformando las relaciones educativas de forma generalizada, creando en el profesorado una nueva suspicacia que está minando la confianza dentro del aula. Aquí, me parece que se hace necesario un debate social que implica a todos los actores en la redefinición de la educación en un entorno en que las bibliotecas y las formas tradicionales de obtención de información, así como las formas de evaluación compiten con las producciones de los grandes modelos.

-          En lo que respecta a la ansiedad ecológica, está plenamente justificada. Por ahora, los grandes centros de datos se instalan en regiones ricas en agua y con no demasiados escrúpulos para ceder grandes cantidades de energía a estas nuevas fábricas de información. Nos encontramos con una nueva versión de la deslocalización de los años ochenta del siglo pasado, ahora buscando energía y agua más que mano de obra barata.

-          La soberanía tecnológica es, por último, pero no menos importante, el problema que plantean estos supermodelos. China parece haber optado por centrarlos en aplicaciones prácticas dejando de lado la inteligencia general. Me parece una buena idea que podrían imitar muchos estados, incluyendo la UE y el nuestro.

A modo de conclusión

Como dice el viejo chiste aprovechando el texto que aparece en el dólar, “in God we trust everyone else pay cash” (“confiamos en Dios, todos los demás en metálico”). El problema de la confianza en la IA es el problema de la confianza en las instituciones. La respuesta tiene que ser matizada: el nuevo entorno de internet dominada por los modelos generalistas ya es un hecho y más que confianza o no en abstracto exige un nuevo cuidado para aprender y captar las posibilidades, pero también para hacer un balance de costos y beneficios en todos los aspectos de la persona la comunidad y la sociedad.

Puede ser mucho más interesante plantearse la construcción de modelos por parte de instituciones más confiables, entre las que cabría incluir los estados democráticos, pero sobre todo las instituciones científicas, educativas y sanitarias que empleen los modelos para usos productivos, moral y epistémicamente provechosos y que puedan ser parte de los bienes comunes.