Dos sentidos de confianza
La confianza es el sentimiento o mejor la disposición a un
sentimiento que tenemos cuando pensamos que el riesgo de algo es
suficientemente bajo como para no preocuparnos en el curso de una acción o
relación.
Un primer grado de confianza es lo que en inglés se llama
“reliabilty” o “fiabilidad”. Deriva de nuestro conocimiento de las leyes
naturales o del mecanismo de acción de un dispositivo o sistema artificial, o
bien del conocimiento que tenemos de las regularidades. Nos fiamos del
funcionamiento del automóvil para llevarnos de viaje, el médico se fía de la radiografía para un
cierto diagnóstico. La fiabilidad no implica intenciones por parte de la
máquina, o del sistema, solamente regularidades.
El segundo nivel es el de la confianza como relación social.
Está dirigida a una persona o varias, o a una institución y siempre se refiere
a un cierto objetivo o fin “confío en s para f”.
En la confianza interpersonal es determinante la voluntad de
las partes: la confianza no es resultado de un cálculo sino de una relación de
compromiso basada en la mutua voluntad. Es una relación frágil y vulnerable que
puede ser explotada por una de las partes. En este caso usamos un término muy
duro “traicionó su confianza”.
Cuando depositamos la confianza en otra persona hay una
especie de intercambio de intenciones: la persona en la que se deposita la
confianza debe saber que la otra depende de ella para una cierta tarea y es su
responsabilidad valorar si es capaz de hacerse digna de esa confianza.
Confiamos en los médicos porque, a su vez, confiamos en complejas instituciones
donde se han formado.
El caso de los grandes modelos fundacionales
Se trata de un caso peculiar porque entraña la transmisión
de información almacenada y procesada por complejas redes neuronales dotadas de
mecanismos de aprendizaje por realimentación, de dispositivos internos de
cálculo de probabilidades de conexión (transformers, reasoners…).
Al tratar con información con la que el sistema ha sido
alimentado y que, a través de estos dispositivos puede recombinar, es
susceptible de generar nuevas producciones como respuesta a nuestros prompts.
Los prompts no son preguntas sino instrucciones que son
codificadas y tienen la función de establecer constricciones en las
probabilidades de asociación en la respuesta.
Nosotros ponemos intenciones en la instrucción pero la
máquina no procesa intenciones ni las tiene, solamente espacios de
probabilidad. En este sentido cabría decir que el modelo es más o menos fiable,
del mismo modo que decimos que tiene más o menos potencia de cálculo dados los
billones de parámetros que codifican los tokens.
La cuestión es sin embargo más compleja, y por eso tenemos
bastantes problemas con la relación de confianza.
1.
Los modelos codifican información y conocimiento
humano, así como datos que le son suministrados por sistemas intencionales
capaces de percepción, medición etc.
2.
Los modelos han sido entrenados en largos
procesos: primero por aprendizaje asistido por ingenieros y luego por miríadas
de trabajadores contratados ex profeso para corregir los errores, y finalmente
por el continuo uso por parte de los usuarios que, al demandarles tareas van
refinando las probabilidades de conexión entre ítems.
3.
Los grandes modelos son creados por compañías
que han invertido una enorme cantidad de financiación en centros de datos y en
las mismas máquinas. Por ahora tienen una intención de servir de usos generales
en tratamiento lingüístico, imaginístico, matemático, de código, de tareas más
o menos rutinarias, como buscar billetes u organizar informes económicos.
Hay que distinguir claramente entre los modelos
generalistas, orientados a lo que llaman inteligencia general, de los modelos
fundacionales orientados a tareas concretas en donde la información
suministrada ha sido filtrada cuidadosamente, de modo que los datos son
relaciones fiables con el mundo. Los resultados, en este caso contienen una
doble sistema de intenciones: todas las que están implicadas en el diseño y
entrenamiento y todas las que están implicadas en la relación de extracción de
información del mundo.
Cuando consideramos los modelos aplicados nos damos cuenta
de que lo que llamamos inteligencia artificial es un sistema híbrido
humanos-máquinas en donde la semántica y la responsabilidad cognitiva recae en
los humanos, y el cálculo de probabilidades y su potencia generativa en el
diseño y funcionamiento de la máquina.
Confiando por partes
Casi todos somos ya conscientes por el uso cotidiano de las
potencialidades del rendimiento de los modelos generativos. Los usamos
continuamente para traducciones, para búsquedas de información, para corrección
de estilos, para generar códigos, y otras tantas tareas que producen la ilusión
de que nos encontramos ante una especie de super- oráculo que responde a
nuestras preguntas con rapidez y más o menos acierto. Puesto que la confianza
en es siempre confianza para, vemos cómo tratar esta cuestión.
Los grandes modelos han irrumpido en nuestras vidas
generando tanto entusiasmo como ansiedad:
-
Ansiedad epistémica
-
Ansiedad por los puestos de trabajo
-
Ansiedad por los efectos en la educación
-
Ansiedad ecológica
-
Ansiedad por el control y la pérdida de
soberanía sobre los datos
Es complicado responder con una afirmación taxativa a la
cuestión de si los modelos generativos son dignos de confianza y debemos
reducir nuestras varias formas de ansiedad.
-
Ansiedad epistémica: ¿puedo confiar en las
producciones del modelo para propósitos cognitivos o prácticos. Depende. Las
primeras versiones tenían una alta tasa de alucinaciones y errores que estaban
enmascarados por la ilusión de usuario que producía su forma de respuesta. ¿Son
mejores los nuevos modelos en los que se invierte para el loco propósito de la
inteligencia general? Estos modelos multiplican la potencia informacional, la
cantidad de datos suministrados y el entrenamiento están orientados a soslayar
los errores manifiestos. Los especialistas en evaluación de LLMs tienen la
palabra, pero, por el momento, los grandes modelos siguen teniendo zonas de
error y, sobre todo, límites en lo que respecta al alcance cognitivo de sus
respuestas. Todos somos conscientes de que las anteriores alegrías han sido
ahora moderadas con mensajes de caveat sobre las posibilidades de error.
-
Algo muy diferente ocurre en los modelos
fundacionales donde los datos están bien controlados y son usados como
instrumentos de aceleración de los tiempos de investigación: producción de
moléculas y materiales, etc. La fiabilidad aquí sube mucho porque están
integrados en grandes sistemas de investigación y los usuarios son expertos que
tienen mucha conciencia de su responsabilidad.
-
El punto más dudoso se refiere al grado de
confianza que podemos tener en las todopoderosas plataformas Claude, Open AI,
Google, Grok, etc que compiten por la inteligencia general. Se trata de crear
nuevos entornos multimedia en los que los modelos ofrezcan respuestas en todos
los dispositivos. Dejando a un lado, la cuestión del error, hay problemas con
lo que van a significar estos entornos en términos de mayor control de la
atención e inmersibilidad, de potencia comercial por el trasiego de datos. Dicho
de otra forma, son más preocupantes cuáles son los objetivos prácticos de estas
super-empresas que la fiabilidad epistémica de las respuestas. Da la impresión
de que desean sustituir la Web 2.0 que todos conocemos por un nuevo entorno
dominado por los grandes modelos. La puntuación de confianza que personalmente
daría aquí es bastante baja en lo que respecta a los riesgos sociales.
- En lo que respecta a la sustitución de los puestos de trabajo, la respuesta es también matizada. Ojalá sustituyeran a los trabajos más tediosos. Por ahora, lo que han producido es una enorme cantidad de trabajos tediosos empleados en el entrenamiento de los modelos.
-
¿Podemos confiar en que los modelos generativos
se hagan cargo de la educación? Todos sabemos que están transformando las
relaciones educativas de forma generalizada, creando en el profesorado una
nueva suspicacia que está minando la confianza dentro del aula. Aquí, me parece
que se hace necesario un debate social que implica a todos los actores en la
redefinición de la educación en un entorno en que las bibliotecas y las formas
tradicionales de obtención de información, así como las formas de evaluación compiten
con las producciones de los grandes modelos.
-
En lo que respecta a la ansiedad ecológica, está
plenamente justificada. Por ahora, los grandes centros de datos se instalan en
regiones ricas en agua y con no demasiados escrúpulos para ceder grandes
cantidades de energía a estas nuevas fábricas de información. Nos encontramos
con una nueva versión de la deslocalización de los años ochenta del siglo
pasado, ahora buscando energía y agua más que mano de obra barata.
-
La soberanía tecnológica es, por último, pero no
menos importante, el problema que plantean estos supermodelos. China parece
haber optado por centrarlos en aplicaciones prácticas dejando de lado la
inteligencia general. Me parece una buena idea que podrían imitar muchos
estados, incluyendo la UE y el nuestro.
A modo de conclusión
Como dice el viejo chiste aprovechando el texto que aparece
en el dólar, “in God we trust everyone else pay cash” (“confiamos en Dios,
todos los demás en metálico”). El problema de la confianza en la IA es el
problema de la confianza en las instituciones. La respuesta tiene que ser
matizada: el nuevo entorno de internet dominada por los modelos generalistas ya
es un hecho y más que confianza o no en abstracto exige un nuevo cuidado para
aprender y captar las posibilidades, pero también para hacer un balance de
costos y beneficios en todos los aspectos de la persona la comunidad y la
sociedad.
Puede ser mucho más interesante plantearse la construcción
de modelos por parte de instituciones más confiables, entre las que cabría
incluir los estados democráticos, pero sobre todo las instituciones
científicas, educativas y sanitarias que empleen los modelos para usos
productivos, moral y epistémicamente provechosos y que puedan ser parte de los
bienes comunes.