Hace unos años (2005) el futurólogo Ray Kurzweil escribió una especie de manifiesto sobre el proceso, o acontecimiento (en un sentido muy heideggeriano), llamado "singularidad": el momento en el que la inteligencia artificial sobrepasaría con creces la inteligencia humana y crearía un escenario completamente nuevo para la existencia de la humanidad. Recientemente el Journal of Consciousness Studies, (volumen 19 1-2/ 7-9) ha dedicado dos volúmenes a discutir la verosimilitud y consecuencias de esta especie de profecía.
El argumento, resumido en pocas palabras, es que hay una posibilidad plausible de que, si no hay modificaciones, la Inteligencia Artificial evolucione hacia formas progresivamente más "inteligentes" y, alcanzado un cierto umbral de capacidad de almacenamiento y velocidad de procesamiento, se pasaría a un estadio nuevo de inteligencia que es lo que se denomina "singularidad".
En tal estadio, se argumenta, podrían ocurrir dos direcciones: una, benevolente, que implicaría una trascendencia de la forma actual de existencia humana (formas de, por ejemplo, "uploading" la mente a un sistema artificial, que llevaría a una cierta forma de inmortalidad) o, por el contrario, a formas malévolas que destruyeran la existencia humana (al modo de las distopías de Terminator)
Caben dos formas de responder filosóficamente. La primera es reírse a carcajadas de que aún haya gente que se dedique a estas cosas (aunque Kurzweil & Co., verosímilmente se reirían aún más porque con estas tonterías ganan mucho más dinero que los filósofos de a pie con argumentos de ética o fenomenología). La otra opción es discutir esta posibilidad contrafactual mostrando que a) es posible y deseable (hay muchos que lo piensan), b) es posible e indeseable, c) es imposible técnicamente o, d) si es posible, no tiene que ver con la existencia humana porque equivoca los términos.
Tengo que hablar en un par de días sobre el tema y reparo en que no tengo bien formada una opinión al respecto puesto que me atraen mucho las dos alternativas. Reírme o ironizar es una tentación en estos tiempos de recortes mundiales de la investigación (no militar). Pensar que se está dedicando tiempo y dinero a estas divagaciones cuando estamos en una situación mundial como la presente suscita esta tentación. Pero no me acabo de dejar llevar por ella por muchas razones. Una de ellas, inductiva, es que observo con asiduidad que muchos filósofos se dejan llevar por la tentación de la ironía y el sarcasmo antes de haber entendido el problema (o quizá porque no lo han entendido). No citaré nombres ni libros, aunque parece haberse impuesto ahora una moda de escribir con más ingenio y humor ácido que con claridad y contundencia. En filosofía hay un principio profesional de igualdad democrática de las ideas. Por muy locas que parezcan, el no considerarlas es a veces uno de los mayores errores históricos. Las más tontas a veces son las causantes de las mayores catástrofes. La segunda línea, la de pararme un tiempo a darle vueltas al asunto, también me atrae, aunque sé que es una moda académica del momento. Tiendo a situarme en la posición d), inspirado por la línea wittgensteiniana de que "si un león hablara no podríamos entenderlo" (es decir, si hubiera tal inteligencia no podríamos entenderla, lo mismo que los designios divinos o el "lenguaje" del viento). Creo que pensaré sobre estas posibilidades, pero no tengo formados aún argumentos dignos de tal nombre, ni siquiera una opinión clara al respecto.
Y hay una tercera posibilidad que me inquieta y atemoriza tanto como para no atreverme a pensarla. Es la de que la singularidad ya ha ocurrido y estamos en ella. Estamos en una crisis en la que el capitalismo financiero nos ha metido porque sus nuevos productos y técnicas informáticas sobrepasan con mucha distancia la capacidad de reacción reflexiva y política, y realimentan, además, la misma distancia que han generado. Los modelos matemáticos y los sistemas de predicción sobre los que se basan las decisiones habrían alcanzado una velocidad de crucero más alta que la capacidad colectiva de reacción ante ellas. Estaríamos pues, ya, en un apocalipsis del que aún no habríamos tomado conciencia.
Aquí también hay dos opciones filosóficas. Una, aún estamos a tiempo de pensarlo y de pararlo. Dos, siempre fue así, lo único que antes lo llamábamos historia y ahora tecnología. CONTINUARÁ.
Si que es inquietante la última opción, sí, y habría que ver entonces quién es el sujeto de la historia, el nuevo lugar del ser humano. Se me ocurre otra posibilidad sobre la que pensar: que sea o no factible una ética del no poder (es decir, que sea o no posible frenar esta tendencia apocalíptica desde el principio ético de "aceptar no hacer todo lo que el hombre es capaz") Vamos, que el hecho de que una opción sea indeseable, no significa que pueda ser sustituida por otra. La indeseabilidad no tiene por qué ser obstáculo de nada cuando el poder está en pocas manos. Excelente entrada, muy estimulante. Saludos
ResponderEliminarSi la opción es la dos, toda la filosofía de la técnica posibilista broncaniana habría fracasado, algo que no creo y no me conviene ya que en eso se basa mi trabajo doctoral. El determinismo habría ganado. Cuando vi a Kurzweil en Redes, acá en Colombia, y su teoría de que todo es información y las piedras despertarían, quedé en un pieza, no sé si fue porque no lo entendí o porque no sé. Abrazos maestro Broncano. Alvaro Monterroza
ResponderEliminar