Alfredo Toro Hardy
Hace algunos años The Economist bautizó a la revolución tecnológica que va camino a transformarlo todo como la "nueva explosión cámbrica". Con ello aludía al momento en que quinientos millones de años atrás, las formas primarias de vida aparecieron en el planeta. Tomando en cuenta que la expresión más notoria de esta revolución es la inteligencia artificial, la cual se presenta como una potencial forma de vida de rasgos inéditos, el símil es pertinente. Sin embargo, a diferencia de la lenta evolución de la vida en la tierra, con particular referencia a la humana, el avance de la inteligencia artificial viene signado por su naturaleza exponencial.
Para entender este último concepto, identificado con la duplicación de su capacidad en cortos períodos de tiempo, leamos lo dicho por Ray Kurzweil uno de los padres de la inteligencia artificial dentro de otro contexto: “La secuencia del genoma humano se inició en 1990 cuando se pudo pasar revista a una diez milésima parte de éste, llevándolo a dos diez milésimas partes al año siguiente. Dicha secuencia llegó a 1 por ciento luego de 7 años y medio de iniciado el proyecto. Muchos dijeron en ese momento que se trataba de un fracaso pues a ese ritmo pasarían 700 años antes de concluirlo. Lo que no se daban cuenta es que ese 1 por ciento sólo tenía que duplicarse 7 veces para llegar a 100 por ciento y dado que la secuencia se duplicaba cada año, el proyecto genoma pudo concluir 7 años después” (Leia Parker, Silicon Valley Business Journal, September 6, 2016).
Esta capacidad de avance exponencial constituye, en efecto, la esencia de la inteligencia artificial. Su aptitud para abrir horizontes inéditos, al costo de una incertidumbre también inédita, entusiasma y espanta. No en balde, la misma se identifica con las nociones de utopía y distopía. El concepto de utopía, valga recordarlo, fue acuñado por Tomás Moro en el siglo XVI al describir una sociedad ideal. Ejemplo clásico de una sociedad utópica, siglos antes de que el concepto mismo fuese inventado, vino planteado por la obra de Platón la República. La idea de distopía, de su lado, proviene de John Stuart Mill en el siglo XIX. Esta, evoca la idea de una sociedad opresiva en la que el ser humano se ve acorralado. Ya en tiempos recientes una amplia literatura nos presenta ejemplos de sociedades distópicas. Un Nuevo Mundo Feliz de Aldous Huxley, 1984 de George Orwell o Fahrenheit 451 de Ray Bradbury caerían en ese rubro.
Entre los que visualizan a la inteligencia artificial bajo la óptica de la utopía se encuentran Ray Kurzweil así como la institución académica por él creada, la Singularity University. Bajo esta perspectiva, los grandes avances que se avecinan en áreas tan diversas como lucha contra las enfermedades, la energía limpia o las ciudades inteligentes, permiten avizorar un futuro cargado de esperanza. Otro tanto señala Kevin Kelly en su obra The Inevitable, para quien nos encontramos a una década de la cura del cáncer o de la eliminación de los accidentes de tránsito. Peter Diamandis y Steven Kotler en su obra Abundance nos hablan también de un mundo caracterizado por la abundancia.
Los que identifican la inteligencia artificial bajo el signo de la distopía, son figuras de mucho peso. Entre ellos sobresalía Stephen Hawking, uno de los mayores científicos de nuestro tiempo, quien advertía que dicha inteligencia podía conducir al fin de la raza humana. Elon Musk pionero del vehículo sin chofer y de la nueva tecnología espacial, sustentados en los avances de la inteligencia artificial, mantiene una paradójica relación con ésta, en la que sin embargo prevalece el temor ante sus efectos impredecibles. Yuval Noah Harari en Homo Deus plantea que los seres humanos resultaran tan irrelevantes intelectualmente ante la inteligencia artificial como las gallinas lo son frente a los humanos. Para los personajes citados el riesgo reside en que el ser humano no logre controlar sus propia creación, posibilitando un efecto Frankenstein. Se trata de una visión cónsona con la planteada hace muchos años por Arthur C. Clarke en su 2001 Odisea en el Espacio o por series cinematográficas como Terminator o Matrix. Sin llegar tan lejos, Martin Ford en Rise of the Robots visualiza a una sociedad signada por el desempleo y la regresión social en la que una pequeña camada de billonarios, en control de la tecnología, se vuelca excluyentemente sobre sí.
A primera vista el significado de la inteligencia artificial no podría pintarse en blanco y negro. La cura del cáncer, por ejemplo, debería colocarse en la balanza con un desempleo masivo y estructural. Se llegaría a estar en presencia, por tanto, de beneficios y perjuicios mayúsculos que deberían sopesarse entre sí. Ángeles y demonios competirían por definir la naturaleza de esta tecnología. Lo único que si constituiría un peligro absoluto y no redimible sería la posibilidad de que ésta, al igual que el Skynet de Terminator, tomase el control del planeta en perjuicio de la civilización humana.
Lo cierto es que los temores frente a los riesgos de la Inteligencia parecieran estar prevaleciendo abiertamente frente a las esperanzas que ella invoca. En una famosa carta abierta de marzo de 2014, firmada por más de ocho mil científicos y empresarios de la tecnología del más alto nivel, se hacía un llamado a no dejar que la inteligencia artificial saliese del control humano. Otro tanto ocurrió con una carta abierta de enero de 2015 en la que Stephen Hawkings, Elon Musk y docenas de expertos en inteligencia artificial pedían que no se permitiese que ésta se volviese autónoma, lo cual podría conllevar a riesgos existenciales para la humanidad. A lo largo de este año, y a raíz de la aparición de ChatGPT, aparecieron dos cartas abiertas de mucho significado. La primera correspondió al mes de marzo. En ella, 1.100 signatarios abocados a esta área del conocimiento y donde destacaban figuras como Musk y Steve Wozniak, solicitaban a los laboratorios del mundo una pausa de seis meses en el desarrollo de esta tecnología para reflexionar mejor en como mantenerla bajo control. A finales de mayo, una nueva carta firmada por los presidentes de las principales compañías de inteligencia artificial del mundo, así como por cientos de científicos y expertos en este campo, advertía que el riesgo de extinción humana asociado a esta tecnología debía ponerse a la par con los de una guerra nuclear o una pandemia global. A juicio de sus signatarios, ello debía conducir a definir estándares técnicos globales e imponer regulaciones y salvaguardas.
Así las cosas, entre los propios expertos el riesgo distópico resulta sustancialmente mayor al de la visión utópica. Siendo así, sólo cabría esperar que el sentido común y el instinto de auto preservación humano, que tan mal han funcionado en relación a las armas nucleares o al cambio climático, funcionasen mejor en este caso.