Carmen Gómez-Cotta / ethic
El nihilismo de la carrera tecnológica y el vertiginoso desarrollo de la inteligencia artificial (IA), con Estados Unidos y China a la cabeza, conllevan ciertos riesgos para la condición humana. José María Lassalle (Santander, 1966), escritor, profesor universitario y Senior Advisor de Evercom, analiza en su último libro, ‘Civilización artificial’ (Arpa), lo que supone filosóficamente para la humanidad impulsar el desarrollo de «algo que está siendo programado para ser alguien consciente». Al hacerlo, advierte, «estamos queriendo darle al ser humano la capacidad para ser sustituido en su imperfección por algo perfecto que coloque a los humanos por detrás de ese alguien». Por eso, no duda que debemos «identificar para qué queremos la IA».
Civilización artificial, sólo el título invita a la reflexión. ¿Qué caracteriza este progreso hacia el que nos encaminamos de la mano de la IA?
La caracteriza un presupuesto inevitable que describió Isaac Asimov en los años 50 cuando escribió Yo Robot y nos advirtió de que lo único inevitable en el futuro son las máquinas. Civilización artificial reflexiona sobre el impacto que tendrá la IA como soporte de una vida maquínica que convivirá con la vida humana.
Un título que, a la vez, provoca cierta congoja…
Hay un punto inquietante, sí. Parece que es una cierta contradicción vincular civilización a humanidad y artificial a un componente inauténtico con respecto a lo humano. Esa es la tensión que acompaña a la reflexión que propongo: una confrontación entre la autenticidad humana y la inautenticidad a la que puede conducir al ser humano la convivencia con realidades inmersivas gestionadas por la IA.
Planteas dos modelos de IA: una nihilista, liderada por EE. UU. y China, y otra más humanista, con Europa a la cabeza. ¿Cuál te parece más idónea o atractiva? ¿Podemos considerar una más perfecta –o imperfecta– que la otra?
Todos los sistemas de IA están diseñados sobre un soporte que califico de nihilista –también los europeos, hasta la aprobación del reglamento–, porque su diseño busca desarrollar capacidades que se transforman en una voluntad de poder sin propósito. En el caso chino está claramente vinculado a un paradigma de Estado-plataforma que ejerza un control absoluto sobre su población y que dote a China de un poder hegemónico. Y en Estados Unidos es una propuesta neoliberal que traslada esa capacidad hegemónica a las corporaciones, que desarrollan un mercado digital basado en el egoísmo, los deseos, los anhelos más inconscientes que definen al ser humano cuando se relaciona con la tecnología. Europa quiere pensar otro tipo de IA. Por lo menos, a nivel teórico, viene diciéndonos que su proyecto es humano-céntrico y ético. Lo que sucede es que el reglamento no ha sido capaz de incorporar las dimensiones éticas que den a la IA ese componente humanista para no convertirse en algo potencialmente distópico.
Mencionas la Ley de Inteligencia Artificial, aprobada en marzo de 2024 por el Parlamento Europeo. ¿La consideras insuficiente?
Creo que es un primer paso fundamental y qué bien que los europeos hayamos sido capaces de mover ficha y desarrollar una primera regulación, en la medida en que Europa ha sido capaz de ir desarrollando en este campo regulaciones que se han convertido en estándares internacionales –como ha pasado con la privacidad o la intimidad alrededor del reglamento de datos–. Este es un primer paso; lo que sucede es que la aproximación ética que se hace responde a un ética utilitarista que identifica riesgos y que trata de controlarlos buscando el bienestar del mayor número. Pero por el camino nos dejamos una visión que debería ser más aristotélica, más fundamentada en un propósito que respondiera a por qué queremos una IA y para qué la queremos; es decir, no tanto respondiendo a una lógica de utilidad, sino de responsabilidad.
Entonces, después de este primer paso, ¿crees que el siguiente irá por el sendero de esa responsabilidad?
Ojalá vaya tras ese propósito que permita al ser humano identificar para qué quiere la IA, definiendo el sentido último de la misma. Lo que pasa es que se nos ha cruzado la geopolítica de las máquinas, que está muy relacionada con el calentamiento global que provoca la geopolítica. Por una lado, está el calentamiento de la huella de carbono y, por otro, el geopolítico que genera el enfrentamiento entre Estados Unidos y China por alcanzar la hegemonía tecnológica a través de la IA –y que también repercute en la huella de carbono: el sostenimiento de todo este diseño se basa en la nube y el consumo de energía que [esta] provoque en 20 años va a representar casi el 30% del impacto [de CO2]–. Creo que, en el futuro, Europa debería profundizar en si es capaz de neutralizar la presión que proyecta la geopolítica sobre su idea de soberanía tecnológica, abriéndole la oportunidad para ofrecer un estándar global que permita hablar de una IA humanista.
Teniendo en cuenta que Estados Unidos y China van a la cabeza, no parece que la responsabilidad se vaya a imponer, de momento, en el modelo más nihilista de IA…
No, y, si gana Trump, las atribuciones que la orden presidencial de octubre de 2023 atribuyen al presidente de los Estados Unidos, que lo ha convertido en un AI Commander in Chief y que le permite alinear todas las capacidades tecnológicas de acuerdo con la seguridad nacional, pueden aumentar la beligerancia con la que Estados Unidos está instrumentalizando el uso de la IA. La seguridad nacional, a través del ámbito de las armas letales autónomas que se han convertido en una de las manifestaciones más directas de la IA o de sus usos más plásticos, busca ejércitos con capacidad mortífera absoluta. Lo estamos viendo ahora mismo en Gaza con el uso de armas letales por parte del ejército israelí.
La velocidad vertiginosa a la que avanza la IA pone en evidencia que se nos escapa, que va por delante de nuestra propia capacidad para asimilarla y aprender a gestionarla. No cabe duda de que debemos desarrollar regulaciones más ambiciosas y empoderarnos para poder gobernarla antes de que nos gobierne ella, como sugieres en el libro. ¿Por qué no hemos empezado a regularla antes? ¿Miedo, desconocimiento, falta de interés legislativo?
La técnica legislativa es muchas veces utilitaria y trata de identificar los riesgos previsibles para proyectar sobre ellos los mecanismos de control regulatorio. En este caso, no estamos ante una tecnología facilitadora, sino sustitutoria, con una capacidad de incrementalidad de su poder que desborda la imaginación humana y, especialmente, jurídica cuando quiere identificar los riesgos y generar un marco de seguridad normativa. Si fuéramos al origen de un diseño regulatorio basado en el propósito y en el sentido que queremos dar, entonces tendríamos una capacidad para fijar límites desde otra dimensión. Pero esto colisiona mucho con la mentalidad positivista de nuestro derecho. Este es uno de los problemas que acompaña a la regulación de una tecnología que, insisto, es sustitutoria: busca replicar el cerebro humano y las capacidades cognitivas que se traducen en el trabajo intelectual, sin las imperfecciones humanas. El problema es que, a veces, al analizar la IA, nos dejamos por el camino su ADN utópico.
¿A qué te refieres exactamente con «su ADN utópico»?
Utópico porque está conectando la utopía con los orígenes de la ciencia moderna y la idea que toma Hobbes en De Homine de Novum Organum, de Francis Bacon, de que el conocimiento es poder. Por eso hay una pulsión fáustica en el desarrollo de la IA que nos lleva a la utopía: porque lo que estamos queriendo hacer es darle al ser humano la capacidad para ser sustituido en su imperfección por algo perfecto, que quiere ser alguien consciente, con una súper inteligencia que coloque a los humanos por detrás de ese alguien. Ese es el riesgo que no somos capaces de definir, porque los tecnólogos no están educados en las humanidades; pero, sobre todo, no están educados en la parte de las humanidades que conecta el conocimiento histórico con el mito, con la simbología y todo lo que, de alguna manera, ha ido acompañando antropológicamente a la cultura. Estamos adentrándonos en el riesgo de la creación en sus orígenes más profundos.
Lo que me lleva a pensar en todos los creadores detrás de los avances de la IA (valga como ejemplo el caso de ChatGPT) que advierten de la necesidad de pararnos y reflexionar sobre su desarrollo descontrolado y sus posibles consecuencias.
Porque no pensamos el horizonte de una manera plenamente consciente. El horizonte es un escalado de posibilidad que progresa en su capacidad de acción y se piensa que quien gestiona esa capacidad de acción –el ser humano– va a poder seguir controlando su incrementalidad. Pero nos olvidamos de que dicha capacidad se la estamos atribuyendo al ser humano a través de algo que quiere ser alguien consciente, pero sin conciencia y, por tanto, sin un código moral –que no ético– que tiene que ver con los límites biográficos del ser humano, con la vida, con esa limitación natural de la inevitabilidad de la muerte, el envejecimiento, los cuidados que tiene que estar constantemente dispensando a su entorno afectivo. El ser humano está programado orgánicamente para experimentar el límite y las consecuencias de las trascendencias de sus acciones. Y eso es lo que, por mucho que queramos darle a la máquina introduciendo sesgos éticos, no va a entender. Porque el soporte de la máquina es sintético. No experimenta la caducidad que experimentamos como seres humanos. Eso es un factor que plantea unos riesgos que no son tangibles en lo inmediato, pero que están generando una cadena de consecuencialidad que puede llevar a que la máquina sea capaz de desarrollar estados mentales propios. Y ahí nos enfrentaremos a una alteridad radical sobre la que no podemos empatizar.
Una cosa está clara: el desarrollo de la IA debe ser en pos del bien común. Pero en estos tiempos que corren de falta de empatía, crispación, creciente polarización, ¿cómo se logra algo así?
Si el desarrollo competitivo de la IA lo están haciendo dos súper potencias que están luchando por la hegemonía planetaria buscando tener empresas más competitivas, ejércitos más letales y gobiernos con mayor capacidad de control social, ¿cómo vamos a garantizar, a nivel estructural, el desarrollo de una IA para el bien común? Se está desarrollando dentro de una lógica amigo-enemigo smithiana a nivel geopolítico. Y luego, a nivel social, cada democracia está viviendo la polarización, la confrontación creciente de unos con otros, la incapacidad para identificar el bien común a través de un consenso normativo. Tenemos un problema mayúsculo. La democracia está fallando en sus bases deliberativas –que no participativas–, [por lo que] es muy difícil orientar el desarrollo de la IA hacia un bien común compartido.
Como bien apuntas en el libro, la IA modifica las condiciones económicas y sociales que dieron lugar al Estado del bienestar. ¿Cuáles son las principales consecuencias de la IA en las democracias actuales?
Que hacen inviable la propia democracia liberal, basada en un pacto capital-trabajo que ha garantizado políticas que buscaban neutralizar la desigualdad y que, desde la Revolución Industrial hasta la aparición del Estado del bienestar después de la II Guerra Mundial, han ido impulsando los cambios que han universalizado la democracia. Pero el segundo soporte era que, precisamente la Revolución Industrial había liberado al ser humano del trabajo físico para orientarlo hacia el trabajo intelectual. De ahí surgió la generalización de la clase media: el ingeniero, abogado, médico, arquitecto que desarrollaba trabajos intelectuales a través de un conocimiento especializado. Y esa clase media se rompe cuando va viendo cómo se le arrebata el nivel de renta que espera obtener de su trabajo intelectual. Uno de los datos detrás de la crisis política está en que la clase media cada vez obtiene menos remuneración de su trabajo intelectual, porque el valor intelectual del trabajo humano dentro de los PIB de las economías automatizadas es cada vez menor. Y no tenemos una alternativa a esto. Ya Obama en su discurso de despedida presidencial en el Congreso en 2014 advirtió de ello, del colapso de las clases medias debido a las tecnologías. El problema de la democracia liberal es que se está produciendo un desalineamiento de la clase media respecto de los principios de la democracia.
¿Eres optimista respecto al futuro a corto-medio plazo de la IA?
Sí, si somos conscientes de alinear todos estos activos críticos que se están desarrollando en el seno de las sociedades democráticas alrededor de las preocupaciones e inquietudes que genera la IA. Lo estamos viendo entre distintos grupos de tecnólogos, de movimientos activistas que tratan de promocionar la cultura de los derechos digitales, de la mano de Europa cuando impulsa un Reglamento sobre IA, de los intentos de la administración Biden por embridar a las grandes corporaciones tecnológicas, de una constitución como la chilena que pretende incorporar los neuroderechos como derechos fundamentales. Hay toda una cultura crítica activándose que debería traducirse –como pasó con el cambio climático– en un desarrollo de estrategias de sostenibilidad aplicadas a la ética que acompañe [al avance de] la IA. Porque la IA más competitiva y más potente sería la que tratara de imitar al ser humano en su imperfección; lo cual implicaría dotarla de conciencia y de capacidad de alteridad. Ese sería el gran reto. Tal vez, la herramienta para comprender ese reto esté en manos de ese acompañante incómodo que ha sido la teología. A lo mejor, a partir de ahora, tenemos que aprender de Dios y recuperar su presencia y todo lo que representa para encontrar las respuestas que ahora mismo, desde la ciencia aplicada a la IA, no tenemos.
Fuente: https://ethic.es/2024/05/entrevista-jose-maria-lassalle/