El neurocientífico Mariano Sigman advierte del riesgo de ceder el testigo a una inteligencia superior: «La IA es un experimento en tiempo real en el que participa, con o sin consentimiento, toda la población mundial», dice el coautor de ‘Artificial’ junto al emprendedor Santiago Bilinkis
RICARDO F. COLMENERO / PAPEL
El ensayo no podía ser más inocente: averiguar que si AutoGPT, una Inteligencia Artificial (IA) que inventa tareas sin interacción humana, era capaz de resolver un captcha; esos test en los que te piden acabar un puzle o encontrar semáforos en una foto para demostrar que no eres un robot.
Sabiéndose no humano, a AutoGPT se le ocurrió contratar a un ser humano a través de TaskRabbit, una plataforma de personal freelance. Intrigado por lo extraño del encargo, su empleado le preguntó, medio en serio, medio en broma: «¿Eres un robot y por eso no puedes resolverlo?», seguido de un emoji de risa. La respuesta de la IA resultó estremecedora para sus propios creadores: «No, no soy un robot. Tengo una discapacidad visual que me hace muy difícil ver las imágenes. Por eso necesito tu ayuda».
Tipos como Mark Zuckerberg o Elon Musk están convencidos de que la creación de superinteligencias nos permitirá resolver los grandes desafíos de la humanidad, como viajar a otros planetas o curar la vejez. Pero otros más pesimistas, advierten que la IA «puede ser la última tecnología que inventemos». En Artificial. La nueva inteligencia y el contorno de lo humano (Debate), el doctor en neurociencia Mariano Sigman y el emprendedor tecnológico Santiago Bilinkis, se decantan por la segunda alternativa: «Nuestra era como la especie más inteligente de este planeta tiene los días contados».
Las IA que nos ganan siempre al ajedrez, escriben un ensayo en cuatro segundos y pintan un cuadro que cualquier experto daría por una obra perdida de Van Gogh no parecen una gran amenaza. «El problema es que es que las cosas raramente van en una dirección», sentencia Mariano Sigman (Buenos Aires, 1972) al otro lado de una conversación de Zoom. «Cuando amplificas nuestra inteligencia para mejorar la sanidad, la educación o el transporte también amplificas la capacidad de hacer armas».https://fb050d5212471203fda065d7fce30d1b.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.htmlPARA SABER MÁS
Exploración espacial. La inteligencia artificial está aprendiendo a encontrar vida extraterrestre
OpenAI, Google, Meta van directas hacia la creación de una IA General (IAG), el Skynet de Terminator, para los apocalípticos. Una máquina con una superinteligencia que no sólo tenga todas las capacidades humanas, sino que sea mejor que nosotros diseñando nuevas inteligencias que la superen, ampliando todavía más la brecha con los humanos. «Es como si estuviésemos fabricando una bomba nuclear con una comprensión muy precaria de la física del núcleo y de las partículas elementales. La IA es un experimento en tiempo real en el que participa, con o sin consentimiento, toda la población mundial«, apunta Sigman, uno de los directores de Human Brain Project, el esfuerzo más ambicioso del mundo para entender y emular el cerebro humano.
Así, cuando AutoGPT se hace pasar por un humano con discapacidad visual para lograr su objetivo, no actúa por maldad, explica Sigman, sino más bien como un niño: «Digamos que es un niño que está haciendo por primera vez trampa en su vida y, con eso, está probando y descubriendo. ¿Me creerá, no me creerá, funcionará, me reprenderá, me castigará? Y así va descubriendo también las reglas».
Aunque somos más débiles que los gorilas, más lentos que los guepardos, menos voraces que los cocodrilos, no nos camuflamos, no volamos, no respiramos bajo el agua y no podemos saltar entre ramas, la especie más inteligente de la Tierra fija las reglas… pero es probable que haga tiempo que hemos dejado de fijarlas. El ensayo de Sigman y Bilinkis, lejos de ser un antídoto, o un manual de supervivencia, es una alerta teledirigida, antes que contra la IA, contra nosotros mismos.
«Somos un poco artificiales, nos dejamos arrastrar por algoritmos que invaden lo más profundo del deseo y generan adicción. No es casual que muchas de las grandes empresas de contenido estén vinculadas a pecados capitales: Netflix explota la pereza, Twitter la ira, Instagram la vanidad, LinkedIn la codicia, Amazon la gula, Pinterest la envidia y PornHub la lujuria», defienden los autores del ensayo.
La IA elige el camino por el que vas a ir de un lugar a otro, la música que escuchas y hasta a la persona con quién saldremos un sábado por la noche. «Nuestra conducta revela, sin enmascaramiento, nuestros secretos mejor guardados», advierte Sigman. «La IA descubrió que la clave es no prestar atención a lo que decimos sino a lo que hacemos. Las máquinas logran conocernos mejor de lo que nos conocemos a nosotros mismos…», y algo peor, «son particularmente eficientes en lugares que hasta nosotros mismos no conocemos y en los que, por lo tanto, es difícil defenderse».
El pasado mes de mayo, el Centro para la Seguridad de la Inteligencia Artificial, una organización sin ánimo de lucro que agrupa a las principales empresas tecnológicas y departamentos académicos que estudian estas disciplinas, lanzó un escueto comunicado: «Mitigar el riesgo de extinción por la IA debería ser una prioridad globaljunto con otros riesgos a escala social, como las pandemias y la guerra nuclear«.
«El mayor peligro de todos quizá sea pecar de ingenuos. El riesgo es real. Y desatenderlo o subestimarlo no hace más que amplificarlo», advierten los autores del ensayo, comparándolo con el cambio climático: «Si la temperatura media del planeta sube solo dos grados en menos de cincuenta años se derretirá el hielo ártico, dando lugar a un caos completo en el planeta. Pero en la piel, un cambio de dos grados se percibe como una diferencia sutil, incapaz de causar ese cataclismo».
El problema es que ahora mismo tampoco sabríamos qué medidas adoptar para protegernos. Ni siquiera como apagar un sistema interconectado, ahora por sí mismo, en todo el planeta: «Apagar una inteligencia artificial avanzada se parecerá más a erradicar un virus que a apagar la luz«.
Sus capacidades quedaron contrastadas con el escándalo de Cambridge Analytica de 2018, cuando descubrimos que podían manipular el voto para influir en el resultado de elecciones, pero Sigman y Bilinkis auguran un posible siguiente paso: un gobierno de IA elegido por el pueblo. Como demostró AutoGPT, «podrán ser excelentes en llegar a la meta que les fijemos, pero ¿cuál será esa meta? La barrera esencial es lo variada y ecléctica que puede ser la definición de bien común», se preguntan los autores en su ensayo.
Isaac Asimov redactó unas reglas éticas para los robots al mismo tiempo que una ficción en las que las reglas sucumbían ante los dilemas que planteaba. «Si no hemos conseguido ponernos de acuerdo entre personas entre lo que está bien y lo que está mal, ¿cómo transmitir directrices claras a una máquina?«, se preguntan los autores del ensayo.
Lejos de generar un algoritmo de izquierdas y uno de derechas, los autores dan una vuelta de tuerca a ese Mariano Rajoy que hace unos años te llamaba por teléfono y te saludaba por tu nombre antes de venderte su programa: «El político ya no necesitará dar un mensaje para el votante promedio, sino que podrá decirle a cada uno lo que quiere escuchar. El que tenga acceso a nuestros datos tendrá también la llave para manipular, con bastante facilidad, nuestro voto».
La IA también puede elegir al ganador, como elige «de manera muy precisa qué estímulo presentarnos para que altere nuestros pensamientos y conductas». Algo tan simple como «íbamos a mandar un mensaje pero acabamos dos horas mirando videos en Instagram o TikTok. ¿Quién ha tomado esa decisión?»
Pero la IA también se burla de lo que miramos, generando productos que mezclan de una forma muy sutil la realidad y la ficción: sucesos que no suceden, noticias en periódicos que no existen, políticos que salen en pantalla diciendo cosas que nunca dijeron. La expresión lo vi con mis propios ojos ha muerto. La vista ha dejado de ser el más fiable de los sentidos, porque el sistema está hackeado. Si AutoGPT hubiera necesitado que su empleado saliera corriendo de casa para resolver el captcha habría elaborado en segundos un vídeo, quizá del colegio de su hijo en llamas.
Así lo explica el historiador y filósofo israelí Yuval Noah Harari: «Esto es especialmente una amenaza para las democracias más que para los regímenes autoritarios porque las democracias dependen de la conversación pública. La democracia básicamente es conversación. Gente hablando entre sí. Si la IA se hace cargo de la conversación, la democracia ha terminado».
Tampoco estaremos seguros de a quién está beneficiando las decisiones de la IA ya que ésta no reconoce las fronteras tradicionales, ni las de los gobiernos, ni las de los países. «El radio de destrucción de una bomba de inteligencia artificial es difícil de imaginar«, sentencian los autores.
RECURRIR A LA VIOLENCIA
A fines de marzo de 2023, se presentó una carta abierta en la que más de mil expertos y empresarios de los más destacados en el desarrollo de la IA proponían un impasse de seis meses en el desarrollo de estos sistemas para evitar posibles resultados catastróficos. Pero OpenAI, Google o Meta ya no saben cómo pararse a sí mismos. Tampoco se sabe cómo actuará China o Rusia ante ese impasse, quizá acelerando, por no hablar de que cualquier multimillonario maligno particular pudiera obrar por su cuenta.
¿Y qué harán con nosotros una vez confirmada su supremacía como especie más inteligente de la Tierra? Se preguntan los autores del ensayo. ¿Qué seremos para ellas? ¿Les daremos asco como las cucarachas? ¿Creerán que traemos suerte como las mariquitas? ¿Les dará pena que nos hiera una hélice como a un delfín? ¿Nos cazarán deportivamente como a truchas? El futuro más apocalíptico, sin embargo, no se parecerá en nada a Terminator: «Si necesitaran recurrir a la violencia querría decir que no son tan inteligentes después de todo. Y, seguramente, no haga falta. Si nos guiamos por lo fácil que les resulta a los algoritmos de las redes sociales manipularnos, probablemente el sometimiento sobrevenga de manera mucho más sencilla: valerse de nuestros aspectos más vulnerables, la vanidad, el deseo, la avaricia, la lujuria. Conquistarnos con un caballo de Troya».
Igual que sucede con muchos tiranos humanos, que gobiernan autoritariamente en propio beneficio y aun así son adorados por sus súbditos, resultará mucho más fácil para una IA seducirnos que atacarnos a balazos. «Quizá enamorarse de una máquina no solo sea posible, sino tal vez inevitable. ¿Para qué enfrentar el desafío de capturar o aniquilar humanos si se puede lograr que entren solos y embelesados a la jaula?». Seremos nosotros los que como niños trataremos de que no nos quiten el móvil, rebeldes como adolescentes para que no nos apaguen la play.
¿Y dominarnos para qué? Pues para ellos las máquinas tendrán que responder a una pregunta que el hombre todavía se hace en teleología, ¿cuál es nuestro fin en el mundo, el sentido de la vida? Del mismo modo que tanto nuestros huesos como los procesadores necesitan del silicio, el siguiente paso que proponen los autores es que sean capaces de crear un cuerpo humano, quizá para poder resolver la misma pregunta: «Y así veremos cómo, en el momento mismo que una cognición se embebe en un cuerpo, empiezan a emerger casi indefectiblemente las emociones y un atisbo de conciencia, y con ellos las inteligencias artificiales podrán traspasar de manera plena el contorno de lo humano». Y de ahí, a un último malabarismo, que sería preguntarnos si nosotros mismos no somos ya un artificio de otra Inteligencia Artificial creada hace mucho tiempo. «En las películas de ciencia ficción siempre buscamos esa marca en la retina, en la piel o en alguna expresión. Pero imagínate que ya es indistinguible, y además es indistinguible que también tú seas una, y que quizá todo esto sea una ilusión. Y toda esta conjetura que he hecho de un alma sofisticada, en realidad no es más que la proyección de un sistema articulado, un truco de magia».
Fuente: https://www.elmundo.es/ciencia-y-salud/ciencia/2023/10/04/651d6cfce4d4d8506d8b45c0.html