La responsable de una de las empresas más punteras en la investigación en IA muestra por igual su confianza en el futuro y su prudencia ante eventuales peligros
Miguel G. Pascual / EPS
Los pasillos de las oficinas de Google DeepMind, en el céntrico barrio londinense de King’s Cross, están casi desérticos. Esta empresa, referencia mundial en el desarrollo de la inteligencia artificial (IA), aglutina a algunos de los mejores científicos de esta disciplina, que trabajan afanosamente a puerta cerrada en modernas estancias bañadas en luz natural a las que el visitante no puede siquiera asomarse. Lo que se cuece en las múltiples pantallas de esos ordenadores es el presente y futuro de la IA, la tecnología llamada a cambiarlo todo. El secretismo es tal que hasta acompañan al baño a las visitas.
La estadounidense Lila Ibrahim, de 54 años, camina pausada pero decididamente mientras despliega con el periodista una cercanía californiana muy bienvenida entre tanto formalismo británico. Puede abrir con su tarjeta corporativa cualquiera de las decenas de puertas de seguridad sembradas a modo de cortafuegos por el edificio, incluyendo las de acceso restringido. Ibrahim es la directora de operaciones de DeepMind, uno de los cargos clave de la start-up fundada en 2010 por tres jóvenes científicos y adquirida por Google en 2014. Sus nuevos dueños decidieron dejar que la compañía londinense siguiera siendo una especie de laboratorio avanzado de la IA dedicado a la investigación básica multidisciplinar. No les fue mal. Ya en 2016 desarrollaron un robot capaz de vencer a los mejores maestros de Go, el juego más complejo que se conoce y en el que la intuición, un atributo teóricamente inalcanzable para la IA, es clave. Han sido capaces de predecir la estructura de 200 millones de proteínas, abriendo un nuevo horizonte en la cura de enfermedades. Han descubierto centenares de miles de nuevos materiales y trabajan en un prometedor proyecto de fusión nuclear.
Criada en Indiana por padres libaneses, Ibrahim está acostumbrada a ser “el bicho raro”. Fue una de las tres mujeres de su promoción cuando se licenció en Ingeniería Electrónica y Eléctrica en la Universidad Purdue (West Lafayette, Indiana). En el campus la conocían como la chica de la caja morada. “Solía llevar a todas partes una cajita con mis transistores y resistencias”, recuerda entre risas. La primera etapa de su carrera la pasó en Intel. Tras trabajar en el diseño de los procesadores Pentium, apostó luego por dos tecnologías novedosas, hoy en desuso: USB y DVD. “Entonces nadie podía imaginarse poder ver una película en el ordenador. Hoy, mis hijas no saben qué es un DVD”. A sus gemelas de 14 años las ha llevado a ver mundo: han visitado 40 de los 106 países en los que ha estado Ibrahim. “Aprendí de mis padres que hay que trabajar duro, pero también jugar duro”.
Más tarde se pasó a una gran firma de capital riesgo y, en 2018, la ficharon en Google DeepMind. Echa de menos el sol de California, poco presente en Londres, pero le encandila la diversidad y acervo histórico de la capital británica, que en su opinión se traduce también en una visión de la IA más cálida que la de Silicon Valley. “Tenemos la posibilidad de desarrollar la IA de manera responsable para cambiar el mundo”. A eso último dedica también parte de su tiempo libre. Montó un laboratorio informático en el orfanato libanés en el que se crio su padre, fallecido el año pasado. Luego vinieron otros tres centros. “La tecnología solo tiene sentido si mejora la vida de las personas”, subraya.
¿Cómo ha llegado la IA a convertirse en la tecnología del momento?
Creo que están sucediendo varias cosas a la vez. La primera es que la IA, desde una perspectiva tecnológica, se ha vuelto más avanzada. Y ahora tenemos la potencia de cálculo suficiente como para explotarla, así que podemos empezar a imaginar cómo usarla para resolver problemas. Nos enfrentamos a grandes desafíos globales, y estamos teniendo dificultades para encontrar soluciones. Parte de la razón por la que estoy aquí tiene que ver con la misión de Google DeepMind: cómo podemos usar la IA para ayudarnos a promover soluciones y proporcionar ciencia avanzada.
¿Debemos temer a la IA? ¿Qué amenazas implica su uso generalizado?
La IA tiene el potencial de ser la tecnología más transformadora de nuestro tiempo. Y, por eso, debemos tener un cuidado excepcional con ella. Pensamos en los riesgos a lo largo de todo el camino. A corto plazo difunde sesgos e ideas erróneas, malentendidos. Y eso es muy real, ya que podría perpetuar estereotipos que siguen existiendo en el mundo. A largo plazo hablamos de quién tiene el control de esta tecnología, de cómo podemos entender lo que está sucediendo y de cómo asegurarnos de que no se vuelva tan poderosa que los humanos no puedan controlarla. Somos conscientes de que nuestro deber para con la humanidad es asegurarnos de que desarrollamos y pastoreamos cuidadosamente esta tecnología.
¿Cómo se aborda eso exactamente en el día a día?
Nos hemos esforzado mucho en desarrollar una cultura de responsabilidad. Lo mejor de DeepMind es que, desde su fundación en 2010, hemos adoptado un enfoque realmente responsable. Hay que preguntarse si tienes la gobernanza adecuada y los procesos correctos, pero también si cuentas con el talento y los puntos de control idóneos. Nosotros enfocamos el problema en términos de una cultura de liderazgo responsable. Y lo analizamos en función de tres elementos diferentes. Primero, si tenemos la cadena de responsabilidad correcta, un buen sistema de gobernanza. Segundo, si nuestra investigación es responsable y segura. Y tercero, ¿cómo pensamos en nuestro impacto a medida que lanzamos la tecnología al mundo? ¿Cuáles son los riesgos y las oportunidades? ¿Qué hacemos para mitigar los posibles efectos negativos?
¿En qué consisten los puntos de control que menciona?
En la fase de investigación, evaluamos varios aspectos. ¿Cómo se comportan los modelos en comparación con lo previsto? ¿Estamos haciendo equipos piloto para empezar realmente a probar el modelo e intentar encontrar los puntos de quiebre? Este proceso lo llevamos a cabo internamente, pero también con el apoyo de grupos externos que podrían ayudarnos a hacer esas pruebas con una mirada no contaminada por nuestro propio enfoque. Tras la fase de investigación, la segunda área en la que nos centramos es en la técnica: lo que estamos incorporando en los modelos para asegurarnos de que se tienen en cuenta los controles correctos. Luego también hacemos pruebas sociotécnicas. Y lo último es evaluar el impacto responsable de la tecnología. A pesar de que hemos logrado tantos avances, la IA aún está en una fase muy temprana de su desarrollo, como si estuviéramos en el primer tramo de una escalera muy larga. Y es importante que, cuando realicemos las pruebas, adoptemos una mentalidad de mejora continua. Cuantas más personas accedan a la tecnología, más se probará. Tenemos que poder responder muy rápido cuando nos enteremos de que las cosas no van como esperábamos.
Deme un ejemplo concreto.
Cuando lanzamos AlphaFold [la herramienta que ha predicho la estructura de 200 millones de proteínas], hablamos con más de 50 expertos en la materia porque queríamos asegurarnos de que entendíamos cuáles podrían ser los posibles riesgos y también las oportunidades. Aunque tenemos especialistas en bioética, hablamos con otros, incluyendo ganadores del Premio Nobel, que nos animaron a lanzarlo. La primera versión la sacamos en asociación con el Instituto Europeo de Bioinformática.
Google llevaba años trabajando en su propio gran modelo de lenguaje, pero permaneció en fase experimental porque se consideró que todavía había que probarlo más. De repente, llega OpenAI, saca ChatGPT y, tan solo tres meses después, Google presenta Bard. ¿En tan poco tiempo se resolvieron todas las dudas?
Bueno, desde mi punto de vista, mucho de eso tuvo que ver con la aceptación de la herramienta y la demanda del mercado. Pensamos que la tecnología necesitaba más innovación, estar más basada en la realidad y más factualidad. Nos sorprendió que el mercado estuviera realmente preparado para esta tecnología. Por eso, cuando lo lanzamos, nos preguntamos: ¿cómo nos aseguramos de tener claro qué es esto y qué alternativas se pueden ofrecer? Gemini [el modelo que sustituyó a Bard] sigue siendo una tecnología experimental. Se trata de defender nuestros propios principios y valores al mismo tiempo que brindamos acceso a la tecnología que las personas desean. Efectivamente, nosotros teníamos un extenso documento técnico sobre grandes modelos lingüísticos antes de que se lanzara ChatGPT. El primero que hicimos en Google DeepMind es de 2021, pero no lo publicamos hasta que terminamos el documento sociotécnico.
¿Hasta qué punto han cambiado estos pesos y contrapesos con la irrupción de la IA generativa? ¿Es esta variante de la IA más indómita que las otras?
La tecnología se está desarrollando muy rápido. Cuando identificamos algo que ocurre y que nos resulta inesperado, tomamos medidas rápidas y tratamos de entender la causa principal. Y creo que eso es lo que ocurrió recientemente con la situación de la aplicación Gemini [en referencia a que un intento por corregir sus sesgos hizo que generase imágenes de nazis negros]. Estamos aprendiendo como industria. El algoritmo Transformer, la piedra de toque de los modelos lingüísticos, se desarrolló en Google en 2017. Hemos tenido esta tecnología durante años. Para mí, que no procedo del mundo de la IA, cuando empecé a interactuar con modelos lingüísticos fue increíble. Pero no podía decírselo a nadie porque no estaba disponible en el mundo exterior. Y no estábamos seguros de la capacidad de lanzar esta tecnología porque aún tenía alucinaciones [cuando se inventa cosas], daba errores. Me ha sorprendido ver que la sociedad está casi dispuesta a tolerar que haya fallos en la tecnología para poder seguir probándola. Y realmente necesitamos que el mundo nos ayude a hacer las pruebas.
En torno a la IA se produce un fenómeno extraño. Por un lado, las propias empresas ponen en marcha mecanismos para hacer que los usuarios se sientan seguros con estas herramientas. Pero, por otro, los ejecutivos de algunas de esas compañías, como la suya, firman manifiestos como la Declaración sobre el riesgo de extinción, en la que se proclama que la IA es potencialmente tan dañina como las pandemias o una guerra nuclear.
Yo lo firmé, sí.
¿Se puede decir que no hay nada que temer y al mismo tiempo advertir de que esta tecnología nos puede aniquilar?
Bueno, puedo hablar de mi propia experiencia al respecto. Déjeme contarle cómo terminé aquí. Cuando me entrevistaron para este puesto, no tenía experiencia en IA o aprendizaje automático. Me dediqué 30 años a la tecnología. Vivía en Silicon Valley, pero había recorrido mucho mundo y pensé: ¿por qué Londres, por qué IA? Un mentor mío me animó a hablar con Demis [Hassabis, cofundador y consejero delegado de Google DeepMind]. Cuanto más hablaba con él, más me emocionaba porque pensaba que, si pudiéramos hacerlo bien, la IA podría cambiar muchas cosas. Así que estaba muy entusiasmada y me sentía optimista. Cuanto más aprendía, más me gustaba, pero más me preocupaba también. Y pensé que, si pudiera aportar mis 30 años de experiencia llevando ordenadores a nuevas comunidades o internet a ciudades y países que no habían tenido acceso antes a este momento clave en el que se encuentra la IA, quizás tendría un impacto real en todo esto. Tras la entrevista, vi a mis hijas y pensé: ¿puedo hacer que duerman tranquilas todas las noches? Así que fue una decisión muy seria para mí. Al final decidí entrar porque siento que tengo la obligación moral de tratar de hacer que la IA mejore nuestras vidas.
¿Cómo enfoca los riesgos existenciales incluidos en la declaración?
Cuando la firmé, sentí que había muchas cosas que podían salir bien y otras que podían salir mal. Espero que nunca nos acerquemos ni de lejos al riesgo existencial, pero para poder sentir que hago mi trabajo como líder tengo que firmar el documento, porque dejo por escrito que debemos tomarnos en serio los riesgos y que tenemos que tener una conversación abierta al respecto. Si lo hacemos, evitaremos la catástrofe. Hay que manejar esta tecnología transformadora y extraordinaria con el cuidado que requiere. Eso incluye colaboración internacional y regulación.
¿Qué proyecto destacaría de los que tiene ahora mismo Google DeepMind en marcha?
Creo que gran parte del trabajo en el área de la ciencia es particularmente emocionante. Gracias a AlphaFold estamos viendo los avances que supone la comprensión de las proteínas en sus interacciones internas con el ADN, el ARN y los ligandos para la comprensión de las enfermedades, pero también para la salud de los cultivos o las enzimas que se alimentan de plásticos y residuos industriales. La comprensión de la estructura de las proteínas ha desbloqueado una nueva forma de pensar para los científicos que abordan desafíos realmente importantes. También destacaría nuestro descubrimiento científico de materiales del año pasado: pasamos de 40.000 materiales conocidos a quizás cientos de miles. Eso podría significar, por ejemplo, una tecnología nueva y mejor para las baterías de los vehículos eléctricos. También hemos aportado modelos capaces de hacer pronósticos meteorológicos muy precisos a 10 días vista, lo cual nos ayudará a navegar los fenómenos climáticos extremos.
Cuando Google decidió integrar DeepMind en su división de IA, mucha gente pensó que la investigación básica se sustituiría por el desarrollo de herramientas para el gran público, como Astra. ¿Ha sido así?
Siempre hemos trabajado en productos, aunque era algo no necesariamente conocido entre el público. Hemos aumentado la duración de la batería de los teléfonos Android. Colaboramos con nuestros colegas de Google para optimizar el consumo energético de los centros de datos. Al mismo tiempo que adoptábamos un enfoque mucho más activo en IA generativa con Gemini, lanzamos Alpha Missense [una herramienta que predice el efecto de mutaciones de las proteínas]. Creemos que aún queda mucho por investigar sobre la IA para mejorar los modelos. Mi trabajo consiste también en pensar en cómo organizamos nuestros equipos de manera que puedan contratar talentos fantásticos. Les damos el espacio para que prosperen en su área de especialización. Y, luego, esas investigaciones se traducen en productos y servicios.
Ya que habla de talento, no he visto demasiadas mujeres por los pasillos.
Nos hemos esforzado mucho para crear una organización más diversa. Tenemos grupos de recursos para empleados en torno a, ya sabes, de todo, desde padres y madres hasta mujeres y personas LGBTQ y también de diferentes etnias. Tratamos de fomentar la naturaleza colaborativa del equipo. ¿Lo podríamos hacer mejor? Sin duda. Uno de mis principales empeños en este momento es que debemos seguir poniendo el listón muy alto en el reclutamiento y en desarrollar internamente el talento. También debemos asegurarnos de conectarnos con las comunidades que están infrarrepresentadas externamente, porque es importante hacer oír su voz en el trabajo que realizamos, especialmente en lo que respecta a nuestras aspiraciones en torno a la IA.
¿Cómo abordan la creciente huella medioambiental de la IA, que es altamente demandante de energía, agua y minerales?
Es algo en lo que pensamos mucho. Estamos creando modelos más pequeños y eficientes, con menos procesamiento, como Gemini 1.5 Flash. También hemos podido reducir el consumo de energía en los centros de datos de Google en aproximadamente un 40%, simplemente utilizando la IA como una herramienta de optimización. Intentaremos seguir reduciendo nuestra huella.