El drama vivido esta semana en OpenAI es el reflejo de una batalla mayor: la de los diferentes grupos de interés que intentan hacerse con el control de la IA. Nadie quiere quedarse fuera del próximo gran negocio. Cueste lo que cueste
MANUEL ÁNGEL MÉNDEZ / EL CONFIDENCIAL
En algún lugar de California este verano, cientos de ingenieros de OpenAI asistieron a un extraño ritual. El científico jefe de la empresa, Ilya Sutskever, encargó a un artista local esculpir una figura de madera que simbolizase las amenazas existenciales de la IA. Sutskever se llevó la efigie al evento, la plantó delante de los atónitos empleados y le prendió fuego. Era su forma de escenificar el compromiso de OpenAI con la seguridad: la empresa jamás pondría en riesgo a la humanidad con su tecnología. Nadie imaginaba en ese momento que Sutskever se convertiría meses después en el impulsor del despido de Sam Altman al frente de OpenAI. Altman, triunfal, ha ganado el pulso, pero tanto el episodio de la hoguera improvisada como lo ocurrido esta semana en OpenAI reflejan el arranque de una guerra mucho más amplia por el control de la inteligencia artificial. Bienvenidos a la batalla entre bandos rivales que va a definir el futuro (y nuestras vidas).
El arrebato pirómano de Sutskever, narrado por varios empleados a The Atlantic, define muy bien el primero de estos bandos en liza. Se compone de un grupo heterogéneo de científicos, ingenieros, académicos y filósofos que defienden un desarrollo de la IA pausado y regulado, acotado por medidas de seguridad que eviten que esta tecnología se acabe convirtiendo en un riesgo para la humanidad.
Suena a serie distópica de Netflix, pero algunas de las mentes más brillantes de este planeta están convencidas de que, si no se toman las precauciones necesarias, la IA se puede convertir en un nuevo tipo de «bomba nuclear» capaz de destruirnos. Una de las figuras más destacadas de este movimiento es el británico Geoffrey Hinton, considerado uno de los padres de la IA. Hinton abandonó en mayo su puesto en Google para hablar con libertad de los peligros de esta tecnología. «Nos movemos a un periodo en el que, por primera vez, podemos tener cosas más inteligentes que nosotros. […] Si pudiéramos detener a la IA cuando quisiéramos [para que no tome control de la humanidad], sería fantástico, pero no está claro que podamos hacerlo», explicaba hace poco al programa 60 minutes de la CBS.
Además de un mentor, Hinton es una suerte de guía espiritual para Ilya Sutskever. No solo dirigió su tesis sobre redes neuronales en la Universidad de Toronto, también escribieron juntos varios papers y trabajaron en Google en el desarrollo de TensorFlow, un software libre usado para entrenar IA. Tras Hinton, Sutskever se ha convertido ahora en una de las voces más prominentes en aplicar a la IA un movimiento conocido como «altruismo efectivo»: la creencia de que, bien controlada, la IA puede generar una era de prosperidad inimaginable, pero que en las manos equivocadas traerá consecuencias catastróficas. El argumento defiende que, como la inteligencia artificial general (AGI) —aquella que iguala o supera las capacidades del ser humano— es inevitable y llegará en los próximos años, es mejor destinarla a hacer el bien que el mal.
Hinton, Sutskever y una larga lista de investigadores e ingenieros firmaron una carta este año avisando del riesgo de extinción de la humanidad provocado por la IA. «Mitigar esta amenaza debe ser una prioridad mundial junto con otros riesgos a gran escala, como las pandemias o la guerra nuclear«, rezaba el documento. Solo un puñado de españoles aparecen en la lista de firmantes, entre ellos Juan Pavón, profesor titular de Lenguajes y Sistemas Informáticos en la Universidad Complutense de Madrid. «Estos sistemas son cajas negras. No sabemos por qué hacen determinadas cosas, su comportamiento es muy difícil de depurar por lo complejos que son. Pero no creo que debamos ser drásticos y frenar en seco su desarrollo», explica a El Confidencial este especialista en IA.
Sutskever y sus seguidores no defienden una parada en seco, pero sí un desarrollo responsable, más pausado. Eso fue justo lo que hizo saltar por los aires a OpenAI esta semana. Mientras Sam Altam lanzaba producto tras producto a velocidad de vértigo, su consejo de administración se llevaba las manos a la cabeza por la falta de control. Ese consejo, formado por cuatro personas, estaba dominado por altruistas más o menos convencidos como Sutskever; Helen Toner, directiva de un think tank de la Universidad de Georgetown, y Tasha McCauley, miembro de la ONG Effective Ventures.
Altman y Toner habían tenido ya varios encontronazos por este motivo. Toner había criticado de forma velada la prisas en OpenAI y Altman intentó echarla, pero sin éxito. En realidad, las tensiones entre el grupo de altruistas que abogaban por frenar el ritmo de la empresa y los que impulsaban todo lo contrario, con Altman a la cabeza, fueron constantes durante el último año. Hasta que todo estalló. Otro de los bandos en disputa por el control de la IA se frotaba las manos.
«El culto al altruismo efectivo de los miembros del consejo de OpenAI podría haber privado al mundo de los enormes beneficios de la inteligencia artificial», escribía hace unos días Vinod Khosla, cofundador de Sun Microsystems y de la inversora Khosla Ventures, y socio inicial en OpenAI. Khosla es una de las vacas sagradas de Silicon Valley y una figura prominente de otro grupo que aspira a dominar la IA: los aceleracionistas. El inversor Marc Andreessen definió muy bien este movimiento en un polémico manifiesto: «Creemos que la inteligencia artificial es nuestra alquimia, nuestra piedra filosofal. Estamos logrando que la arena piense», escribía. Cualquiera que se interponga en el desarrollo libre de la IA debe ser considerado un «enemigo».
Soy aceleracionista, pero no mucho
Andreessen ha popularizado un término que venía circulando online desde hace meses. Se trata del aceleracionismo efectivo, una respuesta al altruismo efectivo abanderado por Hinton y Sutskever. Igual que el aceleracionismo clásico promulga la expansión radical del capitalismo, el aceleracionismo efectivo defiende el avance tecnológico por encima de todo. «La tecnología es la gloria de la ambición humana, la punta de lanza del progreso. Podemos avanzar hacia una forma superior de vida», señala Andreessen. Es tecnooptimismo en estado puro, una corriente que también gana adeptos en otros países.
«Me considero aceleracionista, pero no un libertario radical. El progreso viene del avance tecnológico, y no del freno. Creo que tiene que haber cierta regulación: si la IA cae en malas manos puede causar un daño potencial importante. Pero esa regulación no puede ser muy restrictiva, te cargas el progreso», explica a este diario Javier Andrés, creador de un chatbot de IA en WhatsApp llamado Luzia. En solo ocho meses, Andrés ha recibido 13 millones de euros de financiación y uno de sus principales inversores es precisamente Vinod Khosla.
Muy pocas startups españolas pueden presumir como Luzia de un arranque tan fulgurante o de tener como socio a Khosla. Más de 10 millones de personas le preguntan cosas a este asistente al menos una vez al mes, tanto en castellano como portugués, los dos idiomas que cubre. «Cuando vimos ChatGPT, pensamos ¿por qué no aplicar esto a WhatsApp, el chat más popular del mundo?», dice Andrés. Igual que miles de startups de IA, se lanzaron a una carrera frenética por ser los primeros, por cerrar millones de financiación e improvisar sobre la marcha. ¿Modelo de ingresos? Ya se verá. Lo que cuenta es moverse rápido. Fundar, crecer, vender. Toca ser aceleracionista por definición, pero, como dice Andrés, «no un radical».
TE PUEDE INTERESAR
La jugada maestra de Microsoft: cómo le está ganando a Google una partida históricaManuel Ángel Méndez
Tal vez justo por eso existe un tercer grupo en discordia que aspira a dominar la IA con otra estrategia: decir una cosa en público y hacer la contraria de puertas hacia dentro. No hay etiqueta oficial, pero la de «oportunistas» iría bien encaminada. Su representante más evidente es Elon Musk. El pasado marzo, Musk junto a otros 33.700 científicos, académicos e ingenieros firmaron una carta pidiendo una moratoria inmediata de seis meses en el desarrollo de la IA por los «profundos riesgos que supone para la sociedad y la humanidad». Ocho meses después, Musk anunciaba Grok, un chatbot de IA para plantarle cara a ChatGPT.
¿Oportunismo o hipocresía?
Algo parecido, aunque de una forma mucho más sutil y manipuladora, es lo que está haciendo Sam Altman. El CEO de OpenAI firmó diversos manifiestos avisando del poder destructivo de la IA, encargó estudios sobre los trabajos que eliminará su tecnología y viajó por Europa pidiendo regulación, pero, a la vez, intentó despedir a consejeros críticos de su estrategia por ir demasiado rápido y ha convertido OpenAI en una apisonadora, lanzando producto tras producto desde el anuncio de ChatGPT, en una de las estrategias comerciales más agresivas y exitosas de las últimas décadas en Silicon Valley. Igual que él, el CEO de Microsoft, Satya Nadella, o el de Google, Sundar Pichai, se han visto obligados a acelerar el desarrollo de la IA a la vez que avisan de los riesgos. ¿Oportunismo? ¿Hipocresía?
«Esto me recuerda mucho a lo que hacen los abogados. Puede que haya dos personas, A y B, en total desacuerdo, pero un abogado bueno es capaz de escribir una frase que ambos interpreten de forma diferente y los dos a su favor. Con Altman creo que pasa algo parecido. Se cree sus propias contradicciones. Todos lo hacemos. Es capaz de decir que la IA es un riesgo existencial y a la vez lanzar un producto sin testearlo bien antes», explica José Manuel Molina, catedrático del área de Ciencias de la Computación e Inteligencia Artificial en la Universidad Carlos III.
«Nadie sabe a qué peligros nos enfrentamos con la IA, luego es imposible prevenirlos, al menos de momento. Imagina que en los años 40 hubiéramos detenido la investigación nuclear por sus posibles riesgos desconocidos. Hoy no tendríamos energía nuclear ni miles de innovaciones. Cuando entendimos el riesgo de las bombas nucleares, se actuó. Con la IA creo que deberíamos hacer algo parecido, dejarla libre hasta que sepamos qué tenemos que prohibir«, explica Molina.
¿De verdad hay que preocuparse?
El último ejemplo de la lucha de estos tres grupos por el relato y el control de la IA se conoció poco después de cerrarse el culebrón de OpenAI. Un grupo de empleados de la compañía habría avisado antes del despido de Altman de un nuevo avance que suponía «un riesgo para la humanidad». Se trata, supuestamente, de Project Q* (leído Q-star), un desarrollo muy cercano a la inteligencia artificial general (AGI). Pero ¿por qué tanta insistencia con el riesgo para la humanidad? ¿Qué tiene la AGI que asusta tanto?
Asier Gutierrez Fandiño, exingeniero del BCN Supercomputing Center y, entre otros cargos, asesor del Gobierno en IA, señala a este diario que «no existe una definición única de AGI», pero sería una máquina «capaz de programarse ella sola y aprender por su cuenta». Para explicar las diferencias entre lo que tenemos ahora entre manos y el cambio que podría suponer Q*, este experto toma de punto de partida GPT-4. «Ha sido entrenado sobre cualquier dato que encuentre en internet. Lo que ocurre es que llevan a cabo un posterior entrenamiento por refuerzo, que es, por así decirlo, unas esposas para tenerlo controlado y que le impidan irse por un lado o por otro y dar resultados inesperados. Aun así, hay gente que consigue romper esas ataduras”, resume.
Con la inteligencia artificial general podría ocurrir lo mismo, pero sin que un humano le pida nada. “Es cierto que se le introducen unos datos de inicio con lo que se le explicaría cómo funcionan las cosas, pero, a partir de ahí, en lugar de programar funciones adicionales (como mandar un correo), le das acceso a la consola de comandos y aprende a enviarlo. Este funcionamiento le permite, por así decirlo, programarse sin intervención humana”, detalla. A diferencia de los actuales modelos de lenguaje, tendría más memoria. “No es una tecnología tan senil como la actual, donde es el humano el que introduce la experiencia en el modelo. Aquí iría aprendiendo e incorporando esa experiencia y esa prueba-error a su conocimiento sin supervisión”.
Fandiño pone un ejemplo muy revelador. «Imagina que la IA actual gobernase una pizzería y recibiera un pedido de una pizza con jamón york y queso. Habría que programarla para que, si no queda jamón, ponga beicon. Si no se le indica eso, le dirá al cliente que no puede atender el pedido. Sin embargo, con la AGI, al estar diseñada para formarse por sus propios medios, podría poner un ingrediente alternativo sin consultar para completar el pedido. Si no le gusta al cliente, podría aprender que tiene que preguntar primero o hacer un pedido online en la charcutería más cercana. Además de aprender cómo recibir llamadas mediante la programación que hay detrás de conectarse a la antena, contestar, colgar…».
«Lo de la pizzería suena anecdótico, pero imagina que tienes un sistema al que le pides hackear todos los ordenadores de una multinacional o las centrales nucleares de un país. Va a estar buscando soluciones por sí mismo hasta satisfacer tu petición», alerta Fandiño. “Aunque le pongas medidas de seguridad, no estaría asegurado que, como tiene capacidad de acceder a la consola de comandos y de programación, no aprenda a saltárselas si alguien se lo pide de la manera adecuada”, remata.
¿Será Q* el avance que nos acerque por fin a la inteligencia artificial general o al abismo de la autodestrucción? Todo depende de a quién se le pregunte. Alguien como Geoffrey Hinton pondría el grito en el cielo. Marc Andreessen, varios millones sobre la mesa sin pestañear. Y Elon Musk avisaría del riesgo de extinción en público para crear su propio Q* en privado. Solo hay una cosa clara: Sam Altman, el gran oportunista, está ganando a todos por goleada.
Fuente: https://www.elconfidencial.com/tecnologia/2023-11-26/sam-altman-openai-control-ia-etica_3779476/