{"id":79915,"date":"2024-07-16T13:00:08","date_gmt":"2024-07-16T18:00:08","guid":{"rendered":"https:\/\/losperiodistas.com.mx\/portal\/?p=79915"},"modified":"2024-07-16T13:53:19","modified_gmt":"2024-07-16T18:53:19","slug":"el-desertor-de-openai-alerta-la-humanidad-va-a-perder-el-control-xl-semanal","status":"publish","type":"post","link":"https:\/\/losperiodistas.com.mx\/portal\/el-desertor-de-openai-alerta-la-humanidad-va-a-perder-el-control-xl-semanal\/","title":{"rendered":"El desertor de OpenAI alerta: \u00abLa humanidad va a perder el control\u00bb | XL Semanal"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\">Trabaj\u00f3 durante a\u00f1os para OpenAi, la gran estrella&nbsp;de la inteligencia artificial que est\u00e1 detr\u00e1s de ChatGPT, Y lo que vio&nbsp;no le deja dormir por la noche. Con otros exempleados, William Saunders ha escrito una carta abierta en la que avisa de la extinci\u00f3n humana. Hablamos con \u00e9l.<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/losperiodistas.com.mx\/portal\/wp-content\/uploads\/2024\/07\/inteligencia-artificial-humanidad-control-openai-1024x1024.jpg\" alt=\"\" class=\"wp-image-79916\" srcset=\"https:\/\/losperiodistas.com.mx\/portal\/wp-content\/uploads\/2024\/07\/inteligencia-artificial-humanidad-control-openai-1024x1024.jpg 1024w, https:\/\/losperiodistas.com.mx\/portal\/wp-content\/uploads\/2024\/07\/inteligencia-artificial-humanidad-control-openai-300x300.jpg 300w, https:\/\/losperiodistas.com.mx\/portal\/wp-content\/uploads\/2024\/07\/inteligencia-artificial-humanidad-control-openai-150x150.jpg 150w, https:\/\/losperiodistas.com.mx\/portal\/wp-content\/uploads\/2024\/07\/inteligencia-artificial-humanidad-control-openai-768x768.jpg 768w, https:\/\/losperiodistas.com.mx\/portal\/wp-content\/uploads\/2024\/07\/inteligencia-artificial-humanidad-control-openai.jpg 1200w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p><\/p>\n\n\n\n<p class=\"has-vivid-red-color has-text-color has-medium-font-size\"><strong>ALEXANDRA KRAFT \/ IMAGEN: MEKAKUSHI \/ XL Semanal<\/strong><\/p>\n\n\n\n<p>arece nervioso y sopesa cada palabra. Se toma su tiempo con sus respuestas. Con raz\u00f3n: William Saunders [en la imagen de abajo] se enfrenta a un enemigo poderoso, la empresa OpenAI, la superestrella de la industria de la&nbsp;<a href=\"https:\/\/www.abc.es\/xlsemanal\/ciencia\/inteligencia-artificial-trabajo-esclavos-algoritmo-adiccion.html\">inteligencia artificial<\/a>. Saunders se juega mucho, pero el exempleado de&nbsp;<a href=\"https:\/\/ms-rc.srv.vocento.in\/xlsemanal\/a-fondo\/ilya-sutskever-el-verdadero-cerebro-de-la-ia.html\">OpenAI<\/a>&nbsp;ya no quiere permanecer en silencio. Desarroll\u00f3 software para esta empresa durante varios a\u00f1os y tambi\u00e9n fue responsable de su seguridad hasta febrero pasado. Junto con otros diez empleados antiguos o todav\u00eda activos de OpenAI y dos empleados de Google DeepMind escribi\u00f3 recientemente una carta abierta en la que advierten que la inteligencia artificial (IA) aut\u00f3noma podr\u00eda destruir a la humanidad. La empresa intenta tranquilizar los \u00e1nimos: \u00abEstamos orgullosos de nuestra tecnolog\u00eda potente y segura\u00bb.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/www.abc.es\/xlsemanal\/wp-content\/uploads\/sites\/5\/2024\/07\/william-saunders-desertor-openai-humanidad-control.jpg\" alt=\"alternative text\"\/><\/figure>\n\n\n\n<p><strong><\/strong><\/p>\n\n\n\n<p><strong>XLSemanal. Usted advierte del fin del mundo. \u00bfC\u00f3mo llega a esta conclusi\u00f3n?<\/strong><\/p>\n\n\n\n<p><strong>William Saunders.<\/strong>\u00a0Creo que solo las personas que trabajan en este tipo de empresas entienden realmente c\u00f3mo se construye la inteligencia artificial y los riesgos. Qu\u00e9 medidas de seguridad existen en realidad y cu\u00e1les son las necesarias. Las empresas de inteligencia artificial est\u00e1n ganando miles de millones de d\u00f3lares prometiendo que van a hacer esta tecnolog\u00eda m\u00e1s inteligente.\u00a0<a href=\"https:\/\/www.abc.es\/xlsemanal\/a-fondo\/sobrevivira-carrera-universitaria-inteligencia-artificial-futuro.html\">OpenAI<\/a>\u00a0dice espec\u00edficamente que quieren hacer que la inteligencia artificial media sea incluso m\u00e1s inteligente que la humana.<\/p>\n\n\n\n<p><strong>XL.&nbsp;\u00bfD\u00f3nde ve la amenaza?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Una vez que estas empresas cuenten con estos sistemas, no hay raz\u00f3n para que dejen de desarrollarlos y mejorarlos a\u00fan m\u00e1s. A cambio, las empresas de IA se ver\u00e1n recompensadas con m\u00e1s dinero todav\u00eda. Esto significa que los sistemas pueden volverse superinteligentes e integrarse en cualquier aplicaci\u00f3n. Pero, una vez que hayan desarrollado esta inteligencia superior, \u00bfc\u00f3mo podemos asegurarnos de que realmente act\u00faen en beneficio de la humanidad? \u00bfO que no quieran manipularnos y nos digan la verdad? \u00bfC\u00f3mo podemos confiar en ellos? Mientras sean menos inteligentes que nosotros, podemos descubrir si el resultado de una b\u00fasqueda en Google es cierto. Pero no podremos hacer eso en el siguiente nivel.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">\u00abOpenAI ya ha demostrado que la inteligencia artificial puede clonar voces. Pronto no podremos confiar en nadie que nos llame por tel\u00e9fono\u00bb<\/h2>\n\n\n\n<p><strong>XL.&nbsp;\u00bfCu\u00e1l cree que es el mayor peligro?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;En el peor de los casos, el resultado final ser\u00e1n sistemas de inteligencia artificial relacionados con el poder y el dinero. Porque as\u00ed surgieron, as\u00ed aprendieron.&nbsp;<a href=\"https:\/\/www.abc.es\/xlsemanal\/a-fondo\/gpt-3-inteligencia-artificial-sistema-educativo-revolucion.html\">Sistemas de inteligencia artificial<\/a>&nbsp;sin un c\u00f3digo moral que los ayude a distinguir entre el bien y el mal. Hoy, para la mayor\u00eda de la gente ya es casi imposible distinguir entre lo que es verdad y mentira. OpenAI ya se est\u00e1 utilizando para difundir masivamente informaci\u00f3n err\u00f3nea e influir en las elecciones. Temo que al final de este desarrollo habr\u00e1 un mundo en el que la humanidad ya no tenga el control.<\/p>\n\n\n\n<p><strong>XL.&nbsp;\u00bfC\u00f3mo de lejos estamos de estos sistemas superinteligentes?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Es dif\u00edcil decirlo. Los pr\u00f3ximos pasos pueden ser lentos, pero tambi\u00e9n repentinos; y eso no me deja dormir por la noche. Otro ejemplo de una evoluci\u00f3n que puede resultar peligrosa es que OpenAI ya ha demostrado que existen sistemas que podr\u00e1n continuar las conversaciones telef\u00f3nicas en el futuro.<\/p>\n\n\n\n<p><strong>XL.&nbsp;\u00bfCon mi voz?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;S\u00ed, una voz de OpenAI. En el futuro ya no sabremos qui\u00e9n habla al otro lado de la l\u00ednea: si es alguien real o IA. Podr\u00e1 clonar voces humanas. Pronto descubriremos que ya no podemos confiar en nadie que nos llame.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">YO ACUSO. LOS 13 INGENIEROS CONTRA LA IA<\/h3>\n\n\n\n<figure class=\"wp-block-image\"><a href=\"https:\/\/www.abc.es\/xlsemanal\/a-fondo\/desertor-de-openai-william-saunders.html#\"><img decoding=\"async\" src=\"https:\/\/www.abc.es\/xlsemanal\/wp-content\/uploads\/sites\/5\/2024\/07\/sam-altman-ceo-openai-inteligencia-artificial.jpg\" alt=\"\"\/><\/a><figcaption>Sam<strong>&nbsp;<\/strong>Altman,<strong>&nbsp;<\/strong>CEO de OpenAI<\/figcaption><\/figure>\n\n\n\n<p>Por Carlos Manuel S\u00e1nchez<\/p>\n\n\n\n<p>La inteligencia artificial est\u00e1 dejando un reguero de cartas abiertas que advierten de sus riesgos. Pero&nbsp;<strong>la \u00faltima misiva marca un hito porque la firman 11 ingenieros de OpenAI, la compa\u00f1\u00eda que lidera la carrera, y 2 de DeepMind.<\/strong>&nbsp;Siete dan la cara (los que se han ido de las empresas), como Daniel Kokotajlo, que denuncia la \u00abcultura temeraria de OpenAI\u00bb. Otros seis la&#8230;<a>&nbsp;Leer m\u00e1s<\/a><\/p>\n\n\n\n<p><strong>XL.&nbsp;\u00bfExisten suficientes medidas de seguridad?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Esto es dif\u00edcil de decir. Incluso si las empresas prometen hacer todo lo posible, las medidas de seguridad pueden eludirse. Dentro de poco, cuando exista una versi\u00f3n de c\u00f3digo abierto, es decir, una versi\u00f3n disponible gratuitamente, cada uno podr\u00e1 hacer con ella lo que quiera. Entonces, no se podr\u00e1 controlar en absoluto.<\/p>\n\n\n\n<p><strong>XL.&nbsp;\u00bfLas empresas como OpenAI son conscientes de su responsabilidad con la humanidad?&nbsp;<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Simplemente se desarrollan m\u00e1s r\u00e1pido de lo que los gobiernos promulgan leyes de protecci\u00f3n. Lo superan todo. En mi opini\u00f3n, esta situaci\u00f3n es un error. Los gobiernos deber\u00edan ser informados con antelaci\u00f3n sobre los nuevos desarrollos, luego habr\u00eda que aprobar leyes y solo entonces deber\u00edan poder publicarse los programas. Con demasiada frecuencia, todo se reduce a un tema de pura velocidad.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">\u00abLos gobiernos deber\u00edan ser informados antes de los nuevos desarrollos, luego aprobar leyes y solo entonces publicar los programas. Todo se reduce a un tema de velocidad\u00bb<\/h2>\n\n\n\n<p><strong>XL.&nbsp;\u00bfSe refiere a la rapidez con la que llegan nuevos sistemas al mercado?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Exactamente. Por supuesto, empresas como OpenAI tienen que preguntarse las consecuencias de lo r\u00e1pidas que est\u00e1n siendo. Me hubiera gustado que se pensara m\u00e1s en ello durante mi estancia all\u00ed. Los lanzamientos se apresuraron solo para cumplir con una fecha espec\u00edfica. Hubo presi\u00f3n para publicar, incluso si eso socavaba los procesos que se supon\u00eda deb\u00edan garantizar la seguridad.<\/p>\n\n\n\n<p><strong>XL.&nbsp;\u00bfCon qu\u00e9 consecuencias?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Un buen ejemplo es el modelo de Bing.<\/p>\n\n\n\n<p><strong>XL.&nbsp;El chatbot con IA del motor de b\u00fasqueda de Microsoft compar\u00f3 a un periodista con Hitler en una prueba poco despu\u00e9s de su lanzamiento. Posteriormente,&nbsp;<\/strong><strong>tambi\u00e9n dijo que ten\u00eda pruebas de que el periodista hab\u00eda cometido un asesinato.<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Todo esto podr\u00eda haberse evitado. No puedo hablar sobre los detalles exactos que llevaron a esto. Pero estoy convencido de que se podr\u00eda haber evitado. Solo quiero que nos tomemos m\u00e1s tiempo para comprender lo que realmente puede hacer la IA. Tenemos problemas conocidos, solucion\u00e9moslos y luego liberemos. Pero eso no fue lo que vi en OpenAI. All\u00ed exist\u00eda una cultura dise\u00f1ada para desarrollar nuevos productos. Y r\u00e1pido. Los reparos solo servir\u00edan para frenar el ritmo.<\/p>\n\n\n\n<p><strong>XL.&nbsp;\u00bfSe sinti\u00f3 presionado?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;S\u00ed, si criticabas algo, la respuesta normalmente no alud\u00eda en absoluto al problema.<\/p>\n\n\n\n<p><strong>XL.&nbsp;\u00bfTiene un ejemplo?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Fue como construir un avi\u00f3n que solo se probara en tierra. Pero como tambi\u00e9n debe volar sobre el agua, alguien advierte sobre los riesgos. Y la respuesta es: \u00abNunca hemos tenido un choque sobre el agua. As\u00ed que comencemos la aerol\u00ednea. Si las m\u00e1quinas caen al agua, lo arreglaremos. No te preocupes\u00bb. Eso no suena tranquilizador. Si tenemos sistemas de IA que funcionan a nivel humano, es decir, que asumen las tareas de los humanos, no queremos sufrir un incidente de la magnitud de un accidente a\u00e9reo. No s\u00e9 si podremos evitar por completo los problemas. Pero quiero que lo intentemos en serio. Y para eso no te arriesgues por una fecha de lanzamiento. Durante mi tiempo en OpenAI, no vi tales esfuerzos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">\u00abDentro de poco, cuando esta IA exista en c\u00f3digo abierto, en una versi\u00f3n gratuita, cada uno podr\u00e1 hacer con ella lo que quiera. Entonces, no se podr\u00e1 controlar en absoluto\u00bb<\/h2>\n\n\n\n<p><strong>XL.&nbsp;Hay informes de que a los empleados que abandonaban OpenAI se les pidi\u00f3 que firmaran las llamadas &#8216;cl\u00e1usulas de confidencialidad&nbsp;<\/strong><strong>estrictas&#8217;. Contratos que les impiden abandonar la empresa y despu\u00e9s criticarla. \u00bfEse tambi\u00e9n fue tu caso?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;S\u00ed, de lo contrario puedes perder tu &#8216;capital adquirido&#8217;, un tipo de participaci\u00f3n accionarial. Para m\u00ed son varios millones de d\u00f3lares. Seg\u00fan el acuerdo, no se me permit\u00eda expresar ninguna cr\u00edtica, incluso si se trataba de hechos conocidos. Solo podr\u00eda haber dicho cosas positivas o nada en absoluto. Es posible que pierda mucho dinero por mi decisi\u00f3n de hablar con usted y con otras personas. Hasta ahora no est\u00e1 claro si OpenAI al final har\u00e1 cumplir esa cl\u00e1usula. Pero el riesgo existe.<\/p>\n\n\n\n<p><strong>XL.&nbsp;En su opini\u00f3n, \u00bfqu\u00e9 podr\u00eda mejorar la situaci\u00f3n en OpenAI?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Deben existir procesos en los que los empleados puedan expresar sus cr\u00edticas, incluso de forma an\u00f3nima si es necesario. As\u00ed funcionar\u00eda una empresa responsable. Seguir\u00eda garantizando el secreto, los conocimientos no se filtrar\u00edan al mundo exterior, pero ser\u00eda posible la cr\u00edtica. Creo que hay muchos empleados en estas empresas que quieren que esto sea m\u00e1s seguro. Pero tambi\u00e9n hay demasiados gerentes cuyo lema es: construyamos esta cosa genial, lancemos y ganemos mucho dinero con ella.<\/p>\n\n\n\n<p><strong>XL.&nbsp;\u00bfAl final todo es cuesti\u00f3n de dinero?<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;S\u00ed, aunque OpenAI en realidad se fund\u00f3 como una empresa ben\u00e9fica sin \u00e1nimo de lucro. Con el objetivo de crear una IA segura y \u00fatil.<\/p>\n\n\n\n<p><strong>XL.&nbsp;Los cr\u00edticos lo acusan de crear escenarios apocal\u00edpticos.<\/strong><\/p>\n\n\n\n<p><strong>W.S.<\/strong>&nbsp;Deber\u00edamos tener derecho a advertir. Y veo un riesgo existencial, lo que se podr\u00eda llamar &#8216;escenarios apocal\u00edpticos&#8217;. Pero mi preocupaci\u00f3n es anticipar lo que deparar\u00e1 el futuro. Me inquieta mucho pensar que pronto podremos tener sistemas que se utilicen en todo el mundo. E incluso que asesoren a presidentes o directores ejecutivos, pero que ni siquiera sepamos si son confiables o si tienen su propia agenda. No quiero despertar en un mundo donde la gente ya no tiene el control. Pero estamos corriendo hacia ese escenario ahora mismo.<\/p>\n\n\n\n<hr class=\"wp-block-separator\"\/>\n\n\n\n<h6 class=\"wp-block-heading\">\u00a9 Stern<\/h6>\n\n\n\n<p>Fuente: <a href=\"https:\/\/www.abc.es\/xlsemanal\/a-fondo\/desertor-de-openai-william-saunders.html\">https:\/\/www.abc.es\/xlsemanal\/a-fondo\/desertor-de-openai-william-saunders.html<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Trabaj\u00f3 durante a\u00f1os para OpenAi, la gran estrella&nbsp;de la inteligencia artificial que est\u00e1 detr\u00e1s de ChatGPT, Y lo que vio&nbsp;no [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":79916,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[8],"tags":[27603,27605,27604],"class_list":["post-79915","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-noticias","tag-alerta-por-ai","tag-humanidad-pierde-control","tag-william-saunders"],"_links":{"self":[{"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/posts\/79915","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/comments?post=79915"}],"version-history":[{"count":1,"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/posts\/79915\/revisions"}],"predecessor-version":[{"id":79917,"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/posts\/79915\/revisions\/79917"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/media\/79916"}],"wp:attachment":[{"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/media?parent=79915"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/categories?post=79915"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/losperiodistas.com.mx\/portal\/wp-json\/wp\/v2\/tags?post=79915"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}