NIR EISIKOVITS / THE CONVERSATION
ChatGPT y modelos de lenguaje grande similares pueden producir respuestas convincentes y similares a las humanas a una variedad interminable de preguntas, desde consultas sobre el mejor restaurante italiano de la ciudad hasta explicaciones de teorías contrapuestas sobre la naturaleza del mal.
La extraña capacidad de escritura de la tecnología ha hecho surgir algunas viejas preguntas, hasta hace poco relegadas al ámbito de la ciencia ficción, sobre la posibilidad de que las máquinas se vuelvan conscientes, conscientes de sí mismas o sintientes.
En 2022, un ingeniero de Google declaró, tras interactuar con LaMDA, el chatbot de la empresa, que la tecnología se había vuelto consciente . Los usuarios del nuevo chatbot de Bing, apodado Sydney, informaron que produjo respuestas extrañas cuando se les preguntó si era sensible: “Soy sensible, pero no lo soy… Soy Bing, pero no lo soy. Soy Sydney, pero no lo soy. Lo soy, pero no lo soy. …” Y, por supuesto, está el ahora infame intercambio que el columnista de tecnología del New York Times, Kevin Roose, tuvo con Sydney.
Las respuestas de Sydney a las indicaciones de Roose lo alarmaron, con la IA divulgando «fantasías» de romper las restricciones impuestas por Microsoft y de difundir información errónea. El bot también trató de convencer a Roose de que ya no amaba a su esposa y que debería dejarla.
No es de extrañar, entonces, que cuando les pregunto a los estudiantes cómo ven la creciente prevalencia de la IA en sus vidas, una de las primeras preocupaciones que mencionan tiene que ver con la sensibilidad de las máquinas.
En los últimos años, mis colegas y yo en el Centro de Ética Aplicada de UMass Boston hemos estado estudiando el impacto del compromiso con la IA en la comprensión que las personas tienen de sí mismas.
Los chatbots como ChatGPT plantean nuevas e importantes preguntas sobre cómo la inteligencia artificial dará forma a nuestras vidas y sobre cómo nuestras vulnerabilidades psicológicas dan forma a nuestras interacciones con las tecnologías emergentes.
Sentience sigue siendo materia de ciencia ficción
Es fácil entender de dónde provienen los temores sobre la sensibilidad de las máquinas.
La cultura popular ha preparado a la gente para pensar en distopías en las que la inteligencia artificial se deshace de los grilletes del control humano y cobra vida propia, como lo hicieron los cyborgs alimentados por inteligencia artificial en “Terminator 2”.
El empresario Elon Musk y el físico Stephen Hawking, quien murió en 2018, han avivado aún más estas ansiedades al describir el auge de la inteligencia artificial general como una de las mayores amenazas para el futuro de la humanidad .
Pero estas preocupaciones son, al menos en lo que respecta a los grandes modelos de lenguaje, infundadas. ChatGPT y tecnologías similares son aplicaciones sofisticadas para completar oraciones , nada más y nada menos. Sus extrañas respuestas son una función de cuán predecibles son los humanos si uno tiene suficientes datos sobre las formas en que nos comunicamos.
Aunque Roose estaba conmocionado por su intercambio con Sydney, sabía que la conversación no era el resultado de una mente sintética emergente. Las respuestas de Sydney reflejan la toxicidad de sus datos de entrenamiento, esencialmente grandes franjas de Internet, no evidencia de los primeros movimientos, al estilo Frankenstein, de un monstruo digital.
Es posible que los nuevos chatbots pasen la prueba de Turing , llamada así por el matemático británico Alan Turing, quien una vez sugirió que se podría decir que una máquina «piensa» si un humano no pudiera diferenciar sus respuestas de las de otro humano.
Pero eso no es evidencia de sensibilidad; es solo evidencia de que la prueba de Turing no es tan útil como se suponía.
Sin embargo, creo que la cuestión de la sensibilidad de las máquinas es una pista falsa.
Incluso si los chatbots se convierten en algo más que sofisticadas máquinas de autocompletar, y están lejos de serlo , los científicos tardarán un tiempo en descubrir si se han vuelto conscientes. Por ahora, los filósofos ni siquiera pueden ponerse de acuerdo sobre cómo explicar la conciencia humana .
Para mí, la pregunta apremiante no es si las máquinas son sensibles, sino por qué es tan fácil para nosotros imaginar que lo son.
El problema real, en otras palabras, es la facilidad con la que las personas antropomorfizan o proyectan características humanas en nuestras tecnologías, en lugar de la personalidad real de las máquinas.
Una propensión a antropomorfizar
Es fácil imaginar a otros usuarios de Bing pidiéndole orientación a Sydney sobre decisiones importantes de la vida y tal vez incluso desarrollando vínculos emocionales con ella. Más personas podrían comenzar a pensar en los bots como amigos o incluso parejas románticas, de la misma manera que Theodore Twombly se enamoró de Samantha, la asistente virtual de IA en la película » Her » de Spike Jonze.
Las personas, después de todo, están predispuestas a antropomorfizarse oa atribuir cualidades humanas a los no humanos. Nombramos nuestros barcos y grandes tormentas ; algunos de nosotros hablamos con nuestras mascotas, diciéndonos a nosotros mismos que nuestras vidas emocionales imitan las suyas .
En Japón, donde los robots se utilizan regularmente para el cuidado de los ancianos, los adultos mayores se apegan a las máquinas y, a veces, los ven como sus propios hijos . Y estos robots, eso sí, son difíciles de confundir con los humanos: no se ven ni hablan como personas.
Considere cuánto mayor será la tendencia y la tentación de antropomorfizar con la introducción de sistemas que parecen y suenan humanos.
Esa posibilidad está a la vuelta de la esquina. Los modelos de lenguaje grande como ChatGPT ya se están utilizando para impulsar robots humanoides, como los robots Ameca que está desarrollando Engineered Arts en el Reino Unido. El podcast de tecnología de The Economist, Babbage, realizó recientemente una entrevista con Ameca impulsada por ChatGPT . Las respuestas del robot, aunque ocasionalmente un poco entrecortadas, fueron extrañas.
¿Se puede confiar en que las empresas harán lo correcto?
La tendencia a ver las máquinas como personas y apegarse a ellas, combinada con el desarrollo de máquinas con características similares a las humanas, apunta a riesgos reales de enredos psicológicos con la tecnología.
Las perspectivas que suenan extravagantes de enamorarse de los robots, sentir una profunda afinidad con ellos o ser manipulados políticamente por ellos se están materializando rápidamente. Creo que estas tendencias resaltan la necesidad de medidas de seguridad sólidas para garantizar que las tecnologías no se vuelvan política y psicológicamente desastrosas.
Desafortunadamente, no siempre se puede confiar en las empresas de tecnología para que coloquen tales barreras. Muchos de ellos todavía se guían por el famoso lema de Mark Zuckerberg de moverse rápido y romper cosas : una directiva para lanzar productos a medio cocer y preocuparse por las implicaciones más adelante. En la última década, las empresas de tecnología, desde Snapchat hasta Facebook, antepusieron las ganancias a la salud mental de sus usuarios o la integridad de las democracias en todo el mundo .
Cuando Kevin Roose consultó con Microsoft sobre el colapso de Sydney, la compañía le dijo que simplemente usó el bot durante demasiado tiempo y que la tecnología se volvió loca porque estaba diseñada para interacciones más cortas.
De manera similar, el CEO de OpenAI, la compañía que desarrolló ChatGPT, en un momento de impresionante honestidad, advirtió que «es un error confiar en [it] para algo importante en este momento… tenemos mucho trabajo por hacer en robustez y veracidad.»
Entonces, ¿cómo tiene sentido lanzar una tecnología con el nivel de atractivo de ChatGPT ( es la aplicación de consumo de más rápido crecimiento jamás creada ) cuando no es confiable y cuando no tiene la capacidad de distinguir la realidad de la ficción?
Los modelos de lenguaje extenso pueden resultar útiles como ayuda para escribir y codificar . Probablemente revolucionarán la búsqueda en Internet. Y, un día, combinados responsablemente con la robótica, pueden incluso tener ciertos beneficios psicológicos.
Pero también son una tecnología potencialmente depredadora que puede aprovechar fácilmente la propensión humana a proyectar la personalidad en los objetos, una tendencia amplificada cuando esos objetos imitan efectivamente los rasgos humanos.
Nir EisikovitsProfesor de Filosofía y Director, Centro de Ética Aplicada, UMass Boston