El desarrollo de la inteligencia artificial continúa a gran velocidad, y a la vez genera complejos —también viejos— problemas. Pero ¿cómo abordar los asombrosos avances tecnológicos de la IA sin conocer realmente cómo funciona?
PABLO ROMERO / PÚBLICO
Camino y Alejandra son una invención. Son dos identidades falsas que ponen cara (también falsa) a una sola cuenta en Twitter. Esta cuenta cambia de nombre constantemente, borra sus tuits con regularidad y parece reactivarse cuando respalda una determinada ideología o para ayudar a neutralizar otros discursos contrarios.
Mariluz Congosto, informática, investigadora y docente especialista en análisis de redes sociales y visualización de datos, ha realizado uno de sus famosos hilos en la red social del pajarito para desenmascarar esta cuenta, que ella cree que es «profesional».
«Que sea cada vez sea más complicado distinguir las imágenes reales de las que son construidas va a complicar a su vez distinguir la realidad de la virtualidad; eso tiene un factor negativo, y es que es que cada vez vamos a ser más manipulables«, comenta a Público Congosto.
Existe un creciente número de generadores de imágenes ‘nuevas’ tanto a partir de otras anteriores como a partir de textos. Todos ellos se alimentan de miles de millones de datos disponibles en la red y compiten entre sí, tanto si son tecnologías propietarias como si son libres.
OpenIA ha desarrollado Dall-E, una potente herramienta que no deja de sorprender por su capacidad para modificar imágenes e «imaginar» mundos, fondos o personajes. Nvidia tiene un potente motor que puede añadir una textura 3D a una fotografía digital con GET3D.
Otros motores populares para ‘regenerar’ imágenes son DreamStudio, desarrollado en abierto por Stability IA [], capaz también de generar imágenes a partir de un texto descriptivo y que puede probarse gratis en algunos lugares como Hugging Face; Midjourney, Craiyon –antes conocido como Dall-E Mini–, el generador de collages de Artbreeder, Jasper Art y, por supuesto, gigantes de internet como Meta (Facebook, Instagram…), que ya cuenta con su propio desarrollo llamada Make-A-Scene.
Hay y habrá muchos más desarrollos en los que se aplica la inteligencia artificial para generar contenidos «propios». Algunos de estos robots pueden ‘imitar’ los sentimientos humanos de manera que suscitan tanto el asombro como el resquemor. Sin embargo, si se tienen en cuenta los procesos detrás de este desarrollo (que se basan en alimentar con datos una máquina de modo que ésta encuentre patrones para, después, realizar predicciones) pueden detectarse sus aspectos nocivos para establecer unos ciertos límites y facilitar su gobernanza.
Límites éticos
El reto de establecer un marco ético a las imágenes ‘automáticas’ «ya apareció hace unos años con la proliferación de herramientas que permitían
hacer, por ejemplo ‘deepfakes’ (modificación de imágenes de manera que se generan identidades falsas hiperrealistas)», comenta a Público Lorena Fernández Álvarez, directora de Identidad Digital de la Universidad de Deusto.
«Un caso muy conocido fue el de DeepNude, que desnudaba fotos de mujeres», recuerda. «Aunque esta herramienta fue finalmente retirada del mercado, actualmente siguen funcionando aplicaciones similares, incluso en canales
dedicados de Telegram y WhatsApp que ofrecen el mismo tipo de servicios».
Para Idoia Salazar, presidenta y cofundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), es importante «tener en cuenta que estos desarrollos no son hechos (al menos por ahora) por la máquina en sí misma, sino que hay una persona detrás que es la que tiene la intención de hacer el bien o el mal«.
Mariluz Congosto apunta, como informática, que es el uso de la tecnología el que puede ser bueno o malo; esta experta recuerda que «existe ya una corriente de investigación ética, para medir qué consecuencias pueden tener estos desarrollos». Para ella, la «transparencia» en los procesos de la inteligencia artificial en general es clave. Una postura que comparte con colegas como Ana Valdivia García, investigadora en el King’s College de Londres y centrada en el uso justo y ético de los procesos automatizados.
«Lo que pasa es que algunos de los algoritmos en este campo [de la inteligencia artificial] son ‘cajas negras’ de tal forma que incluso sus desarrolladores saben por qué funcionan así», destaca, aunque sostiene que «pese a estas complicaciones la ciencia tiene que avanzar, tratar de identificar las consecuencias negativas y, de alguna manera, evitarlas en la medida en que se pueda».
«La confusión en la opinión pública es uno de los grandes problemas del momento»
Salazar coincide con Congosto al afirmar que «la confusión en la opinión pública es uno de los grandes problemas del momento y es algo que se está intentando atajar por parte de las autoridades, tanto nacionales, como internacionales». «La regulación en Inteligencia Artificial, que entrará en vigor en unos dos años, establece normativa específica de transparencia a la hora de hacer ‘deepfakes’ o interacción de las máquinas en lenguaje natural con los humanos», apunta esta experta.
Lorena Fernández apunta que ya «en abril de 2021, la Comisión Europea presentó su propuesta de marco normativo de la Unión Europea sobre inteligencia artificial (EU AI Act), donde se incluyó un primer intento de
regular este fenómeno a nivel de la UE». «Este marco legal establece cuatro niveles de riesgo para clasificar la IA: riesgo inaceptable, alto, limitado y mínimo«, comenta, y añade: «Sorprende que los ‘deepfakes’ estén en el nivel limitado».
Cuando entre en vigor esta regulación, los contenidos generados ‘automáticamente’ deberán estar debidamente identificados como ‘hechos por una IA’ , con el objetivo de minimizar la confusión de la opinión pública. Eso sí, Salazar apunta que «los ‘deepfakes’, en sí mismos, no son un problema, y tampoco la IA: el problema aparece según el uso que los humanos hacemos de esta tecnología«. «Las primeras son muy usadas en la actualidad en la industria cinematográfica, por ejemplo», añade Idoia Salazar, «y no digamos la IA que está revolucionando la sociedad y la economía global». Para ella, «ponerle freno a estos avances mediante leyes excesivas no es recomendable».
Retos sociales
Como ya se ha abordado en varias ocasiones, los desarrollos algorítmicos deberían abordar problemas adicionales, tales como «los sesgos aprendidos por estas herramientas». «Por ejemplo», Explica Lorena Fernández, «ya se ha alertado de que las imágenes que genera Dall-E cuando se le pide que represente ‘nurse’ (enfermero/a), ‘personal assistant’ (asistente personal) o ‘flight attendant’ (tripulación de vuelo) corresponden sólo a mujeres, pero cuando las palabras son ‘lawyer’ (jurista) o ‘CEO’ (consejero/a delegado/a) sólo aparecen hombres».
Estos programas aprenden de grandes conjuntos de datos extraídos de la web, en su mayoría no seleccionados. Para esta experta en identidad digital, «si bien este enfoque ha permitido avances algorítmicos rápidos en los últimos años, los conjuntos de datos de esta naturaleza a menudo reflejan estereotipos sociales, puntos de vista opresivos y asociaciones despectivas o dañinas con grupos ya marginados«. «Sólo un grupo con privilegios tiene capacidad de crear más contenido digital y sirve como ejemplo para crear patrones, representando desde esos privilegios a toda la sociedad en su conjunto», añade, «y estos sesgos no son solo de género: también los hay raciales, de edad, clase social,
religión…».
Otros límites legales
Recientemente, los dos repositorios de imágenes más importantes de internet, Getty y Shutterstok, decidieron restringir -en el caso del primero, de forma explícita- el uso de sus respectivos bancos de imágenes para generar nuevos contenidos mediante inteligencia artificial. Esta postura sigue a otras compañías, como PurplePort y Newgrounds, y a creadores de imágenes que han visto cómo su obra es ‘plagiada’ por un algoritmo para generar imágenes de «nuevos mundos». Aquí nos encontramos ante el legítimo derecho a la protección de la propiedad intelectual.
Es importante destacar que un sistema informático, hoy por hoy, ni tiene capacidad legal ni es sujeto de derecho. Es decir, en España (y en la Unión Europea) no existe aún una normativa al respecto pero sí una serie de orientaciones sobre la llamada ‘personalidad electrónica’. Con carácter general, se entiende que los responsables del fruto de una inteligencia artificial determinada deberían ser quienes la manejasen como herramienta.
Así, por ejemplo, lo destacó la Organización Mundial de la Propiedad Intelectual (WIPO, por sus siglas en inglés), que en diciembre del año pasado ya estableció que no se podía registrar la patente de un objeto cuyo «creador» era un sistema de inteligencia artificial.
Idoia Salazar insiste en que lo que se intenta hacer es «regular o establecer límites sobre casos de uso muy concretos que sí podrían ser perjudiciales para el ser humano». «Es decir, no se regula ni se ponen límites sobre la tecnología en sí misma, sino sobre usos perjudiciales concretos», destaca.
«De esta manera», afirma Salazar a Público, «se pretende hacer inversión en recursos humanos y técnicos para impulsarla, pero cuidando las consecuencias perjudiciales». Ella cree que este tipo de regulación específica generará «una mayor confianza social en el uso e implementación de estas tecnologías, a las que hay asociados tantos prejuicios de ciencia ficción».
La tecnología como aliada
«La propia tecnología nos debería ayudar en esto», sostiene Lorena Fernández, de modo que igual que ahora tenemos herramientas que generan ‘deepfakes’, también existen otras que las detectan. Serñia positivo que las empresas que están haciendo estos desarrollos implementen los límites. «Ahora bien», apunta esta experta, «dejar sólo en sus manos la autorregulación suena bastante peligroso teniendo en cuenta que la ética sólo aparece cuando no colisiona con su modelo de negocio». Fernández alude, por ejemplo, al despido de Timnit Gebru y Margaret Mitchell del área de ética de Google o la disolución por parte de Meta de su equipo de Innovación Responsable, creado para abordar las preocupaciones sobre las desventajas sociales de sus productos. «Por eso es importante y muy necesario realizar auditorías externas de entidades independientes para hacer tecnologías transparentes y responsables en lugar de ‘cajas negras’, trabajos como los que lleva a cabo, por ejemplo, la Fundación Eticas«. «Para que estas aplicaciones sean beneficiosas para el ser humano deben perseguir su bien integral y dignidad, sin olvidarse de nadie por el camino, es decir: deben responder a los problemas de todo el mundo y no sólo a un grupo con privilegios».
Fuente: https://www.publico.es/ciencias/enorme-lio-imagenes-creadas-robots-derechos-autor-falsedad-manipulacion.html#analytics-seccion:listado