Mariana nader Toro / ethic
Para Carissa Véliz (México, 1986), doctora en Filosofía y profesora de Ética en la Universidad de Oxford, la privacidad es poder. Por eso –advierte– las decisiones que tomemos sobre nuestra privacidad en un mundo globalizado y digital moldearán el futuro de la humanidad durante décadas. Hablamos a través de notas de voz de la red social Signal en esta entrevista «en diferido» sobre «economía de datos», democracia y ética digital.
En Privacidad es poder adviertes de que las empresas y los gobiernos nos están rastreando a cada minuto, utilizan nuestros dispositivos para saber quiénes somos, predecir nuestro comportamiento e influir en él. El desarrollo de nuevas tecnologías ha sido exponencial. ¿Crees que la situación en la que se encuentra nuestra privacidad está siendo cada vez peor?
No es fácil determinar exactamente si nuestra privacidad está mejor o peor que hace tres años. Por una parte, efectivamente sí hay más tecnologías que son muy invasivas y, en particular, la inteligencia artificial generativa ha consumido todo tipo de datos personales y preocupa mucho que no parece que estas empresas puedan cumplir con el Reglamento General de Protección de Datos. Por ejemplo, una empresa como OpenIA no está segura de qué datos tiene sobre ti y tampoco puede corregir los que sean incorrectos, ni mucho menos borrarlos. Pero, al mismo tiempo, cada vez hay más conciencia entre las personas de la importancia de la privacidad y también tenemos más herramientas para protegerla, como Signal, Protonmail, DuckDuckGo. Estos servicios están creciendo a un ritmo muy sano, lo cual sugiere que los ciudadanos están cansados de que se viole su privacidad por doquier y están buscando alternativas que, por otra parte, son cada vez mejores. También, alrededor del mundo vemos que hay más intentos por regular estas tecnologías y ahora mismo se está debatiendo en Estados Unidos una ley federal de la privacidad. No está claro que vaya a salir adelante, pero que esté en el debate público ya es un avance con respecto a hace unos años.
¿Crees que la Ley de Servicios y Mercados Digitales o la Ley de IA que acaba de aprobar la Unión Europea tienen la capacidad de hacer del ciberespacio un lugar más seguro? ¿Más ético?
En general creo que esta regulación es un paso en la dirección correcta; sin embargo, nos falta camino que andar. Creo que hasta que no prohibamos el comercio de datos personales va a ser muy difícil minimizar las amenazas a la privacidad. Mientras uno pueda vender datos personales siempre va a haber la tentación de recolectar más de los necesarios y de venderlos al mejor postor. Otra cuestión que siento que la ley no reconoce suficientemente es la responsabilidad moral que supone convertir algo en datos. Se habla mucho de recolección de datos, como si fueran algo que está allá afuera, como setas en el bosque. Pero cuando se recolectan es que se transforma algo que no era un dato y esa decisión es moralmente significativa, porque los datos personales son muy sensibles, muy difíciles de proteger, y hay mucha gente que los quiere para abusar de ellos; por ejemplo, criminales, gobiernos adversarios, y por supuesto agencias de marketing, campañas políticas.
Además, existen diferentes tipos de datos personales, que van desde los identificativos como el DNI, el teléfono o la dirección postal, hasta los financieros, familiares, las preferencias o aficiones y también están los biométricos. Hace unos meses vimos las filas de cientos de jóvenes vendiendo la foto de su iris a Worldcoin –cofundada por el creador de ChatGPT, Sam Altman–. La Agencia Española de Protección de Datos prohibió que la empresa continuara con el escaneo ocular. ¿Qué consecuencias podría acarrear la venta de datos biométricos?
Uno no da simplemente los datos que quiere dar, sino que da datos a través de los cuales se pueden hacer inferencias. Por ejemplo, cuando tú das datos de tus gustos musicales puede que no te importe que otro los sepa, pero estos se utilizan para, por ejemplo, inferir tu orientación sexual o tu estado de ánimo. Igual no querías darlos, pero no te estabas dando cuenta. Los datos biométricos son particularmente sensibles porque no los puedes cambiar. Cuando tú tienes una contraseña, si la pierdes, hay maneras de cambiarla. Pero si tú pierdes los datos de tu genética, de tu iris o de tus huellas dactilares, pues no se pueden cambiar. Por eso a los expertos en privacidad les gusta tan poco que se usen datos biométricos para cuestiones innecesarias, porque genera un riesgo innecesario. Si estos datos se pierden puede haber robos masivos de identidad y generar problemas no solamente graves para los individuos sino también problemas sistémicos.
Uno de los argumentos para entregar los datos sin mucho sigilo es que todo el tiempo nos están registrando, grabando: en la calle, en el transporte público; se necesita la huella dactilar o el reconocimiento facial para desbloquear nuestro teléfono, para abrir la app del banco. Por eso muchos concluyen que ya no hay mucho que hacer para proteger sus datos. ¿Qué tan cierta es esta postura?
Esa postura es intuitiva pero incorrecta. Porque nunca sabes qué dato va a ser el que termine con un robo de identidad o te termine causando un problema. Y no es una cuestión de blanco o negro, no es como «o mis datos están fuera o no están». Se trata de cuántos datos y cómo se pueden coordinar entre ellos. Una analogía es con la salud: todos somos conscientes de que no es sano comer demasiada azúcar, ahora, si ya te comiste una galleta, ¿eso quiere decir que ya da igual cuánta azúcar comas? Pues no. Cuanta más azúcar comas, más riesgos generas para tu salud. Con la privacidad es lo mismo: mientras más datos pierdas, más riesgos creas. Lo que la gente no tiene en cuenta es que los datos personales tienen una fecha de caducidad bastante corta, o suelen tenerla: la gente cambia de gustos, se enferma, se cura, cambia de casa, de trabajo, y eso quiere decir que los datos más valiosos y más importantes de proteger son los que generas ahora. Además, hay diferencias en quién tiene los datos y para qué. Hay compañías, como Apple, que usan tu cara para desbloquear el teléfono –que a mí me parece un error–, pero también es verdad que esos datos en principio no se deben compartir con nadie. Por lo que la diferencia entre usar tu cara para desbloquear tu teléfono y dársela a una compañía como Worldcoin es abismal. En ese debate necesitamos mucha más educación y más matices.
Contrario a la tendencia mundial, en Alemania cada vez más personas están optando por pagar en efectivo para evitar el monitoreo constante. ¿Es esta una medida viable y efectiva para preservar la privacidad?
Es una medida viable y efectiva. Creo que nunca deberíamos deshacernos del dinero en efectivo. Pero lo mismo aplica para muchos otros ámbitos de la vida. Por ejemplo, vamos a comparar dos posibilidades: comprar un ebook en Kindle o ir a tu librería de la esquina y pagarlo en efectivo. En el caso del Kindle no solamente es que el libro electrónico es menos robusto que el de papel, lo tienes que poner a cargar, no lo puedes llevar a la playa fácilmente porque si le entra arena se va a echar a perder, no se ve tan bien en el sol, se puede hackear. Y sobre todo: te están vigilando, saben exactamente a qué velocidad lees, qué pasajes te llaman la atención, qué subrayas, y están monetizando todos esos datos y uniéndolos a tu tarjeta, a lo que has comprado y lo que has visto online, tratando de perfilarte en una personalidad u otra. En cambio, el libro en papel no lo tienes que cargar, se puede caer de un edificio y probablemente sobreviva, y además es realmente tuyo. No sé si has tenido esa experiencia de estar leyendo un libro electrónico y de pronto hay una actualización y se cambian o te borran partes, lo que te recuerda que no es tuyo, habrás pagado por él, pero no es realmente tuyo, no como un libro de papel. Y, claro, cuando uno se imagina dentro de un régimen democrático, no parece demasiado grave que las corporaciones o el gobierno o ambos sepan qué lees. Pero en cuanto te imaginas un gobierno menos benévolo, te das cuenta de lo importante que es para la libertad de pensamiento.
Has dicho que, mientras las empresas tengan acceso a nuestros datos, no podremos estar seguros de que no se utilizarán para mal, pues no existe una policía de datos que los vigile. ¿Cuán utópico sería que algún día se creara esa «policía de datos» que proteja nuestra información? ¿Qué se requeriría?
No es utópico, en absoluto. Desde luego, entre lo ideal y la situación actual hay mucho camino por andar. Y más importante todavía que tener una policía de datos es prohibir el comercio de datos personales. Al prohibirlo, se lucha contra el incentivo de recolectar la mayor cantidad posible.
Más allá de los datos personales, en la era de la economía de la atención y del «capitalismo de la vigilancia», ¿también está en juego nuestra privacidad mental?
Hasta cierto punto, la privacidad siempre es mental [risas]. Por ejemplo, si alguien tiene acceso a los datos de tu buscador, tiene acceso a muchos de tus pensamientos, a lo que te está preocupando, si te preocupa algo de salud, si estás buscando la solución a un problema, si estás buscando un préstamo. Y, en algunos sentidos, es todavía más grave que se pueda acceder a tu buscador que a tu cerebro, porque todavía tenemos problemas decodificando el cerebro, e igual tú no te acuerdas de qué buscaste hace 28 días a las 12 de la tarde, pero tu buscador sí. Pero también es cada vez mayor el riesgo para la privacidad cerebral. Se están desarrollando muchas tecnologías para leer las señales neuronales y todavía no son lo suficientemente sofisticadas para ser un riesgo importante, pero a mí me sorprende el hecho de que tanta gente esté trabajando en ello. Y me alarma. Por ejemplo, Apple ha aplicado a una patente de tener AirPods que lean las ondas cerebrales. ¿Por qué necesitamos eso? ¿Realmente es lo que necesita el mundo para ser un sitio mejor?
Como están las cosas, con cada vez más noticias de filtraciones de datos (incluso de bases de datos bancarias), más páginas web que «obligan» a aceptar las cookies y más estudios que revelan las amenazas para la privacidad en los hogares «inteligentes», ¿se puede hablar hoy realmente de ética digital? ¿Cómo plantarle cara a la opacidad tecnológica sin caer en el neoludismo?
Cuando se desarrolló la ética médica fue a partir de escándalos que hicieron muy tangible y muy obvio por qué la necesitábamos. Precisamente porque nos estamos encontrando con prácticas muy poco éticas es que la ética digital está surgiendo como una disciplina. Porque si todas estas empresas utilizaran prácticas éticas, pues no habría tanta necesidad de un cambio. La acusación de que si te preocupan las prácticas éticas es que estás en contra de la tecnología es pura retórica. Porque estar en contra de la tecnología mal diseñada, de tecnología que está dañando a la gente, no tiene nada que ver con la buena tecnología. Encontraríamos muy pocas personas que están en contra de la tecnología por principio. Hay que diseñar mejor la tecnología para que respete los derechos humanos y para que sea una influencia positiva en la democracia y no negativa.
Para cerrar, ¿crees que la constante transgresión a la privacidad está poniendo en jaque al sistema democrático?
Creo que las democracias están en un momento peligroso. Todos los años The Economist hace un estudio del estado de la democracia en el mundo y preocupa que en los últimos años la democracia está perdiendo terreno, no solamente en el número de países democráticos, sino también en la calidad de las democracias. Creo que no es una coincidencia que esta pérdida de democracia se dé al mismo tiempo que el auge de la tecnología digital. Y en parte es una pérdida de privacidad. La privacidad es importante porque nos protege de abusos de poder, y cuando hay instituciones, ya sea corporaciones, ya sea gobiernos, que tienen demasiado poder, eso suele erosionar la democracia. También hay que tener en cuenta que el código tiende a ser un instrumento muy autoritario. Si tú tienes una ley de que no puedes manejar a cierta velocidad, puedes romper esa ley –y tiene consecuencias–, pero cuando el código del coche no te deja ir a cierta velocidad, no hay negociación posible, no hay posibilidad de romper la regla y pagar un precio por ello, da igual si tienes una emergencia, una buena razón o una mala: el código es autoritario. Y sí, el código puede ser mucho más eficiente, pero no tenemos democracias para maximizar la eficiencia, sino para maximizar la libertad, el bienestar y la protección de los derechos.
Fuente: https://ethic.es/entrevistas/entrevista-carissa-veliz/