La tecnológica sigue los pasos de Google, que ya escaneaba de forma automática las imágenes que se suben a la nube y pone en alerta a los activistas de la privacidad digital
M.G. PASCUAL / EL PAÍS
Apple se sube al carro de la vigilancia de contenidos. La compañía de Cupertino ha anunciado que a finales de este año pondrá en marcha en Estados Unidos un sistema que revisará automáticamente las imágenes subidas desde iPhones e iPads en busca de contenidos pedófilos (CSAM, child sexual abuse material).
MÁS INFORMACIÓN
- Amy Webb: “El futuro que trae la inteligencia artificial parece distópico, pero vamos hacia allí de cabeza”
- La UE permite a las tecnológicas monitorizar las comunicaciones privadas para combatir la pedofilia
Se suma así a lo que ya venía haciendo Google, que también escanea las fotos y vídeos que se suben en su nube (Google Drive) para detectar ese tipo de archivos.
El anuncio, avanzado ayer por el Financial Times, se produce tan solo un mes después de que el Parlamento de la Unión Europea aprobara suspender temporalmente la Directiva de la privacidad online precisamente para que las operadoras tengan el paraguas legal necesario para combatir la difusión de pornografía infantil. En Estados Unidos, el Centro Nacional para Menores Desaparecidos y Explotados (National Center for Missing and Exploited Children, NCMEC) hace tiempo que solicita la cooperación de las tecnológicas para perseguir a los pedófilos.
La decisión de Apple ha sentado como un jarro de agua fría a los activistas en defensa de la privacidad digital. El temor de fondo es que, una vez abierta la puerta a la revisión de contenidos privados de los teléfonos para detectar a potenciales criminales, se pueda extender ese escrutinio a otros objetivos bajo argumentos variopintos.
Apple se ha esforzado en explicar que el método que ha diseñado para vigilar los contenidos interfiere poco en la privacidad de los usuarios. El procedimiento es el siguiente: cada vez que una foto tomada desde un dispositivo Apple se sube a la nube (iCloud), se cruza automáticamente su hash (una especie de matrícula de los archivos comprimidos) con el de una lista de contenidos ya identificados como pedófilos. Si salta una coincidencia, se lanza un aviso a Apple y un empleado revisará los archivos para comprobar si son o no censurables. En caso afirmativo, se suspende la cuenta de Apple del usuario y se avisa a las autoridades.
La compañía sostiene que, mediante este sistema, nunca pone las manos sobre los archivos privados de los usuarios: el proceso se realiza dentro del dispositivo y solo alerta en caso de alarma.
Paralelamente a esta medida, la empresa de la manzana monitorizará con un sistema de machine learning, o aprendizaje automático, las comunicaciones realizadas por menores en su aplicación Messages, poco usada en Europa pero muy popular en Estados Unidos. Si se detecta que se están enviando o recibiendo imágenes con contenidos explícitos se alertará a los padres.
El fin de la excepción Apple
Apple siempre ha hecho bandera de su política de respeto a la privacidad de sus clientes, que esgrime como un importante elemento de diferenciación respecto a su competidor Google. El CEO de la compañía, Tim Cook, se enfrentó en 2016 al Gobierno de EE UU al negarse “a construir una puerta trasera para el iPhone” a petición del FBI, como declaró en 2016. La historia se repitió en 2020, cuando la tecnológica se negó a abrir el iPhone de un sospechoso de terrorismo con los mismos argumentos.
La consistencia de esta visión de la privacidad se hizo patente cuando hace unos meses introdujo un cambio importante en el sistema operativo iOS: desde abril, las aplicaciones que quieran rastrear al usuario deberán pedirle permiso; si no se les da, no obtendrán datos sobre su actividad digital. Fue un giro muy aplaudido por los defensores de la privacidad y se interpretó como un elemento más de diferenciación con sus rivales Google y Facebook, cuyas políticas de privacidad no incluyen esa opción.
Por eso ha sorprendido tanto la medida recién anunciada. India McKinney y Erica Portnoy, del influyente think tank estadounidense Electronic Frontier Foundation, sostienen en un comunicado que “la explotación sexual de menores es un problema muy serio, y Apple no es la primera tecnológica que altera su política de privacidad para tratar de combatirlo. Pero esa decisión conlleva un alto precio para la privacidad de los usuarios”. Las investigadoras no dudan de las buenas intenciones de Apple, ni de que la empresa haya hecho lo posible para salvaguardar la privacidad de sus clientes, pero “incluso una puerta trasera cuidadosamente estudiada y muy afinada no deja de ser una puerta trasera”.
Por su parte, Diego Naranjo, asesor político de EDRI, una ONG europea que trabaja por la defensa de los derechos humanos en la era digital, opina que “Apple ha decidido socavar la encriptación de extremo a extremo y hacer que sus usuarios sean vulnerables a la censura y la vigilancia”. “Al permitir el escaneado de fotos en las comunicaciones privadas y en iCloud, los productos de Apple se convertirán en una amenaza para sus dueños. La compañía debería retractarse”.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Fuente: https://elpais.com/tecnologia/2021-08-06/apple-revisara-todas-las-fotos-que-se-hagan-desde-sus-dispositivos-en-busca-de-contenidos-pedofilos.html