La firma Apple anunció que antes de fin de año pondrá en marcha en Estados Unidos un sistema que revisará automáticamente las imágenes subidas desde iPhones e iPads en busca de contenidos pedófilos o CSAM (child sexual abuse material).
Se suma así a lo que ya hace Google, que escanea las fotos y vídeos que se cargan en su nube (Google Drive) para detectar ese tipo de archivos.
El plan de Apple se divulgó a un mes de que el Parlamento de la Unión Europea aprobó suspender temporalmente la directiva de la privacidad online, para que las operadoras tengan la protección legal necesaria para combatir la explotación sexual de infantes.
Privacidad
Desde hace tiempo, el Centro Nacional para Menores Desaparecidos y Explotados estadounidense solicita la cooperación de las empresas tecnológicas para perseguir a los pedófilos, pero la decisión de Apple es cuestionada por los activistas que defienden la privacidad digital.
El temor de los grupos que integran es que una vez abierta la puerta a la revisión de contenidos privados de los teléfonos para detectar a potenciales criminales, se pueda extender ese escrutinio a otros objetivos, bajo distintos argumentos.
Apple aclaró que el método que diseñó para vigilar los contenidos interfiere poco en la privacidad de los usuarios. El procedimiento es el siguiente: cada vez que una foto tomada desde un dispositivo Apple se sube a la nube (iCloud), se cruza automáticamente su hash (una especie de matrícula de los archivos comprimidos) con el de una lista de contenidos ya identificados como pedófilos. Si surge una coincidencia, se lanza un aviso a la firma y un empleado revisará los archivos para comprobar si son o no censurables. En caso afirmativo, se suspende la cuenta del usuario y se avisa a las autoridades.
La compañía sostiene que el sistema garantiza que los archivos de los usuarios seguirán siendo privados.