Por Matías Altamira *
El Gobierno de Javier Milei apuntó a implementar el reconocimiento facial para identificar a manifestantes y penalizarlos con el retiro de planes sociales, un sistema que está suspendido en la Ciudad Autónoma de Buenos Aires (CABA).
A partir de un pedido de acceso de la información pública realizado en 2019 por el Observatorio de Derecho Informático de la Argentina (O.D.I.A.), y luego una acción de amparo, se dispuso la suspensión del uso del del Sistema de Reconocimiento Facial de Prófugos (SRFP) desarrollado por la empresa de software Danaide SA, como informó Dark News.
La medida fue ratificada días pasados, luego de la audiencia con especialistas y representantes del Ministerio de Seguridad porteño, ante la falta de acuerdo sobre cómo auditar esta tecnología.
Gestión
Expertos en la temática sostienen que presenta problemas de gestión que han derivado en detenciones erróneas y es cuestionada en términos de privacidad y garantías en diversos países.
El caso testigo ocurrió en 2019, cuando un ciudadano pasó casi una semana preso porque lo confundieron con un delincuente que tenía su mismo nombre.
La tecnología de reconocimiento facial se basa en verificar la identidad de una persona a partir de sus rasgos faciales. Para esto, se analizan características únicas como la forma de la nariz, la distancia de los ojos o la anatomía de los pómulos.
En los accesos a los estadios se usa un tipo de sistema para lo que se conoce como “Tribuna Segura 2.0”, y que tiene como objetivo impedir el ingreso de personas con antecedentes.
En la audiencia conciliatoria, el Ministerio de Seguridad de la CABA sostuvo que poner a disposición el software; informar a la ciudadanía y a la sociedad civil sobre el sistema; colaborar con las pericias técnicas que llevarán adelante expertos de la Facultad de Ciencias Exactas de la UBA y generar un plan de trabajo que contemple todas las observaciones ciudadanas, judiciales, legislativas y de control que permitan utilizar el sistema posibilitarán tener una ciudad más segura.
Luego de aquélla, Tomás Pomar, presidente de O.D.I.A., explicó que hasta que no haya una auditoría sobre el software utilizado y su implementación el sistema seguirá sin utilizarse, y que una simple auditoría de caja negra es insuficiente.
Una auditoría de caja negra es una prueba de concepto para la que, sin develar los elementos informáticos del sistema, se hacen distintos testeos. Es decir, no deja “ver” cómo funciona, pero permite hacer una prueba de que funciona.
“Para nosotros, ese puede ser un estándar en el mercado, pero no es apto para tecnologías críticas utilizadas por el Estado. Se celebra la decisión de la Justicia de elevar el nivel de auditoría requerido para esta tecnología de carácter crítico, y que se pida un plan de acción donde se compartan los datasets y el modelo de entrenamiento de la Inteligencia Artificial”, concluyó Pomar.
Privacidad
El Estado, bajo la consigna de la seguridad, no puede vulnerar la privacidad de cada uno de sus ciudadanos, ya que los derechos a la seguridad y a la privacidad deben buscar convivir armoniosamente, primando en términos generales el segundo y, solo como excepción, el primero.
Los sistemas de reconocimiento facial, como cualquier otro sistema, pueden presentar errores y causar daños a personas.
Error
Los sistemas presenciales y procesos tradicionales también se equivocan y habría que relevar cuántas personas fueron detenidas por error.
Es necesario que se le exija al Estado y a las empresas prestatarias que acrediten la calidad y, especialmente, la capacidad de control y auditoría de los sistemas que pretenden implementar, siempre que no se les exija que funcionen a la perfección, porque mientras esa acción gubernamental se encuentre prohibida, las fuerzas de seguridad utilizarán las cámaras de video vigilancia de los domicilios y comercios particulares, que claramente no cumplen con ningún estándar de calidad ni de seguridad.
Lo perfecto es enemigo de lo bueno.
(*) Abogado.