En un informe, Amnistía Internacional plantea diversos aspectos de esa herramienta informática, implementada por el Gobierno nacional para controlar la expansión del coronavirus
La protección de datos personales y la privacidad son algunas de las preocupaciones relativas a derechos humanos que Amnistía Internacional (AI) plantea en un informe respecto a la aplicación Cuidar, implementada por el Gobierno nacional con el objetivo de controlar la expansión del covid-19.
Desde su puesta en funcionamiento, el Gobierno hizo una serie de ajustes tanto en el diseño como en sus términos y condiciones (TyC) para mejorar algunos aspectos, que dispararon la preocupación de algunos sectores de la sociedad civil. Después de concluir el análisis de la aplicación, AI dialogó y le acercó a la Secretaría de Innovación Pública (SIP) sus recomendaciones. Las devoluciones y cambios generados a partir de ese intercambio fueron incorporados al documento.
“Sabemos del enorme esfuerzo que se está haciendo para contener la pandemia y valoramos el diálogo con las autoridades así como los cambios implementados luego de escuchar nuestras preocupaciones. Sin embargo, seguimos con algunas inquietudes, como el acceso a datos sensibles de salud, esto sumado a la falta de transparencia sobre cómo esta información es almacenada y utilizada”, señaló Mariela Belski, directora Ejecutiva de AI Argentina.
Datos de salud
La información sobre salud es personal, privada y sensible, y debe recibir protección especial. La Ley de Protección de Datos Personales exige otra que autorice expresamente su recolección y tratamiento, y la preservación de la identidad de sus titulares. Sin embargo, AI destacó que, en el caso de Cuidar, esta segunda norma no existe y la identificación (es decir, la revelación de la identidad del usuario o de la usuaria) es un requisito necesario para poder utilizar la aplicación.
Para la organización, el Gobierno debería entonces ser capaz de demostrar técnicamente y de forma transparente que es imposible “desanonimizar” los datos delicados recogidos. Sin embargo, en el caso de Cuidar, además, el Estado exige a los usuarios y usuarias realizarse un autodiagnóstico de síntomas antes de tramitar el permiso de circulación. Esta exigencia es “prescindible”, destacó el documento, ya que cualquier persona puede tramitar el permiso de circulación a través de la página web sin que se le solicite información sobre su salud.
Falta de transparencia
En el informe se destaca la preocupación sobre cómo los datos recolectados son almacenados y tratados. Si bien se reconoce que el Gobierno ha publicado el código fuente de la aplicación, todavía no se conoce el código del backend -lo que permitiría analizar cómo los datos son almacenados y tratados- y tampoco hay información pública sobre las garantías de protección y seguridad de los datos delicados recolectados que permitan el control externo e independiente.
En este sentido, AI alertó sobre la falta de claridad en la comunicación de algunos aspectos de la app, como por ejemplo de las actualizaciones de sus funcionalidades. El punto 8 de los TyC de Cuidar faculta a la SIP a introducir todos los cambios y modificaciones que estime convenientes, lo que incluye -pero no se limita a- agregar, alterar, sustituir o suprimir cualquier contenido de la aplicación en todo momento.
Frente a ello, destacó que es importante que los usuarios y usuarias sean notificados fehacientemente de las funcionalidades que se modifiquen, eliminen o agreguen, de forma tal que no se vulnere el consentimiento informado que brindaron inicialmente al descargar la app.
Igualdad y no discriminación
La exigencia de que las personas cuenten con determinada documentación, tecnología y conectividad para el acceso a derechos afecta la igualdad y la no discriminación. “Muchos no cuentan con el conocimiento o la tecnología necesaria para descargar y usar la app o realizar el trámite online, lo que los excluye de la posibilidad de acceder a los mismos derechos”, se destacó.
La situación en otros países
El Security Lab (laboratorio de seguridad) de AI examinó aplicaciones de distintas partes del mundo, algunas de las cuales son peligrosas para los derechos humanos.
Las aplicaciones de rastreo de contactos de Bahréin, Kuwait y Noruega figuran entre las más alarmantes, ya que utilizan sistemas centralizados que captan los datos de ubicación de los usuarios por medio del GPS y los suben a un servidor central.
La app de Qatar fue considerada una de las más preocupantes ya que suma la imposición del uso obligatorio por el gobierno y tiene un alto nivel de vulnerabilidad en su seguridad, combinación que dejó expuestos datos personales sensibles de más de un millón de personas.
Pedido al Estado argentino
AI pidió al Estado que, a medida que implemente tecnología para combatir la crisis sanitaria de covid-19, incorpore las salvaguardas necesarias para demostrar que respeta plenamente los derechos humanos.
“La organización sostiene y recuerda que los derechos humanos no son un obstáculo para el progreso sino que, por el contrario, son esenciales y ayudan a construir confianza en la tecnología para que sea efectiva y pueda desempeñar un papel significativo en esta crisis”, destacó la entidad.