viernes 22, noviembre 2024
viernes 22, noviembre 2024
Comercio y Justicia 85 años

Grupos de derechos humanos piden que Apple desista de revisar imágenes para detectar casos de abuso infantil

VIGILANCIA. Las organizaciones estiman que las nuevas medidas podrían afectar a los jóvenes LGTBI.
ESCUCHAR

La decisión de la compañía, anunciada a principios de mes, es cuestionada por los activistas que defienden la privacidad digital. Temen que los gobiernos se valgan del nuevo sistema para censurar y perseguir a disidentes. Le escribieron una carta abierta al CEO de la empresa para expresar sus preocupaciones

A principios de mes, la firma Apple anunció que pondrá en marcha en Estados Unidos un sistema que revisará automáticamente las imágenes subidas desde iPhones e iPads en busca de contenidos pedófilos o CSAM (child sexual abuse material).

Se suma así a lo que ya hace Google, que escanea las fotos y vídeos que se cargan en su nube (Google Drive) para detectar ese tipo de archivos.

Apoyá el periodismo especializado e independiente

Este contenido es exclusivo para suscriptores.

Accedé a todo nuestro contenido

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leé también

Más populares

¡Bienvenid@ de nuevo!

Iniciá sesión con tu usuario

Recuperar contraseña

Ingresá tu usuario o email para restablecer tu contraseña.

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?