Apple ha intentado disipar los temores de que la próxima función de escaneo de fotos de la compañía, diseñada para detectar imágenes de abuso infantil entre las fotos cargadas en iCloud de Apple, amenace la privacidad del usuario.
La semana pasada, Apple anunció una nueva función para productos que incluyen iPhones y iPads, que verá las fotos de iCloud de los usuarios escaneadas para encontrar coincidencias con imágenes conocidas de material de abuso sexual infantil (CSAM) proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).
Cuando el sistema automatizado detecte dichas imágenes, serán revisadas por un moderador humano. El usuario propietario de la foto podría entonces ser denunciado a las autoridades por posesión de CSAM.
Matthew Green, profesor de la Universidad Johns Hopkins que ha trabajado en tecnologías criptográficas, tuiteó que la noticia de que Apple podría escanear directamente los dispositivos de los clientes era «perturbadora».
Escribió: “Entonces, cuando le dices al público en general que vas a comenzar a revisar sus fotos personales *en su propio dispositivo*, no les gusta. Es, para ser franco y centrado en Estados Unidos, antiestadounidense”.
Tim Sweeney, CEO y fundador de Epic Games, tuiteó: “Ineludiblemente, este es un spyware del gobierno instalado por Apple basado en una presunción de culpabilidad. Aunque Apple escribió el código, su función es escanear datos personales y reportarlos al gobierno”.
Apple publicó un documento que intenta calmar las preocupaciones de que los gobiernos que buscan acceso a la información personal de los usuarios puedan abusar de la función.
La compañía dijo: “Hemos enfrentado demandas para construir e implementar cambios ordenados por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado rotundamente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar MASI almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla”.
Esa promesa será más difícil de cumplir en algunos países más allá de los EE. UU., que parecían ser el foco de las comunicaciones de Apple. Apple fue criticada por observadores tecnológicos por abrir un centro de datos en China a principios de este año, albergando capacidad de iCloud para clientes chinos en las instalaciones de la provincia de Guizhou del país.
Para ese movimiento, Apple se vio obligada a asociarse con una empresa china, Guizhou Cloud, para operar el servicio chino iCloud de Apple. El autoritario Partido Comunista Chino que gobierna China, que regularmente encarcela y “desaparece” a los críticos y activistas, tiene estrictas reglas de cumplimiento del gobierno para las empresas tecnológicas chinas.
En el documento, Apple no llegó a decir que su sistema de detección de CSAM no podría usarse para detectar imágenes de cosas que no sean CSAM, sino que dijo que el «proceso está diseñado para evitar que eso suceda».
“No hay informes automatizados para las fuerzas del orden, y Apple realiza una revisión humana antes de presentar un informe al NCMEC. En el improbable caso de que el sistema marque imágenes que no coincidan con imágenes CSAM conocidas, la cuenta no se deshabilitaría y no se presentaría ningún informe al NCMEC”, agregó Apple.
Apple afirma que existe una probabilidad de «menos de uno en un billón por año» de que el sistema de escaneo marque incorrectamente una cuenta para imágenes CSAM.
No te pierdas nuestro increíble comparativo de los mejores sitios de porno en realidad virtual