Apple ha pospuesto planes para escanear dispositivos en busca de imágenes de abuso infantil en respuesta a la privacidad

manzana

Apple presionó temporalmente el botón de pausa en sus controvertidos planes para filtrar los dispositivos de material de abuso sexual infantil (CSAM) de los usuarios después de recibir un golpe constante por los temores de que la herramienta podría usarse como un arma para la vigilancia masiva e invadir la privacidad de los usuarios.

«En base a los comentarios de los clientes, grupos de interés, investigadores y más, hemos decidido dedicar más tiempo en los próximos meses a recopilar información y realizar mejoras antes de lanzar estas funciones críticas de seguridad infantil», dijo iPhone en un comunicado en su sitio web. .

Sin embargo, la Comunicación no establece claramente qué tipo de información recopilará, la naturaleza de los cambios que pretende proponer o cómo pretende implementar el sistema de manera que alivie las preocupaciones de privacidad y seguridad. pueden surgir después de su despliegue.

Los cambios estaban originalmente programados para lanzarse con iOS 15 y macOS Monterey a finales de este año, comenzando en los EE. UU.

En agosto, Apple detalló varias características nuevas para ayudar a frenar la propagación de CSAM en su plataforma, incluido el escaneo de las bibliotecas de fotos de los usuarios en iCloud en busca de contenido ilegal, la aplicación Communication Safety in the News, que advierte a los niños y a sus padres cuando reciben o envían contenido sexualmente explícito. . . fotos e instrucciones avanzadas en Siri y Search cuando los usuarios intentan buscar temas relacionados con CSAM.

La llamada tecnología NeuralHash funcionaría comparando fotos en iPhones, iPads y Macs de los usuarios justo antes de que se subieran a iCloud Photos con una base de datos de imágenes conocidas de abuso sexual infantil mantenida por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) . ) sin tener que poseer imágenes o recopilar contenido. Las cuentas de ICloud que hayan excedido el límite establecido de 30 hashes coincidentes se verificarán manualmente, sus perfiles se desactivarán y se informarán a las autoridades policiales.

El objetivo de la medida era llegar a un compromiso entre la protección de la privacidad del consumidor y satisfacer las crecientes demandas de las agencias gubernamentales en la investigación del terrorismo y la pornografía infantil, y en general, ofrecer una solución al llamado problema «oscuro», en el que los delincuentes utilizan la protección criptográfica para enmascarar sus actividades de contrabando.

Sin embargo, las propuestas encontraron una respuesta casi inmediata cuando Electronic Frontier Foundation (EFF) pidió al gigante tecnológico que intentara crear un sistema de rastreo en el dispositivo y agregó que «una puerta trasera bien documentada, cuidadosamente pensada y de alcance limitado es sigue siendo una puerta trasera».

“Una vez que esta capacidad esté integrada en los productos de Apple, la empresa y sus competidores enfrentarán una enorme presión, y demandas potencialmente legales, de los gobiernos de todo el mundo para escanear fotos no solo en busca de MASI, sino también de otras imágenes que el gobierno considere indeseables. Así lo expresó el Centro para la Democracia y la Tecnología (CDT) en una carta abierta.

«Estas imágenes pueden ser de violaciones de derechos humanos, protestas políticas, imágenes que las empresas han etiquetado como contenido ‘terrorista’ o extremista violento, o incluso imágenes poco halagadoras de los propios políticos presionando a la empresa para que los busque. Y esta presión podría», ha sentado Apple. base para la censura, la vigilancia y el acoso en todo el mundo», decía la carta.

Pero en Por correo electrónico Apple circuló internamente, se descubrió que los activistas de la seguridad infantil rechazaban las quejas de los activistas de la privacidad y los investigadores de seguridad como una «voz minoritaria que gritaba».

Desde entonces, Apple ha intervenido para disipar las posibles preocupaciones sobre las consecuencias no deseadas y desalentar la posibilidad de que el sistema pueda usarse para detectar otras formas de fotografía a pedido de gobiernos autoritarios. «Seamos claros, esta tecnología se limita a detectar CSAM almacenados en iCloud y no haremos ninguna solicitud del gobierno para expandirla», dijo la compañía.

Sin embargo, esto no disipó los temores de que el escaneo del lado del cliente pudiera ser una violación preocupante de la privacidad y podría extenderse a un mayor uso indebido y proporcionar un plan para romper el cifrado de extremo a extremo. No ayudó que los investigadores pudieran crear «colisiones de hash», también conocidas como falsos positivos, utilizando un algoritmo de ingeniería inversa, lo que condujo a un escenario en el que dos imágenes completamente diferentes generaron el mismo valor de hash, lo que efectivamente hizo que el sistema pensara. las imágenes eran las mismas, aunque no lo eran.

«Mis sugerencias para Apple: (1) Hable con las comunidades técnicas y políticas antes de hacer cualquier cosa que vaya a hacer. También hable con el público en general. Esta no es una barra táctil nueva y lujosa: es un compromiso de privacidad que afecta a 1 mil millones de usuarios ”, dijo el profesor Johns Hopkins y el investigador de seguridad Matthew D. Green tuiteó.

«Comprenda por qué está escaneando y qué está escaneando. La transición de no escanear nada (excepto los archivos adjuntos de correo electrónico) a escanear una biblioteca de fotos privada ha marcado una gran diferencia. Debe justificar tales escalaciones», agregó Green.

Continua leyendo