Contenidos
Poco después de informar hoy que Apple comenzará a escanear iPhones en busca de imágenes de abuso infantil, la compañía confirmó su plan y proporcionó detalles en un comunicado de prensa y un resumen técnico.
“El método de Apple para detectar CSAM (material de abuso sexual infantil) conocido está diseñado teniendo en cuenta la privacidad del usuario”, afirma el anuncio de Apple. “En lugar de escanear imágenes a la nube, el sistema realiza la comparación en el dispositivo utilizando una base de datos hash de imágenes CSAM conocidas proporcionadas por NCMEC (Centro Nacional para Niños Desaparecidos y Explotados) y otras organizaciones de seguridad infantil. Apple transforma aún más esta base de datos. en un archivo ilegible. conjunto de hash que se almacena de forma segura en los dispositivos de los usuarios “.
Apple dio más detalles sobre el sistema de detección CSAM en un resumen técnico y dijo que su sistema utiliza un umbral “establecido para proporcionar un nivel extremadamente alto de precisión y garantiza menos de un billón de posibilidades por año de informar erróneamente una cuenta en particular”.
Los cambios se implementarán “a finales de este año en las actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey”, dijo Apple. Apple también distribuirá software que puede analizar imágenes en la aplicación Mensajes para un nuevo sistema que “alertará a los niños y sus padres cuando reciban o envíen fotos sexualmente explícitas”.
Apple acusada de construir “infraestructura de vigilancia”
A pesar de las garantías de Apple, los expertos en seguridad y defensores de la privacidad han criticado el plan.
“Apple está reemplazando su sistema de mensajería cifrada de extremo a extremo estándar de la industria con una infraestructura de vigilancia y censura, que será vulnerable al abuso y la intrusión no solo en los Estados Unidos, sino en todo el mundo”, dijo. -director del proyecto de Seguridad y Vigilancia del Centro para la Democracia y la Tecnología. “Apple debería abandonar estos cambios y restaurar la confianza de sus usuarios en la seguridad e integridad de sus datos en los dispositivos y servicios de Apple”.
Durante años, Apple ha resistido la presión del gobierno de Estados Unidos para instalar una “puerta trasera” en sus sistemas de cifrado, alegando que esto comprometería la seguridad de todos los usuarios. Apple ha sido elogiada por los expertos en seguridad por este puesto. Pero con su plan para implementar software que escanee en el dispositivo y comparta resultados seleccionados con las autoridades, Apple está peligrosamente cerca de servir como una herramienta de vigilancia del gobierno, sugirió en Twitter Matthew Green, profesor de criptografía de la Universidad Johns Hopkins.
El escaneo del lado del cliente anunciado hoy por Apple podría eventualmente “ser un ingrediente clave para agregar vigilancia a los sistemas de mensajería encriptada”, dijo. el escribio. “La capacidad de agregar sistemas de escaneo como este a E2E [end-to-end encrypted] Los sistemas de mensajería han sido una de las principales “demandas” de los organismos encargados de hacer cumplir la ley en todo el mundo “.
Escaneo de mensajes e “intervención” de Siri
Además de escanear dispositivos en busca de imágenes que coincidan con la base de datos CSAM, Apple dijo que actualizará la aplicación Mensajes para “agregar nuevas herramientas para alertar a los niños y sus padres cuando reciban o envíen fotos sexualmente explícitas”.
“Messages utiliza el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita. La función está diseñada para que Apple no tenga acceso a los mensajes”, dijo Apple.
Cuando se marca una imagen en Mensajes, “la foto se verá borrosa y el niño será alertado, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto”. El sistema permitirá a los padres recibir un mensaje si los niños ven una foto etiquetada y “hay protecciones similares disponibles si un niño intenta enviar fotos sexualmente explícitas. El niño será notificado antes de que se envíe la foto y los padres pueden recibir un mensaje si el bebé elige enviarlo “, dijo Apple.
Apple dijo que actualizará Siri y Search para “brindarles a los padres y a los niños una amplia información y ayuda si se encuentran con situaciones inseguras”. Los sistemas Siri y Search “intervendrán cuando los usuarios busquen consultas relacionadas con CSAM” y “explicarán a los usuarios que el interés en este tema es dañino y problemático y proporcionarán recursos de socios para obtener ayuda con este problema”.
El Centro para la Democracia y la Tecnología calificó el escaneo de fotos en Mensajes como una “puerta trasera”, escribiendo:
El mecanismo que permitirá a Apple escanear imágenes en Mensajes no es una alternativa a una puerta trasera, es una puerta trasera. El escaneo del lado del cliente en un “extremo” de la comunicación viola la seguridad de la transmisión e informar a un tercero (el padre) del contenido de la comunicación socava su privacidad. Las organizaciones de todo el mundo han advertido contra el escaneo del lado del cliente porque los gobiernos y las empresas podrían utilizarlo para verificar el contenido de las comunicaciones privadas.
La tecnología de Apple para el análisis de imágenes
El resumen técnico de Apple sobre la detección de CSAM incluye algunas promesas de privacidad en la introducción. “Apple no aprende nada sobre las imágenes que no coinciden con la base de datos CSAM conocida”, dice. “Apple no puede acceder a metadatos o derivados visuales para imágenes CSAM coincidentes hasta que se exceda un umbral de coincidencia para una cuenta de iCloud Photos”.
La tecnología hash de Apple se llama NeuralHash y “analiza una imagen y la convierte en un número único específico para esa imagen. Solo otra imagen que parezca casi idéntica puede producir el mismo número; por ejemplo, las imágenes que difieren en tamaño o calidad transcodificada seguirán siendo tienen el mismo valor de NeuralHash “, escribió Apple.
Antes de que un iPhone u otro dispositivo Apple cargue una imagen en iCloud, el “dispositivo crea un cupón de seguridad criptográfico que encripta el resultado de la coincidencia. También encripta el NeuralHash de la imagen y un derivado visual. Este cupón se carga en iCloud”. Fotos junto con el imagen “.
Al utilizar el “umbral de uso compartido secreto”, el “sistema” de Apple garantiza que el contenido de los vales de seguridad no pueda ser interpretado por Apple a menos que la cuenta de iCloud Photos supere un umbral de contenido CSAM conocido “, dice el documento.” Solo cuando el umbral es superado, ¿la tecnología criptográfica permite a Apple interpretar el contenido de los vales de seguridad asociados con las imágenes CSAM correspondientes?
Si bien señaló la probabilidad 1 en 1 de un falso positivo, Apple dijo que “revisa manualmente todos los informes enviados al NCMEC para garantizar la precisión de los informes”. Los usuarios pueden “presentar una apelación para restaurar su cuenta” si creen que su cuenta ha sido informada por error.
Dispositivos de usuario para archivar la base de datos CSAM ciega
Los dispositivos de los usuarios almacenarán una “base de datos ciega” que le permite al dispositivo determinar cuándo una foto coincide con una imagen en la base de datos CSAM, explicó Apple:
Primero, Apple recibe el NeuralHash correspondiente al CSAM conocido de las organizaciones de seguridad infantil antes mencionadas. A continuación, estos NeuralHashes pasan por una serie de transformaciones que incluyen un paso final cegador, impulsado por criptografía de curva elíptica. El cegamiento se realiza utilizando un secreto cegador del lado del servidor, conocido solo por Apple. Los hash CSAM cegados se colocan en una tabla hash, donde la posición en la tabla hash es puramente una función del NeuralHash de la imagen CSAM. Esta base de datos ciega se almacena de forma segura en los dispositivos de los usuarios. Las propiedades de la criptografía de curva elíptica garantizan que ningún dispositivo pueda inferir nada sobre los hashes de la imagen CSAM subyacente a partir de la base de datos cegada.
Un iPhone u otro dispositivo analizará las fotos de los usuarios, calculará un NeuralHash y buscará “la entrada en la tabla de hash oculta”. El dispositivo “también usa el hash ciego que el sistema buscaba para obtener una clave de cifrado derivada” y usa esa clave de cifrado “para cifrar los datos de carga útil asociados”.
Combinado con otros pasos, esto asegura que solo las imágenes que coincidan con la base de datos CSAM serán descifradas, Apple escribió:
Si el hash de la imagen del usuario coincide con la entrada en la lista de hash CSAM conocida, el NeuralHash de la imagen del usuario se transforma exactamente en el hash ciego si ha pasado por la serie de transformaciones realizadas cuando se configuró la base de datos. Según esta propiedad, el servidor podrá utilizar el encabezado criptográfico (derivado de NeuralHash) y, utilizando el secreto del lado del servidor, podrá calcular la clave de cifrado derivada y descifrar correctamente los datos de carga útil asociados.
Si la imagen del usuario no coincide, el paso anterior no conducirá a la clave de cifrado derivada correcta y el servidor no podrá descifrar los datos de carga útil asociados. Por lo tanto, el servidor no aprende nada sobre imágenes que no coinciden.
El dispositivo no aprende el resultado de la coincidencia porque esto requiere el conocimiento del secreto cegador del lado del servidor.
Finalmente, el cliente carga la imagen en el servidor junto con el comprobante que contiene los datos de carga útil encriptados y el encabezado criptográfico.
Como se señaló anteriormente, puede leer el resumen técnico aquí. Apple también ha publicado una explicación más larga y detallada de la tecnología criptográfica de “intersección de conjuntos privados” que determina si una foto coincide con la base de datos CSAM sin revelar el resultado.