Contenidos
El primer informe mundial del Comisionado de Seguridad Electrónica de Australia dice que las empresas, incluida Apple, no están haciendo lo suficiente para abordar la explotación sexual infantil en plataformas como iOS e iCloud, solo unos días después de que Apple anunciara planes para eliminar una controvertida herramienta de escaneo de material de abuso sexual infantil.
La comisión envió avisos legales a Apple, Meta (Facebook e Instagram), WhatsApp, Microsoft, Skype, Snap y Omegle a principios de este año exigiendo a las empresas que respondan preguntas detalladas sobre cómo abordan la explotación sexual de menores en sus plataformas bajo el nuevo gobierno. potestades.
“Este informe nos muestra que algunas empresas están haciendo un esfuerzo para abordar el flagelo del material de explotación sexual infantil en línea, mientras que otras están haciendo muy poco”, dijo el jueves la comisionada de seguridad electrónica, Julie Inman Grant.
Apple y Microsoft en la mira
El comunicado de hoy destacó a Apple y Microsoft por no “detectar proactivamente el material de abuso infantil almacenado en sus servicios iCloud y OneDrive ampliamente utilizados, a pesar de la amplia disponibilidad de la tecnología de detección PhotoDNA”. El informe también destaca que Apple y Microsoft “no están utilizando ninguna tecnología para detectar la transmisión en vivo de abuso sexual infantil en Skype, Microsoft Teams o chats de video FaceTime, a pesar del uso extensivo de Skype, en particular, para este delito de larga data”. fecha y proliferando”. . ”
El informe también descubrió problemas más amplios “sobre la rapidez con que las empresas responden a los informes de los usuarios sobre explotación y abuso sexual infantil en sus servicios”. Snap llegó a los informes en un promedio de cuatro minutos, mientras que Microsoft tardó un promedio de 19 días. Apple ni siquiera ofrece informes en servicio y ha sido criticado por obligar a los usuarios a “buscar una dirección de correo electrónico en sus sitios web, sin garantía de que obtendrán una respuesta”.
Apple intentó implementar exactamente este tipo de escaneo CSAM el año pasado, pero su controvertido plan para escanear hashes de imágenes cargadas en iCloud contra una base de datos de material conocido de CSAM se encontró con una reacción generalizada de expertos de la industria, comentaristas de seguridad y privacidad, lo que obligó a Apple a retrasar los planes. Apple utiliza la coincidencia de hash de imágenes en el correo electrónico de iCloud a través de PhotoDNA. La compañía confirmó el 7 de diciembre que abandonó los planes para seguir adelante con su herramienta de detección de CSAM. En un comunicado en ese momento, Apple dijo que “los niños pueden estar protegidos sin que las empresas filtren los datos personales, y continuaremos trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer que el internet un lugar más seguro para los niños y para todos nosotros”.
En una declaración al informe, Apple dijo: “Si bien no comentamos sobre planes futuros, Apple continúa invirtiendo en tecnologías que protegen a los niños de CSEA (explotación y abuso sexual infantil)”.