marzo 17, 2025

EFF insta a Apple a que abandone por completo las funciones de seguridad infantil retrasadas

La Electronic Frontier Foundation (EFF) instó a Apple a abandonar por completo sus funciones de seguridad infantil después de que se retrasó su lanzamiento.

El grupo dice que está “feliz” de que la medida de Apple esté pendiente por ahora. Pero define planes, que incluyen escanear las imágenes de los usuarios en busca de pornografía infantil (CSAM), “una disminución de la privacidad para todos los usuarios de iCloud Photos”.

La petición de la EFF contra el anuncio original de Apple ahora contiene más de 25.000 firmas. Otro, iniciado por grupos como Fight for the Future y OpenMedia, contiene más de 50.000.

Si bien es obvio que CSAM es totalmente inaceptable, será difícil encontrar muchos fanáticos de Apple que estén de acuerdo con el plan de la compañía de escanear las fotos en busca de pornografía infantil. La mayoría lo ve como una seria invasión a la privacidad.

Algunos expertos han advertido que la función podría ampliarse para buscar más material en una fecha posterior si Apple cede a la inevitable presión que enfrentará por parte de los gobiernos. Otros dicen que la medida podría poner en riesgo a los niños vulnerables.

Apple escuchó esos comentarios. La semana pasada anunció que sus planes se habían pospuesto ya que se necesita tiempo para “recopilar información y realizar mejoras”. Pero la EFF cree que esto no es suficiente.

Apple “debe ir más allá de solo escuchar”

“EFF se complace de que Apple esté escuchando las preocupaciones de los clientes, investigadores, organizaciones de libertades civiles, activistas de derechos humanos, personas LGBTQ, representantes de la juventud y otros grupos, sobre los peligros que plantean sus herramientas de escaneo de teléfonos”. puesto del grupo. .

“Pero la empresa necesita ir más allá de simplemente escuchar y abandonar por completo sus planes para poner una puerta trasera en su cifrado. Las características anunciadas por Apple hace un mes, con la intención de ayudar a proteger a los niños, crearían una infraestructura que es demasiado fácil de redirigir a más vigilancia y censura “.

La EFF también advirtió que las funciones “crearían una gran amenaza para la privacidad y seguridad de los usuarios de iPhone al ofrecer a los gobiernos autoritarios un nuevo sistema de vigilancia masiva para espiar a los ciudadanos”. También señaló la abrumadora reacción que siguió al anuncio de Apple.

La respuesta fue “maldita”

“Las respuestas a los planes de Apple han sido abrumadoras”, dijo. Destacó la carta abierta de más de 90 organizaciones a Tim Cook, pidiendo que se eliminen los planes, y su propia petición, titulada “Dígale a Apple: No escanee nuestros teléfonos”, que ahora cuenta con más de 25.000 firmas.

“Esto se suma a otras peticiones de grupos como Fight for the Future y OpenMedia, por un total de más de 50.000 firmas”, dijo la EFF, antes de advertir a Apple que los usuarios “seguirán pidiendo” que la compañía mantenga su promesa de mantener sus datos protegidos.

Apple no ha comentado públicamente sobre los planes de CSAM desde que anunció el viernes que serían pospuestos. Es poco probable que escuchemos más durante algún tiempo. Pero, tal como están las cosas, Apple parece estar determinada a hacer que las funciones estén disponibles, que describió como “críticamente importantes”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *