marzo 7, 2021

Los científicos de UCSD han desarrollado una técnica que engaña a los sistemas de detección de deepfake

La vanguardia: A medida que evoluciona la tecnología deepfake, se vuelve cada vez más difícil saber cuándo se ha manipulado un video. Afortunadamente, varios grupos han desarrollado sofisticadas redes neuronales para detectar caras falsas. Sin embargo, los científicos cibernéticos revelaron la semana pasada que tienen una manera de engañar incluso a los modelos de detección más robustos para que piensen que un deepfake es real.

Investigadores de la Universidad de California en San Diego han desarrollado una técnica que puede engañar a algoritmos entrenados para detectar videos deepfake. Utilizando un método de dos pasos, los científicos informáticos toman un deepfake detectable, luego crean e insertan una capa de «ejemplo contradictorio» en cada fotograma para crear un nuevo fake que es virtualmente indetectable.

Los ejemplos contradictorios son simplemente imágenes manipuladas que ensucian un sistema de aprendizaje automático al hacer que reconozca una imagen de forma incorrecta. Un ejemplo de lo que hemos visto en el pasado son las calcomanías adversarias o incluso la cinta aislante que se usa para engañar a los vehículos autónomos y convertirlos en señales de tráfico mal representadas. Sin embargo, a diferencia de la desfiguración de las señales de tráfico, el método UCSD no cambia la apariencia visual del video resultante. Esto es significativo ya que el objetivo es engañar tanto al software de detección como al espectador (ver el video a continuación).

Los investigadores demostraron dos tipos de ataques: «Caja blanca» y «Caja negra». Con los exploits de White Box, el mal actor sabe todo sobre el modelo de detección dirigida. Los ataques de caja negra ocurren cuando el atacante desconoce la arquitectura de clasificación utilizada. Ambos métodos «son resistentes a los códecs de compresión de vídeo e imagen» y pueden engañar incluso a los sistemas de detección más «avanzados».

Los deepfakes han generado bastante controversia desde que aparecieron en Internet hace unos años. Al principio, eran principalmente las celebridades indignadas por sus similitudes las que aparecían en los videos porno. Sin embargo, a medida que la tecnología mejoraba, quedó claro que los malos actores o las naciones rebeldes podían usarla para propaganda o con fines más nefastos.

Las universidades fueron las primeras en desarrollar algoritmos para detectar deepfakes, seguidas rápidamente por el Departamento de Defensa de EE. UU. Varios gigantes tecnológicos, incluidos Twitter, Facebook y Microsoft, también han desarrollado formas de detectar deepfakes en sus plataformas. Los investigadores dicen que la mejor manera de combatir esta técnica es entrenar al oponente en los sistemas de detección.

«Recomendamos enfoques similares al Adversarial Training para entrenar detectores Deepfake robustos», explicó el coautor Paarth Neekhara en el artículo de investigación del equipo. «Es decir, durante el entrenamiento, un oponente adaptativo sigue generando nuevos Deepfakes que pueden evitar el estado actual del detector, y el detector sigue mejorando para detectar nuevos Deepfakes».

El grupo ha publicado varios ejemplos de su trabajo en GitHub. Para aquellos interesados ​​en las minucias de la tecnología, consulte el documento publicado a través de arXivLabs de Cornell.

Enlace permanente a la historia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *