mayo 1, 2021

Los deepfakes no son muy buenos, ni las herramientas para detectarlos.

Una comparación entre un video original y en profundidad del CEO de Facebook, Mark Zuckerberg.
Acercarse / / Una comparación entre un video original y en profundidad del CEO de Facebook, Mark Zuckerberg.

Somos afortunados de que los videos profundos aún no sean un gran problema. El mejor detector de deepfake que surgió de un gran esfuerzo dirigido por Facebook para combatir los videos manipulados solo capturaría aproximadamente dos tercios de él.

En septiembre, a medida que crecían las especulaciones sobre el peligro de las falsificaciones profundas, Facebook desafió a los asistentes de inteligencia artificial a desarrollar técnicas para detectar videos falsos. En enero, la compañía también prohibió las falsificaciones profundas utilizadas para difundir información errónea.

El Deepfake Detection Challenge de Facebook, en colaboración con Microsoft, Amazon Web Services y Artificial Intelligence Partnership, fue administrado por Kaggle, una plataforma para los concursos de codificación de propiedad de Google. Proporcionó una gran colección de videos de intercambio de caras: 100,000 clips de deepfake, creados por Facebook con actores pagados, en los que los participantes probaron sus algoritmos de detección. El proyecto atrajo a más de 2,000 participantes de la industria y la academia y generó más de 35,000 modelos de detección falsa.

El mejor modelo que surgió de la competencia encontró falsificaciones profundas de la colección de Facebook un poco más del 82% del tiempo. Pero cuando ese algoritmo se probó contra una serie de deepfakes nunca antes vistos, su rendimiento cayó a poco más del 65 por ciento.

«Está bien y es útil para ayudar a los moderadores humanos, pero obviamente ni siquiera está cerca del nivel de precisión que necesita», dice Hany Farid, profesor de UC Berkeley y autoridad forense, que está familiarizado con el proyecto de Facebook. impulsado. «Hay que cometer errores del orden de uno en mil millones, algo así».

Deepfakes usa inteligencia artificial para injertar digitalmente la cara de una persona en otra persona, haciendo que parezca que esa persona ha hecho y dijo cosas que nunca ha hecho. Por ahora, muchos deepfakes son extraños y divertidos; algunos han aparecido inteligentemente anuncios.

La preocupación es que un día las falsificaciones profundas pueden convertirse en un arma particularmente poderosa y poderosa para la desinformación política, el discurso de odio o el acoso, que se propaga viralmente en plataformas como Facebook. La barra para crear deepfakes es preocupantemente baja, con programas simples de apuntar y hacer clic basados ​​en algoritmos de IA ya disponibles de forma gratuita.

«Frustrado»

«Me sentí personalmente frustrado por el tiempo y la energía que los investigadores inteligentes estaban tomando para profundizar», dice Mike Schroepfer, director de tecnología de Facebook. Dijo que el desafío tenía la intención de alentar «el amplio enfoque de la industria en herramientas y tecnologías para ayudarnos a detectar estas cosas, de modo que si se usan de manera perjudicial, hayamos adaptado enfoques para combatirlas».

Schroepfer considera que los resultados del desafío son impresionantes, dado que los participantes solo tenían unos pocos meses. Deepfakes aún no es un gran problema, pero Schroepfer dice que es importante estar preparado en caso de que estén armados. «Quiero estar realmente preparado para muchas cosas malas que nunca suceden en lugar de lo contrario», dice Schroepfer.

El algoritmo de puntaje alto para el desafío deepfake fue escrito por Selim Seferbekov, ingeniero de aprendizaje automático en Mapbox, ubicado en Minsk, Bielorrusia; ganó $ 500,000. Seferbekov dice que no está particularmente preocupado por los deepfakes por ahora.

«Su uso nocivo es actualmente lo suficientemente bajo, si es que hay alguno», dice Seferbekov. Pero sospecha que los enfoques mejorados de aprendizaje automático pueden cambiar esto. «Podrían tener algún impacto en el futuro como las noticias falsas escritas hoy». El algoritmo de Seferbekov será de procedencia abierta, para que otros puedan usarlo.

Gato y ratón

Capturar deepfakes con IA es una especie de juego de gato y ratón. Un algoritmo detector puede ser entrenado para detectar falsificaciones profundas, pero por lo tanto, un algoritmo que genera falsificaciones puede potencialmente ser entrenado para evadir la detección. Schroepfer afirma que esto causó cierta preocupación al liberar el código del proyecto, pero Facebook concluyó que valía la pena arriesgarse a atraer a más personas al esfuerzo.

Facebook ya usa la tecnología para detectar automáticamente algunas falsificaciones profundas, según Schroepfer, pero la compañía se negó a decir cuántos videos falsos se han marcado de esta manera. Parte del problema con la automatización de la detección de deepfakes, dice Schroepfer, es que algunos son simplemente divertidos, mientras que otros pueden doler. En otras palabras, como otras formas de desinformación, el contexto es importante. Y eso es difícil de entender para un automóvil.

Según Farid, de UC Berkeley, la creación de un detector de falsificaciones profundas realmente útil podría ser aún más difícil de lo que sugiere el concurso, porque están surgiendo rápidamente nuevas técnicas y un fabricante travieso de falsificaciones profundas podría trabajar duro para burlar a un detector en particular.

Farid cuestiona el valor de tal proyecto cuando Facebook parece reacio a monitorear el contenido cargado por el usuario. «Cuando Mark Zuckerberg dice que no somos los árbitros de la verdad, ¿por qué lo hacemos?» él pide.

Incluso si la política de Facebook cambia, Farid dice que la compañía de redes sociales tiene desafíos de desinformación más apremiantes. «Si bien los deepfakes son una amenaza emergente, me gustaría alentarnos a no estar demasiado distraídos por ellos», dice Farid. «Todavía no lo necesitamos. Las cosas simples funcionan».

Esta historia apareció originalmente en wired.com.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *